Club mathématique
de l'Université de Montréal

Accueil Journal Calendrier Archive

La modélisation de l'information a priori en statistique

En probabilité, la règle de Bayes est une formule très utile pour calculer des probabilités conditionnelles. En statistique, elle peut être utilisée afin d'introduire de l'information a priori sur les paramètres qui sont inconnus. La procédure d'estimation de ces paramètres, qui se fait en combinant l'information a priori et l'information contenue dans l'échantillon, devient beaucoup plus probabiliste. On obtient alors ce qu'on appelle le paradigme bayésien, ou simplement la statistique bayésienne. J'expliquerai, entre autre à l'aide d'exemples simples, la "construction" de la statistique bayésienne ainsi que ses avantages par rapport à la statistique dite "classique". Si le temps le permet, j'aborderai également les méthodes d'approximation qui deviennent essentielles en statistique bayésienne dû à la complexité des calculs à effectuer.

Par Michaël Lalancette, étudiant au DMS