Analyse bayésienne, une méthode d’inférence statistique (nommée d’après le mathématicien anglais Thomas Bayes) qui permet de combiner des informations préalables sur un paramètre de la population avec des preuves provenant d’informations contenues dans un échantillon pour guider le processus d’inférence statistique. Une distribution de probabilité antérieure pour un paramètre d’intérêt est d’abord spécifiée. Les preuves sont ensuite obtenues et combinées par une application du théorème de Bayes pour fournir une distribution de probabilité postérieure pour le paramètre. La distribution postérieure fournit la base des inférences statistiques concernant le paramètre.
Cette méthode d’inférence statistique peut être décrite mathématiquement comme suit . Si, à un stade particulier d’une enquête, un scientifique attribue une distribution de probabilité à l’hypothèse H, Pr(H)-appelons cela la probabilité antérieure de H-et attribue des probabilités aux preuves obtenues E conditionnellement à la vérité de H, PrH(E), et conditionnellement à la fausseté de H, Pr-H(E), le théorème de Bayes donne une valeur pour la probabilité de l’hypothèse H conditionnellement aux preuves E par la formulePrE(H) = Pr(H)PrH(E)/.
L’une des caractéristiques attrayantes de cette approche de la confirmation est que lorsque les preuves seraient hautement improbables si l’hypothèse était fausse – c’est-à-dire lorsque Pr-H(E) est extrêmement faible – il est facile de voir comment une hypothèse avec une probabilité antérieure assez faible peut acquérir une probabilité proche de 1 lorsque les preuves arrivent. (Cela vaut même lorsque Pr(H) est assez faible et Pr(-H), la probabilité que H soit fausse, proportionnellement grande ; si E découle déductivement de H, PrH(E) sera égal à 1 ; par conséquent, si Pr-H(E) est minuscule, le numérateur du côté droit de la formule sera très proche du dénominateur, et la valeur du côté droit s’approche donc de 1.)
Une caractéristique clé, et quelque peu controversée, des méthodes bayésiennes est la notion de distribution de probabilité pour un paramètre de population. Selon les statistiques classiques, les paramètres sont des constantes et ne peuvent être représentés comme des variables aléatoires. Les partisans des méthodes bayésiennes soutiennent que, si la valeur d’un paramètre est inconnue, il est logique de spécifier une distribution de probabilité qui décrit les valeurs possibles du paramètre ainsi que leur probabilité. L’approche bayésienne permet d’utiliser des données objectives ou des opinions subjectives pour spécifier une distribution antérieure. Avec l’approche bayésienne, des individus différents peuvent spécifier des distributions antérieures différentes. Les statisticiens classiques affirment que, pour cette raison, les méthodes bayésiennes souffrent d’un manque d’objectivité. Les partisans de l’approche bayésienne soutiennent que les méthodes classiques d’inférence statistique ont une subjectivité intégrée (par le choix d’un plan d’échantillonnage) et que l’avantage de l’approche bayésienne est que cette subjectivité est rendue explicite.
Les méthodes bayésiennes ont été largement utilisées en théorie statistique de la décision (voir statistiques : analyse de décision). Dans ce contexte, le théorème de Bayes fournit un mécanisme permettant de combiner une distribution de probabilité antérieure pour les états de la nature avec des informations sur les échantillons afin de fournir une distribution de probabilité révisée (postérieure) sur les états de la nature. Ces probabilités postérieures sont ensuite utilisées pour prendre de meilleures décisions.