El análisis bayesiano, un método de inferencia estadística (llamado así por el matemático inglés Thomas Bayes) que permite combinar la información a priori sobre un parámetro de la población con la evidencia de la información contenida en una muestra para guiar el proceso de inferencia estadística. Primero se especifica una distribución de probabilidad a priori para un parámetro de interés. A continuación, se obtienen las pruebas y se combinan mediante una aplicación del teorema de Bayes para obtener una distribución de probabilidad posterior para el parámetro. La distribución posterior proporciona la base para las inferencias estadísticas relativas al parámetro.
Este método de inferencia estadística puede describirse matemáticamente como sigue. Si, en una etapa particular de una investigación, un científico asigna una distribución de probabilidad a la hipótesis H, Pr(H) -llamémosla probabilidad a priori de H- y asigna probabilidades a la evidencia E obtenida condicionalmente a la verdad de H, PrH(E), y condicionalmente a la falsedad de H, Pr-H(E), el teorema de Bayes da un valor para la probabilidad de la hipótesis H condicionalmente a la evidencia E mediante la fórmulaPrE(H) = Pr(H)PrH(E)/.
Una de las características atractivas de este enfoque de la confirmación es que cuando la evidencia sería altamente improbable si la hipótesis fuera falsa -es decir, cuando Pr-H(E) es extremadamente pequeña- es fácil ver cómo una hipótesis con una probabilidad previa bastante baja puede adquirir una probabilidad cercana a 1 cuando la evidencia llega. (Esto es así incluso cuando Pr(H) es bastante pequeño y Pr(-H), la probabilidad de que H sea falsa, es correspondientemente grande; si E se deduce de H, PrH(E) será 1; por lo tanto, si Pr-H(E) es diminuto, el numerador del lado derecho de la fórmula estará muy cerca del denominador, y el valor del lado derecho se aproxima así a 1.)
Una característica clave, y algo controvertida, de los métodos bayesianos es la noción de una distribución de probabilidad para un parámetro de la población. Según la estadística clásica, los parámetros son constantes y no pueden representarse como variables aleatorias. Los defensores del método bayesiano sostienen que, si se desconoce el valor de un parámetro, tiene sentido especificar una distribución de probabilidad que describa los posibles valores del parámetro, así como su probabilidad. El enfoque bayesiano permite utilizar datos objetivos u opiniones subjetivas para especificar una distribución a priori. Con el enfoque bayesiano, diferentes individuos pueden especificar diferentes distribuciones a priori. Los estadísticos clásicos sostienen que, por esta razón, los métodos bayesianos adolecen de falta de objetividad. Los defensores de los bayesianos argumentan que los métodos clásicos de inferencia estadística tienen subjetividad incorporada (a través de la elección de un plan de muestreo) y que la ventaja del enfoque bayesiano es que la subjetividad se hace explícita.
Los métodos bayesianos se han utilizado ampliamente en la teoría de la decisión estadística (ver estadística: Análisis de decisiones). En este contexto, el teorema de Bayes proporciona un mecanismo para combinar una distribución de probabilidad a priori para los estados de la naturaleza con la información de la muestra para proporcionar una distribución de probabilidad revisada (posterior) sobre los estados de la naturaleza. Estas probabilidades posteriores se utilizan entonces para tomar mejores decisiones.