Introducción al Bootstrapping en estadística con un ejemplo

El Bootstrapping es un procedimiento estadístico que remuestrea un único conjunto de datos para crear muchas muestras simuladas. Este proceso permite calcular los errores estándar, construir intervalos de confianza y realizar pruebas de hipótesis para numerosos tipos de estadísticas muestrales. Los métodos de bootstrap son enfoques alternativos a las pruebas de hipótesis tradicionales y destacan por ser más fáciles de entender y válidos para más condiciones.

En esta entrada del blog, explico los fundamentos del bootstrap, comparo el bootstrap con los métodos estadísticos convencionales y explico cuándo puede ser el mejor método. Además, trabajaré a través de un ejemplo utilizando datos reales para crear intervalos de confianza con bootstrapping.

El bootstrapping y la prueba de hipótesis tradicional son procedimientos estadísticos inferenciales

Tanto el bootstrapping como los métodos tradicionales utilizan muestras para hacer inferencias sobre las poblaciones. Para lograr este objetivo, estos procedimientos tratan la única muestra que obtiene un estudio como sólo una de las muchas muestras aleatorias que el estudio podría haber recogido.

A partir de una única muestra, se puede calcular una variedad de estadísticas muestrales, como la media, la mediana y la desviación estándar, pero aquí nos centraremos en la media.

Ahora, suponga que un analista repite su estudio muchas veces. En esta situación, la media variará de una muestra a otra y formará una distribución de medias muestrales. Los estadísticos se refieren a este tipo de distribución como una distribución de muestreo. Las distribuciones muestrales son cruciales porque sitúan el valor de su estadística muestral en el contexto más amplio de muchos otros valores posibles.

Aunque realizar un estudio muchas veces es inviable, ambos métodos pueden estimar distribuciones muestrales. Utilizando el contexto más amplio que proporcionan las distribuciones muestrales, estos procedimientos pueden construir intervalos de confianza y realizar pruebas de hipótesis.

: Diferencias entre la estadística descriptiva y la inferencial

Diferencias entre el bootstrapping y la prueba de hipótesis tradicional

Una diferencia principal entre el bootstrapping y la estadística tradicional es cómo estiman las distribuciones de muestreo.

Los procedimientos tradicionales de prueba de hipótesis requieren ecuaciones que estiman las distribuciones de muestreo utilizando las propiedades de los datos de la muestra, el diseño experimental y un estadístico de prueba. Para obtener resultados válidos, tendrá que utilizar el estadístico de prueba adecuado y satisfacer los supuestos. Describo este proceso con más detalle en otros posts-enlaces más abajo.

El método bootstrap utiliza un enfoque muy diferente para estimar las distribuciones muestrales. Este método toma los datos de la muestra que obtiene un estudio y luego los remuestrea una y otra vez para crear muchas muestras simuladas. Cada una de estas muestras simuladas tiene sus propias propiedades, como la media. Cuando se grafica la distribución de estas medias en un histograma, se puede observar la distribución muestral de la media. No necesita preocuparse por los estadísticos de prueba, las fórmulas y las suposiciones.

El procedimiento bootstrap utiliza estas distribuciones de muestreo como base para los intervalos de confianza y las pruebas de hipótesis. Echemos un vistazo a cómo funciona este proceso de remuestreo.

Cómo funcionan las pruebas t y cómo funciona la prueba F en ANOVA

Cómo el bootstrap remuestrea sus datos para crear conjuntos de datos simulados

El bootstrap remuestrea el conjunto de datos original con reemplazo muchos miles de veces para crear conjuntos de datos simulados. Este proceso consiste en extraer muestras aleatorias del conjunto de datos original. Así es como funciona:

  1. El método bootstrap tiene la misma probabilidad de extraer aleatoriamente cada punto de datos original para incluirlo en los conjuntos de datos remuestreados.
  2. El procedimiento puede seleccionar un punto de datos más de una vez para un conjunto de datos remuestreado. Esta propiedad es el aspecto «con reemplazo» del proceso.
  3. El procedimiento crea conjuntos de datos remuestreados que tienen el mismo tamaño que el conjunto de datos original.
  4. El proceso termina con sus conjuntos de datos simulados que tienen muchas combinaciones diferentes de los valores que existen en el conjunto de datos original. Cada conjunto de datos simulado tiene su propio conjunto de estadísticas muestrales, como la media, la mediana y la desviación estándar. Los procedimientos de Bootstrap utilizan la distribución de los estadísticos muestrales a través de las muestras simuladas como la distribución de muestreo.

    Ejemplo de Muestras Bootstrap

    Trabajemos con un caso fácil. Supongamos que un estudio recoge cinco puntos de datos y crea cuatro muestras bootstrap, como se muestra a continuación.

    Este sencillo ejemplo ilustra las propiedades de las muestras bootstrap. Los conjuntos de datos remuestreados tienen el mismo tamaño que el conjunto de datos original y sólo contienen valores que existen en el conjunto original. Además, estos valores pueden aparecer con mayor o menor frecuencia en los conjuntos de datos remuestreados que en el conjunto de datos original. Por último, el proceso de remuestreo es aleatorio y podría haber creado un conjunto diferente de conjuntos de datos simulados.

    Por supuesto, en un estudio real, se esperaría tener un tamaño de muestra mayor, y se crearían miles de conjuntos de datos remuestreados. Dado el enorme número de conjuntos de datos remuestreados, siempre utilizará un ordenador para realizar estos análisis.

    ¿Cómo funciona el Bootstrapping?

    El remuestreo implica la reutilización de su conjunto de datos muchas veces. Casi parece demasiado bueno para ser verdad. De hecho, el término «bootstrapping» proviene de la frase imposible de sacar adelante a uno mismo. Sin embargo, el uso de la potencia de los ordenadores para volver a muestrear aleatoriamente su conjunto de datos para crear miles de conjuntos de datos simulados produce resultados significativos.

    El método bootstrap ha existido desde 1979, y su uso ha aumentado. Varios estudios realizados en las décadas transcurridas han determinado que las distribuciones de muestreo del bootstrap se aproximan a las distribuciones de muestreo correctas.

    Para entender cómo funciona, tenga en cuenta que el bootstrap no crea nuevos datos. En su lugar, trata la muestra original como un proxy de la población real y luego extrae muestras aleatorias de ella. En consecuencia, el supuesto central del bootstrapping es que la muestra original representa con exactitud la población real.

    El proceso de remuestreo crea muchas muestras posibles que un estudio podría haber extraído. Las diversas combinaciones de valores en las muestras simuladas proporcionan colectivamente una estimación de la variabilidad entre las muestras aleatorias extraídas de la misma población. El rango de estas muestras potenciales permite que el procedimiento construya intervalos de confianza y realice pruebas de hipótesis. Es importante destacar que, a medida que aumenta el tamaño de la muestra, el bootstrapping converge en la distribución de muestreo correcta en la mayoría de las condiciones.

    Ahora, veamos un ejemplo de este procedimiento en acción!

    Ejemplo de uso del bootstrapping para crear intervalos de confianza

    Para este ejemplo, utilizaré el bootstrapping para construir un intervalo de confianza para un conjunto de datos que contiene los porcentajes de grasa corporal de 92 chicas adolescentes. Utilicé este conjunto de datos en mi post sobre la identificación de la distribución de sus datos. Estos datos no siguen la distribución normal. Dado que no cumplen el supuesto de normalidad de la estadística tradicional, es un buen candidato para el bootstrapping. Aunque, el gran tamaño de la muestra podría permitirnos eludir este supuesto. El histograma de abajo muestra la distribución de los datos de la muestra original.

    Descargue el conjunto de datos CSV para probarlo usted mismo: body_fat.

    Realizando el procedimiento bootstrap

    Para crear las muestras bootstrap, estoy utilizando Statistics101, que es un programa de regalo. Este es un gran programa de simulación que también he utilizado para abordar el Problema de Monty Hall!

    Usando su lenguaje de programación, he escrito un script que toma mi conjunto de datos original y lo remuestrea con reemplazo 500.000 veces. Este proceso produce 500.000 muestras con 92 observaciones en cada una. El programa calcula la media de cada muestra y traza la distribución de estas 500.000 medias en el histograma de abajo. Los estadísticos se refieren a este tipo de distribución como la distribución muestral de las medias. Los métodos de Bootstrapping crean estas distribuciones utilizando el remuestreo, mientras que los métodos tradicionales utilizan ecuaciones para las distribuciones de probabilidad. Descargue este script para ejecutarlo usted mismo: BodyFatBootstrapCI.

    Para crear el intervalo de confianza bootstrap, simplemente utilizamos percentiles. Para un intervalo de confianza del 95%, necesitamos identificar el 95% medio de la distribución. Para ello, utilizamos el percentil 97,5 y el percentil 2,5 (97,5 – 2,5 = 95). En otras palabras, si ordenamos todas las medias de la muestra de menor a mayor, y luego cortamos el 2,5% más bajo y el 2,5% más alto de las medias, queda el 95% medio de las medias. Para los datos de grasa corporal, el programa calcula un intervalo de confianza bootstrap del 95% de la media. Podemos tener un 95% de confianza en que la media de la población se encuentra dentro de este rango.

    Este intervalo tiene la misma anchura que el intervalo de confianza tradicional para estos datos, y sólo difiere en varios puntos porcentuales. Los dos métodos están muy cerca.

    Note cómo la distribución de muestreo en el histograma se aproxima a una distribución normal aunque la distribución de datos subyacente sea sesgada. Esta aproximación se produce gracias al teorema del límite central. A medida que aumenta el tamaño de la muestra, la distribución de muestreo converge en una distribución normal independientemente de la distribución de datos subyacente (con algunas excepciones). Para más información sobre este teorema, lea mi post sobre el Teorema del Límite Central.

    Compare este proceso con la forma en que los métodos estadísticos tradicionales crean intervalos de confianza.

    Beneficios del bootstrapping sobre la estadística tradicional

    Los lectores de mi blog saben que me encantan las explicaciones intuitivas de los métodos estadísticos complejos. Y, el bootstrapping encaja perfectamente con esta filosofía. Este proceso es mucho más fácil de comprender que las complejas ecuaciones que requieren las distribuciones de probabilidad de los métodos tradicionales. Sin embargo, el bootstrapping proporciona más beneficios que el hecho de ser fácil de entender

    El bootstrapping no hace suposiciones sobre la distribución de sus datos. Usted simplemente remuestrea sus datos y utiliza cualquier distribución de muestreo que surja. Luego, se trabaja con esa distribución, sea cual sea, como hicimos en el ejemplo.

    A la inversa, los métodos tradicionales suelen suponer que los datos siguen la distribución normal o alguna otra distribución. En el caso de la distribución normal, el teorema del límite central puede permitirle eludir esta suposición para tamaños de muestra superiores a ~30. En consecuencia, puede utilizar el bootstrapping para una mayor variedad de distribuciones, distribuciones desconocidas y tamaños de muestra más pequeños. Tamaños de muestra tan pequeños como 10 pueden ser utilizables.

    En este sentido, todos los métodos tradicionales utilizan ecuaciones que estiman la distribución muestral para un estadístico muestral específico cuando los datos siguen una distribución particular. Por desgracia, ¡no existen fórmulas para todas las combinaciones de estadísticas muestrales y distribuciones de datos! Por ejemplo, no existe una distribución de muestreo conocida para las medianas, lo que hace que el bootstrapping sea el análisis perfecto para ello. Otros análisis tienen supuestos como la igualdad de varianzas. Sin embargo, ninguna de estas cuestiones es un problema para el bootstrap.

    ¿Para qué estadísticas muestrales puedo utilizar el bootstrap?

    Aunque esta entrada del blog se centra en la media muestral, el método bootstrap puede analizar una amplia gama de estadísticas y propiedades muestrales. Estos estadísticos incluyen la media, la mediana, la moda, la desviación estándar, el análisis de la varianza, las correlaciones, los coeficientes de regresión, las proporciones, las odds ratios, la varianza en datos binarios y los estadísticos multivariantes, entre otros.

    Hay varias condiciones, en su mayoría esotéricas, en las que el bootstrap no es apropiado, como cuando la varianza de la población es infinita o cuando los valores de la población son discontinuos en la mediana. Además, hay varias condiciones en las que es necesario ajustar el proceso de bootstrapping para tener en cuenta el sesgo. Sin embargo, esos casos van más allá del alcance de esta entrada de blog introductoria.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *