Introdução ao Bootstrapping em Estatística com um Exemplo

Bootstrapping é um procedimento estatístico que recolhe amostras de um único conjunto de dados para criar muitas amostras simuladas. Este processo permite calcular erros padrão, construir intervalos de confiança, e realizar testes de hipóteses para numerosos tipos de estatísticas de amostras. Os métodos Bootstrap são abordagens alternativas aos testes de hipóteses tradicionais e são notáveis por serem mais fáceis de compreender e válidos para mais condições.

Neste post do blog, explico o básico de bootstrapping, comparo o bootstrapping com métodos estatísticos convencionais, e explico quando pode ser o melhor método. Adicionalmente, vou trabalhar através de um exemplo usando dados reais para criar intervalos de confiança bootstrapping.

Bootstrapping e Testes de Hipóteses Tradicionais são Procedimentos Estatísticos Inferenciais

Both bootstrapping e os métodos tradicionais usam amostras para extrair inferências sobre as populações. Para atingir este objectivo, estes procedimentos tratam a amostra única que um estudo obtém como apenas uma de muitas amostras aleatórias que o estudo poderia ter recolhido.

De uma única amostra, é possível calcular uma variedade de estatísticas de amostras, tais como a média, a mediana e o desvio padrão – mas vamos concentrar-nos aqui na média.

Agora, suponhamos que um analista repete o seu estudo muitas vezes. Nesta situação, a média variará de amostra para amostra e formará uma distribuição de meios de amostra. Os estaticistas referem-se a este tipo de distribuição como uma distribuição de amostra. As distribuições por amostragem são cruciais porque colocam o valor da sua amostra estatística no contexto mais amplo de muitos outros valores possíveis.

Embora seja inviável realizar um estudo muitas vezes, ambos os métodos podem estimar as distribuições por amostragem. Utilizando o contexto mais amplo que as distribuições de amostras proporcionam, estes procedimentos podem construir intervalos de confiança e realizar testes de hipóteses.

: Diferenças entre Estatísticas Descritivas e Inferenciais

Diferenças entre Bootstrapping e Testes de Hipóteses Tradicionais

Uma diferença primária entre bootstrapping e estatísticas tradicionais é como estimam as distribuições de amostras.

Procedimentos de testes de hipóteses tradicionais requerem equações que estimem as distribuições de amostras usando as propriedades dos dados da amostra, o desenho experimental, e uma estatística de teste. Para obter resultados válidos, será necessário utilizar a estatística de teste adequada e satisfazer as suposições. Descrevo este processo com mais detalhes noutros posts-links abaixo.

O método bootstrap utiliza uma abordagem muito diferente para estimar distribuições de amostras. Este método recolhe os dados da amostra que um estudo obtém, e depois faz uma nova amostragem para criar muitas amostras simuladas. Cada uma destas amostras simuladas tem as suas próprias propriedades, tais como a média. Quando se grafa a distribuição destes meios num histograma, é possível observar a distribuição da média por amostragem. Não precisa de se preocupar com estatísticas de teste, fórmulas e suposições.

O procedimento bootstrap utiliza estas distribuições de amostras como base para intervalos de confiança e testes de hipóteses. Vamos ver como funciona este processo de re-amostragem.

: Como funcionam os testes t e como funciona o teste F em ANOVA

Como o Bootstrapping re-amostra os seus dados para criar conjuntos de dados simulados

Bootstrapping re-amostra o conjunto de dados original com substituição muitos milhares de vezes para criar conjuntos de dados simulados. Este processo envolve o desenho de amostras aleatórias a partir do conjunto de dados original. Eis como funciona:

  1. O método bootstrap tem uma probabilidade igual de desenhar aleatoriamente cada ponto de dados original para inclusão nos conjuntos de dados reamplificados.
  2. O procedimento pode seleccionar um ponto de dados mais de uma vez para um conjunto de dados reamplificado. Esta propriedade é o aspecto “com substituição” do processo.
  3. O procedimento cria conjuntos de dados resampled que são do mesmo tamanho do conjunto de dados original.

O processo termina com os seus conjuntos de dados simulados tendo muitas combinações diferentes dos valores que existem no conjunto de dados original. Cada conjunto de dados simulado tem o seu próprio conjunto de estatísticas de amostras, tais como a média, a mediana, e o desvio padrão. Os procedimentos de Bootstrap utilizam a distribuição das estatísticas de amostras através das amostras simuladas como a distribuição de amostras.

Exemplo de amostras Bootstrap

Trabalhemos através de um caso fácil. Suponha que um estudo recolhe cinco pontos de dados e cria quatro amostras bootstrap, como se mostra abaixo.

Este exemplo simples ilustra as propriedades das amostras bootstrap. Os conjuntos de dados resamplificados têm o mesmo tamanho que o conjunto de dados original e contêm apenas valores que existem no conjunto original. Além disso, estes valores podem aparecer mais ou menos frequentemente nos conjuntos de dados resampledados do que no conjunto de dados original. Finalmente, o processo de reamostragem é aleatório e poderia ter criado um conjunto diferente de conjuntos de dados simulados.

Obtendo, num estudo real, esperar-se-ia ter um tamanho de amostra maior, e criar milhares de conjuntos de dados reamplificados. Dado o enorme número de conjuntos de dados resamplificados, utilizará sempre um computador para realizar estas análises.

How Well Does Bootstrapping Work?

Resamplificação envolve a reutilização do seu único conjunto de dados muitas vezes. Quase parece bom demais para ser verdade! De facto, o termo “bootstrapping” vem da frase impossível de se puxar para cima pelas suas próprias bootstraps! Contudo, usar o poder dos computadores para fazer uma nova amostra aleatória do seu único conjunto de dados para criar milhares de conjuntos de dados simulados produz resultados significativos.

O método bootstrap existe desde 1979, e a sua utilização tem aumentado. Vários estudos ao longo das décadas intermédias determinaram que as distribuições de amostragem bootstrap aproximam-se das distribuições de amostragem correctas.

Para compreender como funciona, tenha em mente que a bootstrap não cria novos dados. Em vez disso, trata a amostra original como um proxy para a população real e depois retira amostras aleatórias da mesma. Consequentemente, o pressuposto central para o bootstrapping é que a amostra original representa precisamente a população real.

O processo de reamostragem cria muitas amostras possíveis que um estudo poderia ter extraído. As várias combinações de valores nas amostras simuladas fornecem colectivamente uma estimativa da variabilidade entre as amostras aleatórias retiradas da mesma população. A gama destas amostras potenciais permite o procedimento de construir intervalos de confiança e realizar testes de hipóteses. Importante, à medida que o tamanho da amostra aumenta, o bootstrapping converge na distribuição correcta da amostragem na maioria das condições.

Agora, vamos ver um exemplo deste procedimento em acção!

Exemplo de Utilização de Bootstrapping para Criar Intervalos de Confiança

Para este exemplo, vou utilizar o bootstrapping para construir um intervalo de confiança para um conjunto de dados que contém as percentagens de gordura corporal de 92 raparigas adolescentes. Utilizei este conjunto de dados no meu post sobre a identificação da distribuição dos vossos dados. Estes dados não seguem a distribuição normal. Por não corresponder à suposição de normalidade das estatísticas tradicionais, é um bom candidato para bootstrapping. Embora, a grande dimensão da amostra possa permitir-nos contornar esta suposição. O histograma abaixo mostra a distribuição dos dados da amostra original.

p>Baixar o conjunto de dados do CSV para o experimentar: body_fat.

Executar o procedimento bootstrap

Para criar as amostras bootstrap, estou a utilizar o Statistics101, que é um programa de brindes. Este é um grande programa de simulação que também utilizei para resolver o problema Monty Hall!

Utilizando a sua linguagem de programação, escrevi um script que pega no meu conjunto de dados original e o remonta com substituição 500.000 vezes. Este processo produz 500.000 amostras de bootstrapped com 92 observações em cada uma. O programa calcula a média de cada amostra e traça a distribuição destas 500.000 médias no histograma abaixo. Os estaticistas referem-se a este tipo de distribuição como a distribuição de meios por amostragem. Os métodos de armadilhagem de botas criam estas distribuições utilizando a reamostragem, enquanto que os métodos tradicionais utilizam equações para as distribuições de probabilidade. Descarregue este guião para o executar você mesmo: BodyFatBootstrapCI.

Para criar o intervalo de confiança bootstrapCI.

, utilizamos simplesmente percentis. Para um intervalo de confiança de 95%, precisamos de identificar os 95% médios da distribuição. Para isso, utilizamos o percentil 97,5 e o percentil 2,5 (97,5 – 2,5 = 95). Por outras palavras, se encomendarmos todos os meios de amostra de baixo para alto, e depois cortarmos os 2,5% mais baixos e os 2,5% mais altos dos meios, os 95% médios permanecem. Esse intervalo é o nosso intervalo de confiança de arranque!

Para os dados relativos à gordura corporal, o programa calcula um intervalo de confiança de arranque de 95% da média . Podemos estar 95% confiantes de que a média da população está dentro deste intervalo.

Este intervalo tem a mesma largura que o intervalo de confiança tradicional para estes dados, e é diferente apenas por vários pontos percentuais. Os dois métodos são muito próximos.

Notificação de como a distribuição da amostragem no histograma se aproxima de uma distribuição normal, mesmo que a distribuição dos dados subjacentes seja enviesada. Esta aproximação ocorre graças ao teorema do limite central. medida que o tamanho da amostra aumenta, a distribuição de amostras converge para uma distribuição normal, independentemente da distribuição dos dados subjacentes (com algumas excepções). Para mais informações sobre este teorema, ler o meu post sobre o Teorema do Limite Central.

Comparar este processo com a forma como os métodos estatísticos tradicionais criam intervalos de confiança.

Benefícios do Bootstrapping sobre as Estatísticas Tradicionais

Leitores do meu blog sabem que adoro explicações intuitivas sobre métodos estatísticos complexos. E, o Bootstrapping enquadra-se perfeitamente nesta filosofia. Este processo é muito mais fácil de compreender do que as complexas equações necessárias para as distribuições de probabilidade dos métodos tradicionais. Contudo, o bootstrapping proporciona mais benefícios do que apenas ser fácil de compreender!

Bootstrapping não faz suposições sobre a distribuição dos seus dados. Limita-se a fazer uma nova amostragem dos seus dados e a utilizar qualquer que seja a distribuição de amostras que surja. Depois, trabalha com essa distribuição, seja ela qual for, como fizemos no exemplo.

Conversamente, os métodos tradicionais assumem frequentemente que os dados seguem a distribuição normal ou alguma outra distribuição. Para a distribuição normal, o teorema do limite central poderá permitir-lhe contornar esta suposição para tamanhos de amostra superiores a ~30. Consequentemente, é possível utilizar bootstrapping para uma maior variedade de distribuições, distribuições desconhecidas, e tamanhos de amostra menores. Tamanhos de amostra tão pequenos quanto 10 podem ser utilizáveis.

Neste sentido, todos os métodos tradicionais utilizam equações que estimam a distribuição de amostras para uma estatística de amostra específica quando os dados seguem uma determinada distribuição. Infelizmente, não existem fórmulas para todas as combinações de estatísticas de amostras e distribuições de dados! Por exemplo, não existe uma distribuição de amostras conhecida para as medianas, o que faz com que o bootstrapping seja a análise perfeita para a mesma. Outras análises têm pressupostos tais como a igualdade de variâncias. Contudo, nenhum destes problemas são problemas para bootstrapping.

Para que estatísticas de amostra posso usar Bootstrapping?

Embora este post de blogue se concentre na média da amostra, o método bootstrap pode analisar uma vasta gama de estatísticas e propriedades da amostra. Estas estatísticas incluem a média, mediana, modo, desvio padrão, análise de variância, correlações, coeficientes de regressão, proporções, odds ratios, variância em dados binários, e estatísticas multivariadas entre outros.

Existem várias condições, na sua maioria esotéricas, quando o bootstrapping não é apropriado, tais como quando a variância populacional é infinita, ou quando os valores populacionais são descontínuos na mediana. E, há várias condições em que os ajustes ao processo de bootstrapping são necessários para se ajustar ao enviesamento. Contudo, estes casos ultrapassam o âmbito deste post introdutório do blogue.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *