Error estándar

Valor exactoEditar

Si una muestra estadísticamente independiente de n {\displaystyle n}

n

observaciones x 1 , x 2 , … , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}}

{displaystyle x_{1},x_{2},\ldots ,x_{n}}

se toman de una población estadística con una desviación estándar de σ {\displaystyle \sigma }

sigma

, entonces el valor medio calculado de la muestra x ¯ {\displaystyle {\bar {x}}

{barra {x}}

tendrá un error estándar asociado sobre la media σ x ¯ {displaystyle {\sigma }_{barra {x}}

{displaystyle {{bar {x}}

dado por: σ x ¯ = σ n {{displaystyle {{bar {x}} ={frac {{sigma}} {{sqrt {n}}}}

{displaystyle {{barra {x}} ={frac {{sigma}} {{sqrt {n}}}}

.

Prácticamente esto nos dice que al tratar de estimar el valor de una media poblacional, debido al factor 1 / n {\displaystyle 1/{cuadrado {n}}

1/{{sqrt {n}}
, reducir el error en la estimación en un factor de dos requiere adquirir cuatro veces más observaciones en la muestra; reducirlo en un factor de diez requiere cien veces más observaciones.

EstimateEdit

La desviación estándar σ {\displaystyle \sigma }

\aquella de la población muestreada rara vez se conoce. Por lo tanto, el error estándar de la media se suele estimar sustituyendo σ {\displaystyle \sigma }\\Nsigma

por la desviación estándar de la muestra σ x {\displaystyle \Nsigma _{x}}

\aquélla con la desviación estándar de la muestra σ x ¯ ≈ σ x n {\aquélla con el estilo de la desviación estándar de la muestra σ x ¯ \aquélla con el estilo de la desviación estándar de la muestra σ x ¯ σ x ¯ σ x n {\aquélla con el estilo de la desviación estándar de la muestra σ x ¯ σ x σ x σ x σ x σ x σ x σ x n{displaystyle}{{barra}{aprox}{frac {{sigma}{x}{cuadrado}{n}}}}

.

Como esto es sólo un estimador del verdadero «error estándar», es común ver aquí otras notaciones como:

σ x ¯ ^ = σ x n {\displaystyle {\widehat {{sigma _{bar}}}}}}={frac {{sigma _{x}}{sqrt {n}}}}

{displaystyle} {{sigma _{barra}{x}}}}={frac {{sigma _{x}}{sqrt {n}}}}

o, alternativamente, s x ¯ = s n {\displaystyle \operatorname {s} _{barra {x}} ={frac {s}{sqrt {n}}}}

{displaystyle \_operatorname {s} _{barra {x}} ={frac {s}{sqrt {n}}}}

.

Una fuente común de confusión se produce al no distinguir claramente entre la desviación estándar de la población ( σ {\displaystyle \sigma }

\a la desviación estándar

), la desviación estándar de la muestra ( σ x {\displaystyle \a la desviación estándar _{x}}

\aquélla de la muestra

), la desviación estándar de la propia media ( σ x ¯ {\displaystyle \aquélla de la muestra

)

{displaystyle \\sigma _{bar {x}}

, que es el error estándar), y el estimador de la desviación estándar de la media ( σ x ¯ ^ {{displaystyle \sigma _{bar {x}}}}}}}

{\displaystyle {\widehat {\sigma _{bar} {x}}}}}

, que es la cantidad que se calcula con más frecuencia, y que también suele llamarse coloquialmente error estándar).

Precisión del estimadorEditar

Cuando el tamaño de la muestra es pequeño, utilizar la desviación típica de la muestra en lugar de la verdadera desviación típica de la población tenderá a subestimar sistemáticamente la desviación típica de la población, y por tanto también el error típico. Con n = 2, la subestimación es de aproximadamente el 25%, pero para n = 6, la subestimación es sólo del 5%. Gurland y Tripathi (1971) proporcionan una corrección y una ecuación para este efecto. Sokal y Rohlf (1981) dan una ecuación del factor de corrección para muestras pequeñas de n < 20. Ver estimación insesgada de la desviación estándar para una discusión más amplia.

DerivaciónEditar

El error estándar sobre la media puede derivarse de la varianza de una suma de variables aleatorias independientes, dada la definición de varianza y algunas propiedades sencillas de la misma. Si x 1 , x 2 , … , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}}

{{displaystyle x_{1},x_{2},\ldots ,x_{n}}

son n {{displaystyle n}

n

observaciones independientes de una población con media x ¯ {\displaystyle {\bar {x}}

{barra {x}}

y desviación estándar σ {\displaystyle \sigma }

\sigma

, entonces podemos definir el total T = ( x 1 + x 2 + ⋯ + x n ) {\displaystyle T=(x_{1}+x_{2}+\cdots +x_{n})}

{displaystyle T=(x_{1}+x_{2}+\cdots +x_{n})}

que debido a la fórmula de Bienaymé, tendrá varianza

Var ( T ) = ( Var ( x 1 ) + Var ( x 2 ) + ⋯ + Var ( x n ) ) = n σ 2 . {\displaystyle \\\Nde la operación {Var} (T)= {\big (}\nombredeloperador {Var} (x_{1})+nombredeloperador {Var} (x_{2})+\cdots +\conombre de operación {Var} (x_{n}){\big )}=n\cdotas +operatorname {Var}(x_{2})+cdots +operatorname {Var}(x_{n}){\big )}=n\cdotas ^{2}.

{displaystyle |operatorname {Var} (T)={grande} ({operador} {Var} (x_{1})+nombredeloperador {Var} (x_{2})+\cdots +\conombre de operación {Var} (x_{n}){\big )}=n\bigma ^{2}.}

La media de estas mediciones x ¯ {\displaystyle {\bar {x}}

{barra {x}}

está dada simplemente por x ¯ = T / n {\displaystyle {\bar {x}}=T/n}

{displaystyle {\bar {x}}=T/n}

.

La varianza de la media es entonces

Var ( T n ) = 1 n 2 Var ( T ) = 1 n 2 n σ 2 = σ 2 n . {\displaystyle \operatorname {Var} \left({\frac {T}{n}}right)={frac {1}{n^{2}} {operatorname {Var} (T)={frac {1}{n^{2}}n\\Nsigma ^{2}={frac {\Nsigma ^{2}}{n}.}

{displaystyle \_operatorname {Var} \izquierda({\frac {T}{n}}derecha)={frac {1}{n^{2}} {operador {Var} (T)={{frac {1}{n^2}}n\\Nsigma ^{2}={{frac {\sigma ^{2}}{n}.}

El error estándar es, por definición, la desviación estándar de x ¯ {\displaystyle {\bar {x}}

{barra {x}}

que es simplemente la raíz cuadrada de la varianza: σ x ¯ = σ 2 n = σ n {\displaystyle \sigma _{bar {x}}={{sqrt {\frac {\sigma ^{2}}{n}}={{frac {\sigma }{sqrt {n}}}}

{displaystyle \\\_bar {x}}={sqrt {\frac {\sigma ^{2}}{n}}={\frac {\sigma}{n}}}}

.

Para las variables aleatorias correlacionadas es necesario calcular la varianza de la muestra según el teorema del límite central de la cadena de Markov.

Variables aleatorias independientes e idénticamente distribuidas con tamaño de muestra aleatorioEditar

Hay casos en los que se toma una muestra sin saber, de antemano, cuántas observaciones serán aceptables según algún criterio. En estos casos, el tamaño de la muestra N {\displaystyle N}

N

es una variable aleatoria cuya variación se suma a la variación de X {\displaystyle X}

X

tal que, Var ( T ) = E ( N ) Var ( X ) + Var ( N ) ( E ( X ) ) 2 {\displaystyle \operatorname {Var} (T)=\Nnombredeloperador {E} (N)= nombre de operador {Var} (X)+nombredeloperador {Var} (N)+nombredeloperador {Var} (N){\big (} {operatorname {E} (X){\big )}^{2}}

{desde el punto de vista del estilo de la operación {Var} (T)=\Nnombredeloperador {E} (N)=nombredeloperador {Var} (T)=nombredeloperador {E} (N)=nombredeloperador {Var} (X)+ {nombre de operación {Var} (N)+ {nombre de operación {E} (N)+ {nombre de operación {Var} (N){\big (} {operatorname {E} (X){\big )}^{2}}

Si N {\blickea N}

N

tiene una distribución de Poisson, entonces E ( N ) = Var ( N ) {\displaystyle \operatorname {E} (N)=operatorname {Var} (N)}

{desde el estilo de la operación {E} (N)=operatorname {Var} (N)} (N)}

con estimador N = n {\displaystyle N=n}

{\displaystyle N=n}

. Por lo tanto el estimador de Var ( T ) {\displaystyle \operatorname {Var} (T)}

{desde el estilo de operación {Var} (T)}

se convierte en n S X 2 + n X ¯ 2 {\displaystyle nS_{X}^{2}+n{bar {X}^{2}}

{displaystyle nS_{X}^{2}+n{\bar {X}^{2}

, lo que lleva a la siguiente fórmula para el error estándar: S t a n d a r d E r o r ( X ¯ ) = S X 2 + X ¯ 2 n {\displaystyle \operatorname {Error estándar~} ({\bar {X}})= {\sqrt {\frac {S_{X}^{2}+{\bar {X}}^{2}{n}}}}

{displaystyle}{nombre del operador}{Estándar~Error}} ({\bar {X}})={sqrt {\frac {S_{X}^{2}+{\bar {X}}^{2}{n}}}}

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *