Valor exactoEditar
Si una muestra estadísticamente independiente de n {\displaystyle n}
observaciones x 1 , x 2 , … , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}}
se toman de una población estadística con una desviación estándar de σ {\displaystyle \sigma }
, entonces el valor medio calculado de la muestra x ¯ {\displaystyle {\bar {x}}
tendrá un error estándar asociado sobre la media σ x ¯ {displaystyle {\sigma }_{barra {x}}
dado por: σ x ¯ = σ n {{displaystyle {{bar {x}} ={frac {{sigma}} {{sqrt {n}}}}
.
Prácticamente esto nos dice que al tratar de estimar el valor de una media poblacional, debido al factor 1 / n {\displaystyle 1/{cuadrado {n}}
EstimateEdit
La desviación estándar σ {\displaystyle \sigma }
por la desviación estándar de la muestra σ x {\displaystyle \Nsigma _{x}}
.
Como esto es sólo un estimador del verdadero «error estándar», es común ver aquí otras notaciones como:
σ x ¯ ^ = σ x n {\displaystyle {\widehat {{sigma _{bar}}}}}}={frac {{sigma _{x}}{sqrt {n}}}}
o, alternativamente, s x ¯ = s n {\displaystyle \operatorname {s} _{barra {x}} ={frac {s}{sqrt {n}}}}
.
Una fuente común de confusión se produce al no distinguir claramente entre la desviación estándar de la población ( σ {\displaystyle \sigma }
), la desviación estándar de la propia media ( σ x ¯ {\displaystyle \aquélla de la muestra
, que es el error estándar), y el estimador de la desviación estándar de la media ( σ x ¯ ^ {{displaystyle \sigma _{bar {x}}}}}}}
, que es la cantidad que se calcula con más frecuencia, y que también suele llamarse coloquialmente error estándar).
Precisión del estimadorEditar
Cuando el tamaño de la muestra es pequeño, utilizar la desviación típica de la muestra en lugar de la verdadera desviación típica de la población tenderá a subestimar sistemáticamente la desviación típica de la población, y por tanto también el error típico. Con n = 2, la subestimación es de aproximadamente el 25%, pero para n = 6, la subestimación es sólo del 5%. Gurland y Tripathi (1971) proporcionan una corrección y una ecuación para este efecto. Sokal y Rohlf (1981) dan una ecuación del factor de corrección para muestras pequeñas de n < 20. Ver estimación insesgada de la desviación estándar para una discusión más amplia.
DerivaciónEditar
El error estándar sobre la media puede derivarse de la varianza de una suma de variables aleatorias independientes, dada la definición de varianza y algunas propiedades sencillas de la misma. Si x 1 , x 2 , … , x n {\displaystyle x_{1},x_{2},\ldots ,x_{n}}
son n {{displaystyle n}
observaciones independientes de una población con media x ¯ {\displaystyle {\bar {x}}
y desviación estándar σ {\displaystyle \sigma }
, entonces podemos definir el total T = ( x 1 + x 2 + ⋯ + x n ) {\displaystyle T=(x_{1}+x_{2}+\cdots +x_{n})}
que debido a la fórmula de Bienaymé, tendrá varianza
Var ( T ) = ( Var ( x 1 ) + Var ( x 2 ) + ⋯ + Var ( x n ) ) = n σ 2 . {\displaystyle \\\Nde la operación {Var} (T)= {\big (}\nombredeloperador {Var} (x_{1})+nombredeloperador {Var} (x_{2})+\cdots +\conombre de operación {Var} (x_{n}){\big )}=n\cdotas +operatorname {Var}(x_{2})+cdots +operatorname {Var}(x_{n}){\big )}=n\cdotas ^{2}.
La media de estas mediciones x ¯ {\displaystyle {\bar {x}}
.
La varianza de la media es entonces
Var ( T n ) = 1 n 2 Var ( T ) = 1 n 2 n σ 2 = σ 2 n . {\displaystyle \operatorname {Var} \left({\frac {T}{n}}right)={frac {1}{n^{2}} {operatorname {Var} (T)={frac {1}{n^{2}}n\\Nsigma ^{2}={frac {\Nsigma ^{2}}{n}.}
El error estándar es, por definición, la desviación estándar de x ¯ {\displaystyle {\bar {x}}
que es simplemente la raíz cuadrada de la varianza: σ x ¯ = σ 2 n = σ n {\displaystyle \sigma _{bar {x}}={{sqrt {\frac {\sigma ^{2}}{n}}={{frac {\sigma }{sqrt {n}}}}
.
Para las variables aleatorias correlacionadas es necesario calcular la varianza de la muestra según el teorema del límite central de la cadena de Markov.
Variables aleatorias independientes e idénticamente distribuidas con tamaño de muestra aleatorioEditar
Hay casos en los que se toma una muestra sin saber, de antemano, cuántas observaciones serán aceptables según algún criterio. En estos casos, el tamaño de la muestra N {\displaystyle N}
es una variable aleatoria cuya variación se suma a la variación de X {\displaystyle X}
tal que, Var ( T ) = E ( N ) Var ( X ) + Var ( N ) ( E ( X ) ) 2 {\displaystyle \operatorname {Var} (T)=\Nnombredeloperador {E} (N)= nombre de operador {Var} (X)+nombredeloperador {Var} (N)+nombredeloperador {Var} (N){\big (} {operatorname {E} (X){\big )}^{2}}
Si N {\blickea N}
tiene una distribución de Poisson, entonces E ( N ) = Var ( N ) {\displaystyle \operatorname {E} (N)=operatorname {Var} (N)}
con estimador N = n {\displaystyle N=n}
. Por lo tanto el estimador de Var ( T ) {\displaystyle \operatorname {Var} (T)}
se convierte en n S X 2 + n X ¯ 2 {\displaystyle nS_{X}^{2}+n{bar {X}^{2}}
, lo que lleva a la siguiente fórmula para el error estándar: S t a n d a r d E r o r ( X ¯ ) = S X 2 + X ¯ 2 n {\displaystyle \operatorname {Error estándar~} ({\bar {X}})= {\sqrt {\frac {S_{X}^{2}+{\bar {X}}^{2}{n}}}}