x
1

Corrección de Bessel



En estadística, la corrección de Bessel — así llamada por su creador, el astrónomo y matemático alemán Friedrich Bessel (1784-1846) — consiste en el uso de (n − 1) en lugar de n en las fórmulas de la varianza muestral y de la desviación típica muestral (siendo n el número de observaciones de una muestra). Corrige el sesgo estadístico en la estimación de la varianza poblacional, y algunos (pero no todos) los sesgos en la estimación de la desviación estándar poblacional.

Cuando se quiere estimar la desviación estándar como indicador estadístico de una población a partir de una muestra (lógicamente, porque no se dispone de datos sobre la población completa), es importante distinguir los conceptos de población (un conjunto, generalmente muy amplio de datos, como por ejemplo, "la estatura de todas las alumnas de una determinada edad de un país"), y de muestra (un subconjunto, generalmente pequeño, formado por algunos elementos pertenecientes a la población total, como por ejemplo, "las estaturas de las alumnas de la edad considerada de un determinado colegio"). Los términos poblacional y muestral se asocian a su vez a los conceptos anteriormente citados de población y de muestra.

Bessel se dedicaba a la astronomía, y una parte importante de su trabajo era estimar las órbitas de distintos objetos astronómicos (es decir, necesitaba conocer los parámetros de una población formada por las posiciones que definen la trayectoria de uno de estos objetos astronómicos), generalmente a partir de muy pocas observaciones (una pequeña muestra de posiciones del objeto), que generalmente tenía que tratar estadísticamente para reducir el efecto de los errores asociados a la toma de datos.

La varianza muestral se estima como la media aritmética de los cuadrados de las desviaciones de los valores de la muestra respecto a la media muestral. En este cálculo se usa el factor multiplicador 1/n (correspondiente al concepto de media aritmética)— que como se analiza más adelante, es un estimador sesgado a la baja de la varianza poblacional. Para corregir este efecto, Bessel multiplicaba por n/(n − 1) (equivalentemente, usando 1/(n − 1) en lugar de  1/n en la fórmula del estimador). El costo de esta corrección es que el estimador insesgado es uniformemente mayor que el sesgado. A veces[1][2]​ el factor n/(n − 1) es llamado Corrección de Bessel.

Un aspecto sutil de esta corrección implica que, mientras que la varianza muestral (usando la corrección de Bessel) es un estimador insesgado de la varianza poblacional, su raíz cuadrada (o sea, la desviación estándar muestral) sigue siendo un estimador sesgado de la desviación estándar poblacional. Ya que la raíz cuadrada es una función cóncava, se produce un sesgo por defecto debido a la desigualdad de Jensen. No hay una fórmula general para evitar el sesgo de la estimación de la desviación estándar poblacional, aunque hay varios factores correctores para distribuciones particulares, como en el caso de la distribución normal. Una aproximación del factor corrector exacto en la distribución normal se da usando el factor (n −  1.5) en la fórmula. El sesgo decae cuadráticamente (en lugar de linealmente, como en la forma que no usa la corrección de Bessel).

Puede entenderse la Corrección de Bessel intuitivamente, a partir de los grados de libertad del vector de residuos

donde es la media muestral. Mientras que hay n muestras independientes, hay solamente n − 1 residuos independientes, que suman 0. Es decir, calculados n − 1 residuos, es inmediato conocer el residuo restante, cuyo valor es la suma de los otros residuos cambiado de signo. Esta circunstancia es debida a la propiedad de la media aritmética que se utiliza en el cálculo de los residuos, que hace que estos siempre sumen 0.

Por último, debe resaltarse que a medida que el número de elementos de las muestras utilizadas es mayor, la diferencia entre las estimaciones corregidas y sin corregir (es decir, la diferencia entre la raíz de 1/n y la raíz de 1/(n-1)), es cada vez más pequeña. Sin embargo, el efecto de la corrección es especialmente relevante para muestras pequeñas (formadas por 10 o menos observaciones), como las que Bessel manejaba habitualmente.

Supóngase que la media de cierta población es 2050, pero el estadístico no la conoce. Por lo tanto, la estima basado en una pequeña muestra elegida al azar de entre la población:

Se puede calcular la media muestral:

Este valor puede servir como un estimador insesgado de la media poblacional, que es desconocida. Ahora, hay que enfrentarse al problema de estimar la varianza poblacional. O sea, de estimar el promedio entre el cuadrado de las desviaciones respecto a  2050. Si el estadístico supiera que la media poblacional es de 2050, entonces podría proceder de la siguiente forma:

Pero el estimador de la media poblacional del que dispone el estadístico es la media muestral 2052, no 2050. En consecuencia, solo puede calcular:

La estimación es substancialmente menor. Por lo tanto surge el interrogante: el estimador de la varianza poblacional calculado usando la media muestral, ¿es siempre menor que la verdadera varianza poblacional? La respuesta es que sí, excepto cuando la media muestral sea igual a la media poblacional.

En términos intuitivos, se busca la suma de los cuadrados de las diferencias respecto a la media poblacional, pero el estadístico termina calculando la suma de los cuadrados de las diferencias de los valores de cada observación respecto a la media muestral, que es, como se verá a continuación, el valor que minimiza la suma de las diferencias al cuadrado. Por lo tanto, a menos que la muestra tenga como media un valor igual al de la media poblacional, su estimador siempre subestimará la varianza poblacional.

Para ver cómo se produce esta circunstancia, se usa una identidad simple en álgebra:

Con se representa la desviación de una observación individual con respecto a la media muestral, y con se representa la diferencia entre la media muestral y la media poblacional. Nótese que lo que se ha hecho ha sido simplemente descomponer la desviación respecto a la media poblacional (que es desconocida) en dos componentes: la desviación respecto a la media muestral -que se conoce- y la desviación adicional respecto a la media poblacional -que se desconoce-. Ahora, aplicando esta identidad, se descompone:

Operando los cuadrados:

Ahora se aplica esta fórmula desarrollada a las 5 observaciones, y se analiza el patrón resultante:

La suma de los valores de la columna del medio debe ser cero, porque la suma de las desviaciones respecto a la media muestral debe ser cero. Dado que la columna del medio se anula, entonces se observa que

Por lo tanto, la suma de los cuadrados de las diferencias respecto a la media poblacional siempre será mayor que la suma de las desviaciones al cuadrado respecto a la media muestral (excepto cuando la media poblacional y la media muestral coincidan, en cuyo caso ambas son iguales). Es por esto que la suma de los cuadrados de las desviaciones respecto a la media muestral resulta ser un estimador sesgado a la baja de la varianza poblacional.

Esta corrección es tan común, que los términos "varianza muestral" y "desvío estándar muestral" se refieren frecuentemente al estimador corregido, usando n − 1. Sin embargo se debe ser cauto: algunas calculadoras y paquetes estadísticos pueden dar la opción de usar ambos estimadores, o solamente la versión menos usual. Para mayor precisión, en este artículo se denomina "desviación estándar muestral" a la desviación estándar muestral, que por definición usa n, y está sesgado con respecto a la desviación estándar poblacional.

Este artículo usa los siguientes símbolos y definiciones:

Las desviaciones estándar se obtienen aplicando la raíz cuadrada a sus varianzas respectivas. Ya que las desviaciones estándar producen sesgo, la terminología "no corregido" o "corregido" se prefiere para los estimadores de la varianza poblacional.

La media muestral se calcula como:

La varianza muestral sesgada tiene la fórmula:

Y la varianza muestral no sesgada se escribe como:

A continuación se incluyen dos pruebas de la consistencia de la corrección de Bessel como factor apropiado para evitar el sesgo de la varianza muestral:

Como dato de partida, se usa la identidad que se sirve de las definiciones de la desviación estándar y de la esperanza matemática.

Una observación muy útil es que para cualquier distribución, la varianza es igual a la mitad del valor esperado de cuando son muestras independientes. Para probar esta observación, basta saber que (lo que se deduce del hecho de que son variables independientes), así como de la linealidad del valor esperado:

Utilizando la identidad para la varianza,

entonces

y por definición,

Teniendo en cuenta que, dado que x1x2, · · · , xn son una muestra aleatoria de una distribución con variación σ2, se deduce que para cada i = 1, 2, . . . , n:

y también

Esta es una propiedad de la varianza de las variables no correlacionadas, que surge de la fórmula de Bienaymé. El resultado requerido se obtiene sustituyendo estas dos fórmulas:



Escribe un comentario o lo que quieras sobre Corrección de Bessel (directo, no tienes que registrarte)


Comentarios
(de más nuevos a más antiguos)


Aún no hay comentarios, ¡deja el primero!