Pruebas de Bondad de Ajuste y Métodos de Inferencia Estadística
Clasificado en Matemáticas
Escrito el en español con un tamaño de 3,59 KB
Contraste de Bondad de Ajuste
Se contrasta si un conjunto de datos procede de una población con una distribución dada.
Prueba de Bondad de Ajuste Chi-cuadrado (χ²)
Permite probar la independencia entre dos características y la homogeneidad de diferentes muestras, procedentes de observaciones aleatorias. Se desconoce la distribución de probabilidad (Fx) que sigue X.
Cuando n < 5, se recomienda agrupar intervalos o considerar un nuevo tamaño muestral.
Aunque F0(x) esté dada, puede ocurrir que no se conozca uno o varios de sus parámetros. En este caso, se estiman a partir de los valores muestrales.
Prueba de Kolmogorov-Smirnov (KS)
Se desea contrastar si la variable aleatoria X se distribuye según una ley de probabilidad concreta, determinada de antemano, a la que se designa por F0(x).
Diferencias entre Kolmogorov-Smirnov (KS) y Chi-cuadrado (χ²)
- KS no permite la estimación de parámetros utilizando datos de la muestra, mientras que χ² sí lo permite.
- KS solo admite distribuciones de tipo continuo en la Hipótesis Nula (HN), mientras que χ² las distribuciones pueden ser continuas o discretas.
- KS se utiliza en muestras pequeñas, mientras que χ² es mejor en muestras grandes. En muestras pequeñas, χ² no es posible aplicar puesto que no se verifican las condiciones.
- KS no admite datos agrupados en intervalos, mientras que χ² sí.
- KS suele ser de mayor potencia que el χ².
Prueba de Lilliefors
Es una corrección de la prueba de Kolmogorov-Smirnov que permite utilizarla cuando se trata de contrastar la Hipótesis Nula (HN) y en la hipótesis inicial no se especifican los parámetros de la media y varianza poblacional. Se estimarán mediante la media y cuasivarianza muestral. Todo el procedimiento coincide; sin embargo, cambian los valores críticos que ahora se denominan D't y que se obtienen de la tabla de Lilliefors. La regla de decisión también sigue siendo válida: la HN se rechaza cuando el valor experimental es mayor que el valor crítico de la tabla.
Métodos de Inferencia Estadística
Inferencia Paramétrica (IP)
Se conoce la distribución que sigue la característica objeto de estudio y solo se desconoce el valor de todos o algunos parámetros. Entonces, mediante métodos de la Inferencia Paramétrica, se hacen estimaciones, estudiándose la distribución de probabilidad y de muestreo.
Inferencia No Paramétrica (INP)
Se caracteriza por el desconocimiento de la distribución que sigue la característica. Son varias hipótesis que se contrastan.
Ventajas de la Inferencia No Paramétrica
- Menos condiciones para su aplicación.
- Se aplican no solo a variables cuantitativas sino también a cualitativas.
- Son los únicos métodos cuando las muestras son pequeñas.
- Cuando siguen una distribución normal, son menos potentes.
Prueba de Kolmogorov-Smirnov (para dos muestras)
Permite contrastar si dos muestras aleatorias, independientes, han sido obtenidas de la misma población o, por el contrario, las muestras provienen de poblaciones cuyas funciones de distribución sean distintas, bien por tener diferente especificación del modelo de distribución (normal, exponencial, etc.) o bien porque, siendo el mismo modelo, sus parámetros son distintos.