Distribuciones Estadísticas: Selección y Validación con Pruebas de Bondad de Ajuste

Clasificado en Matemáticas

Escrito el en español con un tamaño de 4,98 KB

Selección y Validación de Distribuciones Estadísticas

Paso 0: Análisis Inicial de la Distribución

Utilice un histograma y un resumen estadístico para determinar las características de la distribución implícita.

  • Histograma:
    • Proporciona una estimación gráfica de la función de densidad.
    • Utilice la amplitud de intervalo más pequeña que genere un histograma razonablemente uniforme.

Paso 1: Selección de Distribuciones Candidatas

  • Use los resultados del paso 0 para seleccionar un conjunto de distribuciones "razonables".
  • Ajuste cada una de estas distribuciones a los datos X1, X2, ..., Xn utilizando el método de máxima verosimilitud. Este método elige los valores de los parámetros que maximizan la probabilidad de haber obtenido los datos observados.

Paso 2: Evaluación Inicial de las Distribuciones Ajustadas

Determine cuál de las distribuciones ajustadas (si hay alguna) representa mejor los datos observados utilizando una o más pruebas heurísticas apropiadas (por ejemplo, la prueba de Kolmogorov-Smirnov).

Comentario: Las pruebas estadísticas deben ser corregidas.

Paso 3: Evaluación Detallada y Pruebas de Bondad de Ajuste

Determine la calidad de la(s) mejor(es) distribución(es) utilizando comparaciones gráficas y pruebas de bondad de ajuste.

Comparaciones Gráficas

  • Densidad / Histograma: Trace la función de densidad de la distribución ajustada sobre el histograma.
  • Comparación de frecuencias
  • Diferencias en la función de distribución
  • Gráfico P-P

Pruebas de Bondad de Ajuste

El objetivo es probar formalmente la siguiente hipótesis nula:

H0: Las Xi son una muestra independiente de la distribución ajustada.

Prueba de Chi-cuadrado

Divida el rango de en k intervalos:

[a0, a1), ... , [aj-1, aj), …, [ak-1, ak)

Recomendaciones para elegir los intervalos k:

  • Utilice intervalos equidistantes en lugar de intervalos de igual probabilidad.
  • k ≥ 3 y Ej ≥ 5 para todo j.

Aplicación:

  • Caso 1: Variable aleatoria discreta: Sigue una distribución aproximadamente Chi-Cuadrado con los grados de libertad según se indica a continuación:
    • i) Si el modelo especifica completamente las probabilidades pi, que son conocidas antes de tomar la muestra, el número de grados de libertad será k-1.
    • ii) Si las probabilidades pi se han calculado estimando r parámetros del modelo por máxima verosimilitud, el número de grados de libertad es k-r-1.

    La hipótesis H0 será rechazada si el valor de la prueba es inferior a un nivel de significación dado.

  • Caso 2: Variable aleatoria continua: Para una variable continua, agrupamos los datos muestrales en intervalos de clases. Sigue asintóticamente una distribución Chi-cuadrado con grados de libertad obtenidos como se ha indicado anteriormente. La hipótesis H0 será rechazada si el valor de la prueba es inferior a un nivel de significación dado.

    Observación: Si alguna de las frecuencias esperadas es inferior a 5, se recomienda fusionar con otras clases hasta que la frecuencia esperada sea superior a cinco.

Prueba de Kolmogorov-Smirnov (K-S)
  • Dn = distancia máxima vertical entre y Fn(x) para todo x.
  • No hay especificación de intervalos.
  • Más potente que la prueba de chi-cuadrado.
  • Solo aplicable a distribuciones exponenciales, normales, log normales, Weibull, log-logísticas y uniformes.
  • Cada distribución tiene sus propios valores críticos.
  • A menudo mal utilizada en paquetes de software de simulación y libros.
Prueba de Anderson-Darling (A-D)
  • Diseñada para detectar discrepancias en las colas de una distribución.
  • Más potente que la prueba K-S.
  • También aplicable a las distribuciones Gamma y Tipo Pearson V.
  • Cada distribución tiene sus propios valores críticos.
  • A menudo mal utilizada en paquetes de software de simulación.

Limitaciones de las Pruebas de Bondad de Ajuste

  • La hipótesis nula es a menudo falsa.
  • El poder de las pruebas es bajo para tamaños de muestra pequeños o moderados.
  • El poder de las pruebas se acerca a 1 a medida que el tamaño de la muestra aumenta, causando que la hipótesis nula sea rechazada.
  • Los intervalos de especificación son críticos para la prueba de chi-cuadrado.

Contraste de Kolmogorov Smirnov (KS)

Es aplicado a ciertas distribuciones continuas, valor extremo tipo B.

Prueba de Anderson Darling

(Sin cambios, ya que es una mención simple)

Entradas relacionadas: