Problemas en Modelos de Regresión Lineal: Diagnóstico y Soluciones

Clasificado en Matemáticas

Escrito el en español con un tamaño de 3,58 KB

Problemas en Modelos de Regresión Lineal

Multicolinealidad

La multicolinealidad presenta las siguientes consecuencias:

  • Teóricas: La estimación por MCO proporciona poca información, existe imposibilidad de aislar la influencia de cada variable explicativa sobre la endógena, y las estimaciones resultan poco precisas y poco potentes.
  • Prácticas: Los errores estándar de los estimadores aumentan, los intervalos de confianza son más amplios, los parámetros resultan poco significativos y las estimaciones son poco robustas.

Autocorrelación y Durbin-Watson

Para el diagnóstico mediante el estadístico Durbin-Watson, se deben considerar los últimos valores de cada fila (rho y Durbin-Watson). La hipótesis nula es H₀: ρ = 0 (no existe autocorrelación).

Para obtener los valores críticos dₗ y dᵤ, se utilizan las tablas de Durbin-Watson basándose en el tamaño muestral, el número de regresores (variables explicativas) y el nivel de significación.

Limitaciones del test:

  • Debe existir término independiente (TI).
  • Las variables explicativas deben ser deterministas.
  • No es aplicable a modelos dinámicos.
  • No deben faltar observaciones.
  • Solo detecta autocorrelación de primer orden AR(1).

Errores de Especificación

  • Inclusión de variables explicativas irrelevantes: Los coeficientes de las variables relevantes mantienen la insesgadez y consistencia, pero las varianzas de las relevantes son mayores (ineficientes). El estimador de σ² mantiene la insesgadez, por lo que los intervalos y contrastes son fiables pero poco precisos.
  • Exclusión de variables relevantes: Los coeficientes de las variables relevantes incluidas son sesgados e inconsistentes. El estimador de σ² es sesgado y las varianzas de los coeficientes de las variables relevantes incluidas son sesgadas.
  • Error en la forma funcional del modelo: Surgen problemas de heterocedasticidad o autocorrelación, y los estimadores pasan a ser sesgados e inconsistentes.
  • Error de medición en Y: Los estimadores mantienen sus propiedades.
  • Error de medición en X: Los estimadores pierden sus propiedades (insesgadez, eficiencia y consistencia).

Variables Irrelevantes

Para detectar variables irrelevantes, se realiza un contraste de significatividad individual (H₀: β = 0) o se comparan los R² corregidos de los modelos.

Corrección de Autocorrelación: Método de Cochrane-Orcutt

Es un procedimiento iterativo que sigue estos pasos:

  1. Aplicar MCO y obtener el coeficiente estimado de autocorrelación de primer orden.
  2. Retardar el modelo un periodo, multiplicar por el coeficiente de autocorrelación y restar al modelo original.
  3. Aplicar MCO al modelo transformado (que ya no presenta autocorrelación).

El proceso finaliza cuando la diferencia entre las estimaciones es menor a una milésima.

Contraste de Chow y Test de Wald

  • Contraste de Chow: Se utiliza para detectar cambios estructurales. Se analiza la constante y la variable dummy (splitdum), sumando o restando las variables explicativas para observar la variación media de Y.
  • Test de Wald: Se emplea para contrastar restricciones lineales sobre los parámetros (por ejemplo, H₀: β₁ + β₂ = 1).

Entradas relacionadas: