Problemas en Modelos de Regresión Lineal: Diagnóstico y Soluciones
Clasificado en Matemáticas
Escrito el en
español con un tamaño de 3,58 KB
Problemas en Modelos de Regresión Lineal
Multicolinealidad
La multicolinealidad presenta las siguientes consecuencias:
- Teóricas: La estimación por MCO proporciona poca información, existe imposibilidad de aislar la influencia de cada variable explicativa sobre la endógena, y las estimaciones resultan poco precisas y poco potentes.
- Prácticas: Los errores estándar de los estimadores aumentan, los intervalos de confianza son más amplios, los parámetros resultan poco significativos y las estimaciones son poco robustas.
Autocorrelación y Durbin-Watson
Para el diagnóstico mediante el estadístico Durbin-Watson, se deben considerar los últimos valores de cada fila (rho y Durbin-Watson). La hipótesis nula es H₀: ρ = 0 (no existe autocorrelación).
Para obtener los valores críticos dₗ y dᵤ, se utilizan las tablas de Durbin-Watson basándose en el tamaño muestral, el número de regresores (variables explicativas) y el nivel de significación.
Limitaciones del test:
- Debe existir término independiente (TI).
- Las variables explicativas deben ser deterministas.
- No es aplicable a modelos dinámicos.
- No deben faltar observaciones.
- Solo detecta autocorrelación de primer orden AR(1).
Errores de Especificación
- Inclusión de variables explicativas irrelevantes: Los coeficientes de las variables relevantes mantienen la insesgadez y consistencia, pero las varianzas de las relevantes son mayores (ineficientes). El estimador de σ² mantiene la insesgadez, por lo que los intervalos y contrastes son fiables pero poco precisos.
- Exclusión de variables relevantes: Los coeficientes de las variables relevantes incluidas son sesgados e inconsistentes. El estimador de σ² es sesgado y las varianzas de los coeficientes de las variables relevantes incluidas son sesgadas.
- Error en la forma funcional del modelo: Surgen problemas de heterocedasticidad o autocorrelación, y los estimadores pasan a ser sesgados e inconsistentes.
- Error de medición en Y: Los estimadores mantienen sus propiedades.
- Error de medición en X: Los estimadores pierden sus propiedades (insesgadez, eficiencia y consistencia).
Variables Irrelevantes
Para detectar variables irrelevantes, se realiza un contraste de significatividad individual (H₀: β = 0) o se comparan los R² corregidos de los modelos.
Corrección de Autocorrelación: Método de Cochrane-Orcutt
Es un procedimiento iterativo que sigue estos pasos:
- Aplicar MCO y obtener el coeficiente estimado de autocorrelación de primer orden.
- Retardar el modelo un periodo, multiplicar por el coeficiente de autocorrelación y restar al modelo original.
- Aplicar MCO al modelo transformado (que ya no presenta autocorrelación).
El proceso finaliza cuando la diferencia entre las estimaciones es menor a una milésima.
Contraste de Chow y Test de Wald
- Contraste de Chow: Se utiliza para detectar cambios estructurales. Se analiza la constante y la variable dummy (splitdum), sumando o restando las variables explicativas para observar la variación media de Y.
- Test de Wald: Se emplea para contrastar restricciones lineales sobre los parámetros (por ejemplo, H₀: β₁ + β₂ = 1).