Identificación de Heterocedasticidad y Autocorrelación en Modelos de Regresión
Clasificado en Matemáticas
Escrito el en
español con un tamaño de 4,7 KB
Contraste de White: Detección de Heterocedasticidad
En 1980, White propuso un contraste de heterocedasticidad que examina si u²j está incorrelacionado con todas las variables explicativas del modelo, sus cuadrados y sus productos cruzados. Este método es fundamental para validar los supuestos de los modelos econométricos.
Procedimiento del Contraste de White
- Estimar el modelo original por Mínimos Cuadrados Ordinarios (MCO) y obtener los residuos (e).
- Estimar una regresión auxiliar de los residuos al cuadrado (e²) frente a las variables explicativas originales, sus cuadrados y sus productos cruzados.
- Formular las hipótesis del contraste:
- H₀: α₀ = α₁ = ... = αₖ = 0 (No hay heterocedasticidad)
- H₁: No H₀ (Existe heterocedasticidad)
- Calcular el estadístico NR²e, donde R²e es el coeficiente de determinación de la regresión auxiliar.
- Bajo la hipótesis nula (H₀), el estadístico NR²e sigue una distribución chi-cuadrado (χ²) con p−1 grados de libertad, donde p es el número de parámetros de la regresión auxiliar.
Ejemplo de Aplicación del Contraste de White
Si el modelo original tiene dos variables explicativas, por ejemplo, Y = β₀ + β₁X₁ + β₂X₂ + u, el contraste de White se basa en la estimación de la siguiente regresión auxiliar:
e² = α₀ + α₁X₁ + α₂X₂ + α₃X₁² + α₄X₂² + α₅X₁X₂ + error
Donde 'e' son los residuos del modelo de partida. Las hipótesis a contrastar son:
- H₀: α₀ = α₁ = α₂ = α₃ = α₄ = α₅ = 0 (Homocedasticidad)
- H₁: No H₀ (Heterocedasticidad)
Autocorrelación y sus Implicaciones en Modelos de Regresión
La autocorrelación se presenta cuando los errores de un modelo de regresión están correlacionados entre sí a lo largo del tiempo o el espacio, violando uno de los supuestos clave del modelo lineal clásico.
Supuestos Incumplidos por la Autocorrelación
Consideremos el modelo de regresión lineal:
Yₜ = β₀ + β₁X₁ₜ + ... + βₖXₖₜ + uₜ
Bajo la ausencia de autocorrelación, los errores en dos períodos de tiempo diferentes están incorrelacionados:
corr(uₜ, uₛ | X₁, X₂, ..., Xₖ) = 0 ∀t ≠ s
En notación matricial, los supuestos de no autocorrelación y homocedasticidad implican:
Var(u | X) = σ²I
Cuando los errores están correlacionados a lo largo del tiempo, las covarianzas del error no son todas cero. En este caso, hay autocorrelación, y la matriz de varianzas y covarianzas de los errores se expresa como:
Var(u | X) = σ²Ω
Propiedades del Estimador MCO con Errores Autocorrelacionados
Las propiedades del estimador MCO (Mínimos Cuadrados Ordinarios) en presencia de errores autocorrelacionados son:
- Insesgadez y consistencia: Estas propiedades no dependen de ningún supuesto sobre la autocorrelación de los errores. El estimador MCO sigue siendo insesgado y consistente.
- Eficiencia e inferencia: Requiere homocedasticidad y no autocorrelación de los errores.
- En presencia de autocorrelación, el estimador MCO no es ELIO (Estimador Lineal Insesgado Óptimo).
- Los errores estándar y los contrastes estadísticos MCO habituales ya no son válidos, lo que puede llevar a inferencias incorrectas.
Contraste t para Autocorrelación de Orden 1 (AR(1))
Para detectar la autocorrelación de primer orden (AR(1)), se puede utilizar un contraste basado en la significatividad del coeficiente de autocorrelación.
Hipótesis del Contraste t para AR(1)
Las hipótesis nula (H₀) y alternativa (H₁) son:
- H₀: No autocorrelación
- H₁: uₜ = φ₁uₜ₋₁ + ηₜ → AR(1)
Lo que es equivalente a:
- H₀: φ₁ = 0
- H₁: φ₁ ≠ 0
Etapas del Contraste t para AR(1)
- Estimar el modelo original: Yₜ = β₀ + β₁X₁ₜ + ... + βₖXₖₜ + uₜ y guardar la serie de residuos eₜ.
- Estimar la regresión auxiliar: eₜ = φ₁eₜ₋₁ + ψₜ para obtener el estimador φ̂₁.
- Contrastar la significatividad de φ₁ con las hipótesis:
- H₀: φ₁ = 0
- H₁: φ₁ ≠ 0
El estadístico de contraste es:
t = φ̂₁ / √(Var(φ̂₁))
Si se rechaza H₀, se concluye que existe autocorrelación de primer orden en los errores del modelo.