Identificación de Heterocedasticidad y Autocorrelación en Modelos de Regresión

Clasificado en Matemáticas

Escrito el en español con un tamaño de 4,7 KB

Contraste de White: Detección de Heterocedasticidad

En 1980, White propuso un contraste de heterocedasticidad que examina si u²j está incorrelacionado con todas las variables explicativas del modelo, sus cuadrados y sus productos cruzados. Este método es fundamental para validar los supuestos de los modelos econométricos.

Procedimiento del Contraste de White

  1. Estimar el modelo original por Mínimos Cuadrados Ordinarios (MCO) y obtener los residuos (e).
  2. Estimar una regresión auxiliar de los residuos al cuadrado (e²) frente a las variables explicativas originales, sus cuadrados y sus productos cruzados.
  3. Formular las hipótesis del contraste:
    • H₀: α₀ = α₁ = ... = αₖ = 0 (No hay heterocedasticidad)
    • H₁: No H₀ (Existe heterocedasticidad)
  4. Calcular el estadístico NR²e, donde R²e es el coeficiente de determinación de la regresión auxiliar.
  5. Bajo la hipótesis nula (H₀), el estadístico NR²e sigue una distribución chi-cuadrado (χ²) con p−1 grados de libertad, donde p es el número de parámetros de la regresión auxiliar.

Ejemplo de Aplicación del Contraste de White

Si el modelo original tiene dos variables explicativas, por ejemplo, Y = β₀ + β₁X₁ + β₂X₂ + u, el contraste de White se basa en la estimación de la siguiente regresión auxiliar:

e² = α₀ + α₁X₁ + α₂X₂ + α₃X₁² + α₄X₂² + α₅X₁X₂ + error

Donde 'e' son los residuos del modelo de partida. Las hipótesis a contrastar son:

  • H₀: α₀ = α₁ = α₂ = α₃ = α₄ = α₅ = 0 (Homocedasticidad)
  • H₁: No H₀ (Heterocedasticidad)

Autocorrelación y sus Implicaciones en Modelos de Regresión

La autocorrelación se presenta cuando los errores de un modelo de regresión están correlacionados entre sí a lo largo del tiempo o el espacio, violando uno de los supuestos clave del modelo lineal clásico.

Supuestos Incumplidos por la Autocorrelación

Consideremos el modelo de regresión lineal:

Yₜ = β₀ + β₁X₁ₜ + ... + βₖXₖₜ + uₜ

Bajo la ausencia de autocorrelación, los errores en dos períodos de tiempo diferentes están incorrelacionados:

corr(uₜ, uₛ | X₁, X₂, ..., Xₖ) = 0 ∀t ≠ s

En notación matricial, los supuestos de no autocorrelación y homocedasticidad implican:

Var(u | X) = σ²I

Cuando los errores están correlacionados a lo largo del tiempo, las covarianzas del error no son todas cero. En este caso, hay autocorrelación, y la matriz de varianzas y covarianzas de los errores se expresa como:

Var(u | X) = σ²Ω

Propiedades del Estimador MCO con Errores Autocorrelacionados

Las propiedades del estimador MCO (Mínimos Cuadrados Ordinarios) en presencia de errores autocorrelacionados son:

  1. Insesgadez y consistencia: Estas propiedades no dependen de ningún supuesto sobre la autocorrelación de los errores. El estimador MCO sigue siendo insesgado y consistente.
  2. Eficiencia e inferencia: Requiere homocedasticidad y no autocorrelación de los errores.
    • En presencia de autocorrelación, el estimador MCO no es ELIO (Estimador Lineal Insesgado Óptimo).
    • Los errores estándar y los contrastes estadísticos MCO habituales ya no son válidos, lo que puede llevar a inferencias incorrectas.

Contraste t para Autocorrelación de Orden 1 (AR(1))

Para detectar la autocorrelación de primer orden (AR(1)), se puede utilizar un contraste basado en la significatividad del coeficiente de autocorrelación.

Hipótesis del Contraste t para AR(1)

Las hipótesis nula (H₀) y alternativa (H₁) son:

  • H₀: No autocorrelación
  • H₁: uₜ = φ₁uₜ₋₁ + ηₜ → AR(1)

Lo que es equivalente a:

  • H₀: φ₁ = 0
  • H₁: φ₁ ≠ 0

Etapas del Contraste t para AR(1)

  1. Estimar el modelo original: Yₜ = β₀ + β₁X₁ₜ + ... + βₖXₖₜ + uₜ y guardar la serie de residuos eₜ.
  2. Estimar la regresión auxiliar: eₜ = φ₁eₜ₋₁ + ψₜ para obtener el estimador φ̂₁.
  3. Contrastar la significatividad de φ₁ con las hipótesis:
    • H₀: φ₁ = 0
    • H₁: φ₁ ≠ 0

El estadístico de contraste es:

t = φ̂₁ / √(Var(φ̂₁))

Si se rechaza H₀, se concluye que existe autocorrelación de primer orden en los errores del modelo.

Entradas relacionadas: