Contrastes de Hipótesis y Errores de Especificación en Modelos de Regresión
Clasificado en Medicina y Ciencias de la salud
Escrito el en
español con un tamaño de 7,46 KB
Regla General para Contrastes de Hipótesis
Si el p-valor es menor que el nivel de significación (α), se rechaza la hipótesis nula (H₀).
Contrastes de Diagnóstico del Modelo
Contraste de Breusch-Pagan (Heteroscedasticidad)
- H₀ (Hipótesis Nula): Homoscedasticidad (α₂ = α₃ = ... = αₚ = 0). Los errores tienen varianza constante.
- Hₐ (Hipótesis Alternativa): Heteroscedasticidad (Existe algún αᵢ ≠ 0). La varianza de los errores no es constante.
Regresión Auxiliar:
Se estima una regresión de los residuos al cuadrado sobre las variables explicativas.
uᵢ² / σ̂² = α₁ + α₂ RENTA + α₃ NHER + εᵢ
Estadístico de Contraste:
LM = T * R²aux ≈ χ²(p-1)
Donde T es el número de observaciones, R²aux es el coeficiente de determinación de la regresión auxiliar y p-1 son los grados de libertad.
Contraste de Jarque-Bera (Normalidad)
- H₀ (Hipótesis Nula): Normalidad (S₁ = 0 y S₂ = 3). Los errores siguen una distribución normal.
- Hₐ (Hipótesis Alternativa): No Normalidad (S₁ ≠ 0 o S₂ ≠ 3).
Estadístico de Contraste:
JB = T * (S₁²/6 + (S₂-3)²/24) ≈ χ²(2)
Donde S₁ es el coeficiente de asimetría y S₂ es la curtosis.
Contraste RESET de Ramsey (Forma Funcional)
- H₀ (Hipótesis Nula): La forma funcional es correcta (γ₁ = γ₂ = 0).
- Hₐ (Hipótesis Alternativa): La forma funcional es incorrecta (Existe algún γᵢ ≠ 0).
Regresión Auxiliar:
Se añade al modelo original potencias de la variable dependiente estimada.
YEDU = β₁ + β₂ RENTA + β₃ NHER + γ₁ (ŶEDU)² + γ₂ (ŶEDU)³ + εᵢ
Estadístico de Contraste:
FRESET = [(SRR - SR) / p] / [SR / (T - k - p)] ≈ F(p, T-k-p)
Donde SRR es la suma de residuos al cuadrado del modelo restringido (original) y SR es la del modelo no restringido (auxiliar).
Contraste de Chow (Cambio Estructural)
- H₀ (Hipótesis Nula): Permanencia estructural (β₄ = β₅ = β₆ = 0). Los parámetros son constantes en toda la muestra.
- Hₐ (Hipótesis Alternativa): Ruptura estructural (Existe algún βᵢ ≠ 0).
Regresión Auxiliar:
Se incluyen variables ficticias (dummies) y sus interacciones con las variables originales.
YEDU = β₁ + β₂ RENTA + β₃ NHER + β₄ UNI + β₅ (RENTA * UNI) + β₆ (NHER * UNI) + εᵢ
Estadístico de Contraste:
FCHOW = [(SRR - (SR₁ + SR₂)) / k] / [(SR₁ + SR₂) / (T - 2k)] ≈ F(k, T-2k)
Contraste de Restricciones Lineales (Omisión de Variables Relevantes)
- H₀ (Hipótesis Nula): Las variables omitidas no son significativas (β₄ = β₅ = 0).
- Hₐ (Hipótesis Alternativa): Al menos una de las variables omitidas es significativa (Existe algún βᵢ ≠ 0).
Modelo sin restringir (auxiliar):
YEDU = β₁ + β₂ RENTA + β₃ NHER + β₄ DIS + β₅ RAZA + εᵢ
Estadístico de Contraste:
F = [(SRR - SR) / r] / [SR / (T - k)] ≈ F(r, T-k)
Donde r es el número de restricciones (variables omitidas).
Fórmulas y Conceptos Fundamentales
- Estimador MCO (β̂): β̂ = (X'X)⁻¹ X'Y
- Suma Total de Cuadrados (ST): ST = Σ(Yᵢ - Ȳ)²
- Varianza estimada del error (σ̂²): σ̂² = SR / (T - K)
- Coeficiente de Determinación (R²): R² = SE / ST = 1 - (SR / ST)
- Intervalo de Confianza para βⱼ: IC(βⱼ) = [ β̂ⱼ ± t(α/2, T-k) * σ̂(β̂ⱼ) ], donde la varianza del estimador es σ̂²(β̂ⱼ) = σ̂² * (X'X)⁻¹jj.
- Estadístico t (Significatividad Individual): t* = (β̂ⱼ - λ) / σ̂(β̂ⱼ), donde λ es el valor bajo H₀ (usualmente 0).
- Estadístico F (Significatividad Conjunta): FAV = [SE / (k-1)] / [SR / (T-k)] ≈ F(k-1, T-k)
Interpretación del coeficiente β
El coeficiente β representa, en promedio, la variación que se produce en la variable dependiente Y cuando la variable explicativa X se modifica en una unidad, manteniendo constantes el resto de las variables (ceteris paribus).
Criterios de Selección del Mejor Modelo
Se prefiere el modelo con: Mayor R² corregido, menor AIC (Criterio de Información de Akaike) y menor BIC (Criterio de Información Bayesiano).
Consecuencias de los Errores de Especificación
1. Omisión de Variables Relevantes
- Estimador β̂: Es sesgado e inconsistente.
- No es ELIO (Estimador Lineal Insesgado Óptimo).
- Varianza del error σ̂²: Es sesgada.
- Varianza del estimador Var(β̂): Es sesgada.
- Validez de los contrastes: Los contrastes t, F y χ² no son válidos.
2. Heteroscedasticidad
- Estimador β̂: Es insesgado y consistente.
- No es ELIO (deja de ser eficiente, no es "óptimo").
- Varianza del error σ̂²: Sigue siendo insesgada.
- Varianza del estimador Var(β̂): El estimador estándar de la varianza es sesgado, lo que invalida la inferencia.
- Validez de los contrastes: Los contrastes t, F y χ² no son válidos si no se usan errores estándar robustos.
3. Multicolinealidad (Aproximada)
- Estimador β̂: Es insesgado y consistente.
- Sigue siendo ELIO (es el mejor dentro de los lineales e insesgados).
- Varianza del error σ̂²: Es insesgada.
- Varianza del estimador Var(β̂): Es insesgada, pero muy grande, lo que dificulta la estimación precisa.
- Validez de los contrastes: Los contrastes t, F y χ² son válidos, pero los contrastes t tienden a no rechazar la H₀ (baja potencia) debido a los altos errores estándar.
4. Inclusión de Variables Irrelevantes
- Estimador β̂: Es insesgado y consistente.
- Sigue siendo ELIO.
- Varianza del error σ̂²: Es insesgada.
- Varianza del estimador Var(β̂): Es insesgada, pero mayor que la del modelo correctamente especificado (es ineficiente).
- Validez de los contrastes: Los contrastes t, F y χ² son válidos.