Multicolinealidad y Mínimos Cuadrados Generalizados en Modelos Econométricos
Clasificado en Matemáticas
Escrito el en
español con un tamaño de 5,1 KB
Multicolinealidad en Modelos Econométricos
Definición
La multicolinealidad se define como la existencia de una fuerte combinación lineal entre dos o más variables explicativas de un modelo econométrico. Podemos distinguir dos tipos principales:
- Multicolinealidad exacta: Si la combinación lineal entre las variables es perfecta.
- Multicolinealidad aproximada: Si la relación lineal es elevada pero no llega a ser exacta.
Casos y Causas Comunes
La presencia de este fenómeno suele darse por:
- Presencia de variables de evolución macroeconómica (movimientos cíclicos que provocan comportamientos similares).
- Uso de variables retardadas.
- Inclusión de variables ficticias mal especificadas.
- Variables con una base homogénea.
Consecuencias de la Multicolinealidad
Cuando existe multicolinealidad, se presentan los siguientes problemas técnicos:
- Imposibilidad de cálculo: Los parámetros no se pueden calcular en el caso exacto, dado que la matriz X'X no sería de rango pleno y, por lo tanto, no tendría inversa.
- Inestabilidad: Pequeñas variaciones muestrales provocan grandes variaciones en el estimador.
- Varianza elevada: La matriz de covarianzas del estimador se vuelve "grande", lo que reduce la precisión de las estimaciones.
Métodos de Medición y Detección
Método de Klein
Utiliza el coeficiente de correlación y regresiones auxiliares comparadas con el estadístico Fi (k-1, n-k).
Método de Frisch
Es un análisis secuencial que añade variables clasificándolas en: útiles, superfluas y perjudiciales.
Método de Theil
Se basa en regresiones auxiliares donde se analiza si Ri2 > R2. Se utilizan los siguientes indicadores:
- TOL (Tolerancia): TOL = 1 - Ri2 < 0,1
- FIV (Factor de Inflación de la Varianza): FIV = 1 / (1 - Ri2) > 10
Soluciones Propuestas
Para mitigar la multicolinealidad se sugieren las siguientes estrategias:
- Omisión de variables: Coincide con el principio de parsimonia (simplificar el modelo).
- Primeras diferencias: Útil para eliminar tendencias, aunque puede introducir problemas de autocorrelación.
- Uso de cocientes: Ayuda a controlar la heterocedasticidad.
Mínimos Cuadrados Generalizados (MCG) y Condiciones de la Perturbación
En esta sección analizamos qué sucede cuando se violan los supuestos clásicos sobre el término de error u:
- Heterocedasticidad: Cuando la varianza de u varía en el tiempo o entre observaciones.
- Autocorrelación: Cuando las perturbaciones aleatorias de distintos momentos del tiempo no son independientes entre sí.
Esto implica pasar de una matriz escalar a una matriz no escalar en la estructura de varianzas.
El Estimador MCO en Presencia de No Escalaridad
Bajo estas condiciones, el estimador de Mínimos Cuadrados Ordinarios (MCO):
- Sigue siendo insesgado.
- Sin embargo, su varianza resulta ineficiente.
Llegamos a esta conclusión porque las varianzas en la diagonal no son constantes (no es igual a 1 o a un valor único). Esto implica que la varianza de β crece, lo cual es perjudicial para la precisión del modelo. Aunque se admita la normalidad y la no aleatoriedad de las variables exógenas, existe una notable pérdida de eficiencia.
El Estimador MCG - Aitken
Cuando el estimador MCO no es idóneo, recurrimos a los Mínimos Cuadrados Generalizados (MCG).
El objetivo de los MCG es estimar los mismos coeficientes β consiguiendo una perturbación nueva (v) que cumpla las condiciones clásicas de MCO: E(v v') = σ2 In.
Transformación del Modelo
Para lograrlo, transformamos el modelo original sin cambiar lo que se desea estimar:
- Modelo original: y = Xβ + u (donde u presenta problemas de varianza).
- Modelo transformado: Py = PXβ + Pu
La matriz de transformación P debe ser tal que el nuevo término de error v = Pu tenga un comportamiento idóneo (matriz escalar):
E(Puu'P') = E(P σ2 Ω P') = σ2 In
A partir de esta transformación, obtenemos el βMCG, que garantiza estimadores óptimos bajo condiciones de heterocedasticidad o autocorrelación.