Estimadores Insesgados y Problemas Comunes en Econometría: Multicolinealidad, Autocorrelación y Heteroscedasticidad
Clasificado en Matemáticas
Escrito el en español con un tamaño de 4,46 KB
Conceptos Clave en Econometría: Insesgadez, Multicolinealidad, Autocorrelación y Heteroscedasticidad
Estimadores Insesgados
Un estimador insesgado es aquel cuya distribución está centrada sobre el verdadero valor del parámetro que está siendo estimado. La insesgadez subraya el hecho de que se quiere obtener estimadores que estén lo más cerca posible de la distribución del estimador. El Mínimos Cuadrados Ordinarios (MCO) tiene menor varianza que cualquier otro estimador lineal insesgado.
Multicolinealidad
Se define la multicolinealidad a partir de la ecuación: Y = xb + u. Sobre los regresores, se asume que X es una matriz de valores fijos de u.
- No hay relación lineal exacta entre las x's.
- No hay colinealidad exacta entre dos variables x's.
- No hay multicolinealidad exacta entre varias X's.
Este problema surge cuando los regresores de un modelo econométrico presentan un grado de correlación lineal sobre las variables dependientes. Es un problema muestral, ya que dicha relación lineal se presenta en las muestras seleccionadas para dicho trabajo econométrico. Es, además, un problema de grado.
Métodos para Detectar la Multicolinealidad
- Test de Farrar-Glauber
- Test Chi-cuadrado
- Test F
- Test t
Soluciones para la Multicolinealidad
- Aumentar el tamaño de la muestra (N).
- Capturar el comportamiento con una variable dummy.
- Cambiar por otra variable explicativa similar.
Autocorrelación
Se presenta cuando la cov(uu) = 0. Esto implica que no hay correlación serial de los errores, es decir, no existe autocorrelación. De lo contrario, existe un problema de autocorrelación. Esto significa que los errores son esféricos, dado que su variabilidad es constante y no existe relación con ninguna otra variable.
Causas de la Autocorrelación
- Se presenta cuando se emplean series de tiempo.
- Errores de especificación.
- Omisión de variables.
- Manipulación de datos.
Pruebas para Detectar la Autocorrelación
- Análisis gráfico
- Estadístico Durbin-Watson (DW)
- Test de Breusch-Godfrey
Hipótesis en los test de autocorrelación:
- DW: H0 = no autocorrelación; H1 = autocorrelación de orden 1.
- Test de Breusch-Godfrey: H0 = no autocorrelación de orden p; H1 = autocorrelación de orden p.
Heteroscedasticidad
Por lo general, se presenta en muestras de corte transversal debido a que los agentes que se están analizando son diferentes para un periodo de tiempo analizado. También puede deberse a la omisión de variables relevantes o a una incorrecta transformación de los datos.
Consecuencias de la Heteroscedasticidad
El estimador MCO continúa siendo insesgado y consistente, pero es ineficiente (no tiene varianza mínima).
Test para Detectar la Heteroscedasticidad
- Test de Goldfeld-Quandt
- Test de White
Hipótesis en los test de heteroscedasticidad:
- Test de Goldfeld-Quandt: H0 = homocedasticidad; H1 = heterocedasticidad (varianza creciente).
- Test de White: H0 = homocedasticidad; H1 = heterocedasticidad.
Pasos a seguir en el test de Goldfeld-Quandt:
- Ordenar las observaciones en forma creciente en relación a X.
- Omitir 'c' observaciones centrales.
- Estimar por MCO las regresiones separadas de las primeras y últimas observaciones.
Solución a la Heteroscedasticidad: Estimar por MCO, lo cual nos permite obtener estimadores insesgados, para solucionar el problema de la varianza ineficiente.
Supuestos del Modelo de Regresión Lineal
- El modelo de regresión es lineal en los parámetros.
- Los valores de las x's son fijos en muestreos repetidos.
- El valor medio de las perturbaciones es igual a cero.
- Homocedasticidad o igual varianza.
- No existe autocorrelación entre las perturbaciones.
- La covarianza entre X y u es cero.
- El número de observaciones debe ser mayor que el número de parámetros.
- Variabilidad en los valores de X.
- El modelo de regresión está correctamente especificado.
- No hay multicolinealidad perfecta.