Fundamentos del Modelo de Regresión Lineal: De MCO a Heteroscedasticidad y Autocorrelación
Clasificado en Matemáticas
Escrito el en
español con un tamaño de 17,17 KB
Fundamentos del Modelo de Regresión Lineal Clásico (MRLC)
¿Qué hipótesis diferencia al Modelo Clásico (MC) del Modelo Generalizado (MG)?
La hipótesis fundamental que diferencia al Modelo Clásico (MC) del Modelo Generalizado (MG) no es la esperanza del término de perturbación (que se asume nula en ambos), sino la estructura de su matriz de varianzas y covarianzas. En el MC es escalar (σ²I), lo que implica homocedasticidad y ausencia de autocorrelación. En el MG, es una matriz simétrica y definida positiva (σ²Ω), que permite la existencia de heteroscedasticidad y/o autocorrelación.
Si se incumple alguna hipótesis del Modelo de Regresión Lineal Normal Clásico (MRLNC), ¿los estimadores MCO siguen siendo ELIO? (Falso)
No. Si se incumple alguna de las hipótesis básicas (como la homocedasticidad o la no autocorrelación), los estimadores obtenidos por Mínimos Cuadrados Ordinarios (MCO) pueden dejar de ser los Estimadores Lineales Insesgados Óptimos (ELIO), es decir, pierden la propiedad de eficiencia.
Si se incumple una hipótesis del MRLC, ¿se pueden seguir obteniendo estimadores MCO?
Sí, se pueden seguir obteniendo Estimadores de Mínimos Cuadrados Ordinarios (EMCO), pero es probable que estos ya no tengan buenas propiedades estadísticas (como ser insesgados, consistentes u óptimos).
El incumplimiento de la hipótesis de normalidad en un MRLC, ¿qué implica para los EMCO?
Si no se cumple la hipótesis de normalidad de las perturbaciones, los EMCO siguen siendo lineales, insesgados y óptimos (ELIO) gracias al Teorema de Gauss-Markov. Sin embargo, la inferencia estadística (contrastes de hipótesis t-student y F-Snedecor) deja de ser válida en muestras pequeñas.
¿Qué ocurre si la covarianza entre un regresor estocástico y el término de error del mismo período es distinta de cero?
Si esto ocurre, se incumple una de las hipótesis fundamentales. Como consecuencia, los estimadores MCO dejan de ser consistentes, lo que es un problema grave, ya que ni siquiera con una muestra infinitamente grande el estimador convergería al verdadero valor del parámetro.
¿Qué pasa en el modelo cuando se incumple la hipótesis de regresores no estocásticos?
Cuando los regresores son estocásticos (aleatorios), el modelo sigue siendo válido siempre que se cumplan ciertas condiciones, principalmente que los regresores no estén correlacionados con el término de error. Si lo están, los estimadores MCO serán sesgados e inconsistentes.
Cuando los regresores son estocásticos, ¿mantienen relación con el término de error? (Verdadero)
La hipótesis clave es que los regresores estocásticos no deben mantener relación con el término de error (E[xt*εt] = 0). Si existe relación, los estimadores MCO pierden sus propiedades deseables.
¿La matriz de varianzas y covarianzas del término de error es independiente de la muestra? (Verdadero)
Sí, se asume que la estructura de la matriz de varianzas y covarianzas de las perturbaciones (V(ε)) es una característica del proceso generador de datos y no depende de la muestra concreta utilizada para la estimación.
Si la esperanza del término de error (E[εt]) es distinta de cero, ¿qué puede ocurrir?
Pueden darse dos casos principales: que la media sea una constante distinta de cero o que dependa de alguna de las variables. Si es una constante, el estimador del término independiente absorberá este sesgo, pero los demás estimadores seguirán siendo insesgados. Si depende de las variables, los estimadores MCO serán sesgados.
¿Qué significa que la matriz de varianzas-covarianzas del término de error sea escalar?
Significa que se cumplen las hipótesis de homocedasticidad (varianza constante para todos los errores) y ausencia de autocorrelación (los errores no están correlacionados entre sí). No tiene relación directa con la existencia de relación lineal entre los regresores (multicolinealidad).
¿En qué consiste la estimación de un modelo?
La estimación de un modelo consiste en obtener valores numéricos para los parámetros desconocidos (los coeficientes "β") a partir de los datos muestrales de las variables ("x" e "y"). Una vez estimados, se pueden conocer las propiedades de dichos estimadores.
¿El término de error (εt) es un valor observable? (Falso)
El término de error (εt) es una variable aleatoria no observable. Lo que sí es observable y se puede calcular es el residuo (et), que es la diferencia entre el valor observado de "Y" y su valor estimado (Ŷ).
¿Qué significa que el vector de estimadores MCO es "óptimo"?
Significa que, dentro de la clase de todos los estimadores lineales e insesgados, los estimadores MCO son los que tienen la mínima varianza. A esta propiedad se le conoce como eficiencia.
¿Por qué se incluye la hipótesis de esperanza nula del error (E[εt]=0)?
Se incluye para asegurar que, en promedio, el modelo está correctamente especificado y no comete errores sistemáticos. Garantiza que los estimadores MCO de los coeficientes de las pendientes sean insesgados.
¿Qué elementos contiene la diagonal principal de la matriz V(b) y qué indican?
La diagonal principal de la matriz de varianzas y covarianzas de los estimadores, V(b), contiene las varianzas de cada uno de los estimadores (Var(b₀), Var(b₁), etc.). Indican la precisión de cada estimador: a menor varianza, mayor precisión.
¿La media de los errores cometidos en la estimación es un buen estadístico para analizar si tienen esperanza nula? (Falso)
La media de los residuos (no de los errores) de una estimación MCO con término independiente es siempre cero por construcción. Por lo tanto, no sirve para contrastar la hipótesis de que la esperanza de las perturbaciones (errores) es nula.
¿Qué indica la hipótesis de rango pleno?
Indica que no existen relaciones lineales exactas entre los regresores del modelo, es decir, la ausencia de multicolinealidad perfecta. Es una condición necesaria para poder estimar el modelo por MCO.
¿Los contrastes t-student y F-Snedecor son independientes de la distribución de la perturbación aleatoria? (Falso)
No, estos contrastes de hipótesis se basan fundamentalmente en la hipótesis de normalidad de las perturbaciones. Si esta no se cumple, los resultados de dichos contrastes no son válidos en muestras pequeñas.
Si un modelo presenta esperanza no nula, ¿significa que no especifica la hipótesis de normalidad? (Falso)
No hay relación directa. Un modelo puede tener un término de error con esperanza no nula y seguir una distribución normal, o tener esperanza nula y no seguir una distribución normal. Son dos hipótesis independientes.
Si los regresores son estocásticos, ¿los EMCO dejan de ser lineales? (Verdadero)
Sí, si los regresores son estocásticos, los estimadores MCO dejan de ser una función lineal de la variable endógena "Y" para convertirse en una función lineal de las perturbaciones "ε".
Predicción e Inferencia en Econometría
En un Modelo Generalizado (MG), ¿la ecuación del predictor óptimo es Yt = Xt*b? (Verdadero)
Sí, la ecuación del predictor óptimo se mantiene como Ŷt = Xt*b siempre que se mantenga la hipótesis de incorrelación entre las perturbaciones del período muestral y las del período de predicción.
¿Para qué se usa la predicción económica?
Se utiliza para obtener estimaciones de los valores futuros de una variable (la variable dependiente) basándose en los valores conocidos o proyectados de otras variables (las explicativas) y en la relación funcional estimada en el modelo.
¿Qué indica la probabilidad (p-valor) asociada al estadístico t en EViews?
Indica la probabilidad de obtener un valor del estadístico t tan extremo o más que el observado, bajo el supuesto de que la hipótesis nula (generalmente, que el coeficiente es igual a cero) es cierta. Un p-valor pequeño (ej. < 0.05) sugiere rechazar la hipótesis nula y considerar el coeficiente como estadísticamente significativo.
Si el intervalo de confianza de un parámetro contiene el valor 0, ¿se puede eliminar la variable?
Si el intervalo de confianza contiene el cero, significa que no se puede rechazar la hipótesis nula de que el parámetro es cero a ese nivel de confianza. Es una fuerte indicación de que la variable no es estadísticamente significativa y se podría considerar su eliminación del modelo, aunque la decisión final debe basarse también en la teoría económica.
¿El proceso de predicción en un modelo econométrico depende del método de estimación?
Sí, el proceso de predicción y, sobre todo, la fiabilidad y las propiedades de los predictores, dependen directamente del método de estimación utilizado (MCO, MCG, etc.) y de si este es adecuado para las características del modelo.
Heteroscedasticidad
¿Cuáles son las diferencias en la matriz de varianzas-covarianzas entre el Modelo Clásico y el Modelo Generalizado?
En el Modelo Clásico, la matriz V(ε) es escalar: V(ε) = σ²I. Esto implica varianza constante (homocedasticidad) y no autocorrelación. En el Modelo Generalizado, la matriz V(ε) es V(ε) = σ²Ω, donde Ω es una matriz simétrica y definida positiva que permite modelar la heteroscedasticidad (Ω es diagonal con elementos distintos) y/o la autocorrelación (Ω tiene elementos no nulos fuera de la diagonal).
Definición de Homocedasticidad vs. Heteroscedasticidad.
La homocedasticidad es la hipótesis de que la varianza del término de perturbación es constante para todas las observaciones. La heteroscedasticidad es el incumplimiento de esta hipótesis, es decir, la varianza del error no es constante.
Causas comunes de la heteroscedasticidad.
Algunas causas frecuentes son: la gran variabilidad en los valores de alguna variable explicativa, la omisión de variables relevantes, errores de especificación en la forma funcional del modelo o el uso de datos agregados.
Consecuencias de la heteroscedasticidad.
Con heteroscedasticidad, los estimadores MCO siguen siendo insesgados y consistentes, pero dejan de ser eficientes (no son ELIO). Además, los estimadores de las varianzas de los coeficientes están sesgados, lo que invalida los contrastes de hipótesis (t y F).
¿La existencia de heteroscedasticidad impide que la ecuación del predictor óptimo sea la misma que en un modelo clásico? (Falso)
No, la forma del predictor óptimo (Ŷt = Xt*b) no cambia, pero los intervalos de confianza para la predicción sí se verán afectados, ya que se basan en varianzas que están incorrectamente estimadas.
¿La heteroscedasticidad es más frecuente en modelos atemporales y con muestras grandes? (Verdadero)
Sí, es un problema especialmente común en datos de corte transversal (atemporales) y su detección es más probable en muestras con un número elevado de observaciones (ej. > 50).
¿Es aconsejable que los regresores varíen poco para evitar la heteroscedasticidad? (Falso)
Al contrario. Para una estimación precisa, es deseable que los regresores tengan una alta variabilidad. Una baja variabilidad de los regresores no reduce la posibilidad de heteroscedasticidad y, además, aumenta la varianza de los estimadores.
Diferencias entre el método de la matriz de transformación (MCP) y el procedimiento de White.
El método de Mínimos Cuadrados Ponderados (MCP), un caso de matriz de transformación, corrige la heteroscedasticidad transformando el modelo para que cumpla las hipótesis clásicas, lo que requiere conocer la forma de la heteroscedasticidad. El procedimiento de White no corrige el modelo, sino que proporciona un estimador robusto de la matriz de varianzas y covarianzas de los estimadores MCO, permitiendo realizar inferencia válida sin necesidad de conocer la forma de la heteroscedasticidad.
Ventajas y desventajas del estimador de White.
Ventaja: No requiere conocer la causa o forma de la heteroscedasticidad. Desventaja: Solo es válido para muestras grandes y los estimadores MCO siguen siendo ineficientes.
Autocorrelación
Explicación breve del procedimiento de Cochrane-Orcutt.
Es un método iterativo para estimar modelos con autocorrelación de primer orden (AR(1)). Transforma el modelo restando a cada variable una fracción (rho) de su valor en el período anterior. El valor de rho se estima a partir de los residuos MCO. Este proceso se repite hasta que el valor de rho converge.
Definición de Autocorrelación (AR(1)).
La autocorrelación o correlación serial es la correlación entre los términos de perturbación de diferentes períodos. Un proceso AR(1) significa que el error en un período t (εt) está linealmente relacionado con el error del período inmediatamente anterior (εt-1): εt = ρ*εt-1 + ut.
Causas comunes de la autocorrelación.
Inercia en las variables económicas, omisión de variables relevantes que siguen una tendencia, o una especificación incorrecta de la forma funcional del modelo.
Consecuencias de la autocorrelación.
Son las mismas que las de la heteroscedasticidad: los estimadores MCO siguen siendo insesgados y consistentes, pero pierden su eficiencia. La inferencia estadística (contrastes t y F) no es válida.
Limitaciones y ventajas del contraste de Durbin-Watson.
Limitaciones: Solo detecta autocorrelación de primer orden (AR(1)), puede dar un resultado no concluyente y no es válido si hay variables dependientes retardadas entre los regresores. Ventajas: Es sencillo de calcular y muy utilizado en la práctica.
En un modelo con autocorrelación, ¿la ecuación del predictor óptimo es Y^z = x`z*b? (Falso)
No. Cuando hay autocorrelación, la perturbación del período de predicción está correlacionada con las del período muestral. El predictor óptimo debe incorporar esta información, utilizando el último residuo conocido para predecir el error futuro.
¿Los estimadores MCO del modelo transformado con Cochrane-Orcutt equivalen a los MCG? (Falso)
No exactamente. El método de Cochrane-Orcutt pierde la primera observación en la transformación. El método de Prais-Winsten es una modificación que sí utiliza todas las observaciones y, por tanto, sus estimadores son equivalentes a los de Mínimos Cuadrados Generalizados (MCG).
¿El objetivo de corregir la autocorrelación es mejorar la bondad de ajuste? (Falso)
El objetivo principal no es mejorar el R², sino obtener estimadores que sean óptimos (eficientes) y permitir una inferencia estadística válida.
Si a un modelo se le añade una variable endógena retardada, ¿cómo se analiza la autocorrelación?
Se trata de un modelo autorregresivo. En este caso, el test de Durbin-Watson no es válido. Se debe utilizar el estadístico h de Durbin o, de forma más general, el contraste de Breusch-Godfrey.
¿Para qué sirve el contraste de Breusch-Godfrey?
Es un contraste más general para detectar autocorrelación. Sirve para contrastar autocorrelación de orden superior a uno y, a diferencia del Durbin-Watson, es válido en presencia de variables dependientes retardadas como regresores.