Autocorrelación y Regresión: Pruebas, Interpretación y Ajustes
Clasificado en Matemáticas
Escrito el en español con un tamaño de 3,25 KB
La transformación de primera diferencia para eliminar autocorrelación supone que el coeficiente de autocorrelación B es -1.
F: Para eliminar la autocorrelación se requiere que el coeficiente de autocorrelación sea B +1, lo que indica que las perturbaciones están correlacionadas positivamente.
En el esquema AR(1), una prueba de hipótesis b=1 puede realizarse modificando el estadístico g de Berenblutt-Webb, así como mediante el estadístico d de Durbin-Watson.
F: En la prueba d de Durbin-Watson, la hipótesis nula es que b=0. En cambio, en la prueba g de Berenblutt-Webb, la hipótesis nula es b=1. Sin embargo, para probar la significancia del estadístico g, se pueden utilizar las tablas de Durbin-Watson.
En presencia de autocorrelación, las varianzas calculadas convencionalmente y los errores estándar de los valores pronosticados son ineficientes.
V: Las varianzas ya no son mínimas, es decir, dejan de ser MELI (Mejor Estimador Lineal Insesgado) y, por lo tanto, dejan de ser eficientes.
Un coeficiente de determinación ajustado permite corregir las varianzas estimadas y, por ello, ayuda a la inferencia estadística.
F: El R² ajustado solo corrige el coeficiente de determinación de regresión múltiple, considerando el número de variables explicativas mediante el ajuste de grados de libertad.
Obtener un R² alto es muy bueno en una estimación, ya que facilita la interpretación de los parámetros estimados.
F: Un R² alto indica que un mayor porcentaje de la variación de Y es explicado por las X's, pero no proporciona información sobre los B^ (coeficientes estimados).
La bondad de ajuste de una regresión será mejor en la medida en que mayor sea la sumatoria de los errores estimados al cuadrado.
F: La bondad de ajuste es peor cuanto mayor sea la sumatoria de los errores estimados al cuadrado.
El coeficiente de determinación en un modelo de regresión múltiple mide la asociación lineal entre la variable explicativa y la variable explicada.
F: El coeficiente de determinación mide el porcentaje de la variación de la variable Y explicada por el conjunto de las variables explicativas.
Los valores R² de dos modelos, de los cuales uno corresponde a una regresión en forma de primera diferencia y otra en forma de nivel, no son directamente comparables.
V: Para que los R² sean comparables, las variables dependientes deben ser las mismas. En este caso, no lo son, ya que al tomar las primeras diferencias, se estudia el comportamiento de las variables alrededor de sus valores de tendencia.
El test de Fisher es útil para realizar pruebas de hipótesis en modelos de regresión múltiple, ya que considera los sesgos de especificación.
F: El test F permite realizar pruebas de hipótesis en modelos de regresión múltiple, pero no considera los sesgos de especificación. Para testear los sesgos de especificación, se puede realizar el test RESET.