Fundamentos de Modelos de Series Temporales: Estacionariedad, Cointegración y Procesos ARMA/VAR

Clasificado en Matemáticas

Escrito el en español con un tamaño de 11,84 KB

Fundamentos Esenciales en el Modelado de Series Temporales

El test formal para verificar la estacionariedad de una serie es el test de raíces unitarias. Este procedimiento busca determinar si el modelo exhibe crecimiento o no.

Clasificación de Integración (I)

  • Si no crece: Se clasifica como $I(0) + c$, $I(1)$, o $I(2)$.
  • Si crece: Se clasifica como $I(0) + c + b*2$, $I(1) + c$, o $I(2)$.

Procedimiento de Prueba de Raíces Unitarias: Test de Dickey-Fuller (DF)

El procedimiento fundamental que utilizaremos es el test de Dickey-Fuller.

Ejemplo: Caso de No Crecimiento

Comenzamos comparando las hipótesis:

  • $H_0$: $I(1)$ vs $H_1$: $I(0) + c$.

Nota Importante: El primer paso siempre se realiza en niveles.

La regresión asociada sería:

$$ \Delta y_{t-1} + c + \sum_{i=1}^{n} \Phi \Delta y_{t-1} + \varepsilon_t $$

Posteriormente, se compara el valor del estadístico del test ($\tau$) con los valores críticos ($v_c$) de la tabla correspondiente:

  • Si $\text{test}(\tau) < v_c \implies$ Rechazo $H_0$.
  • Si $\text{test}(\tau) > v_c \implies$ No rechazo $H_0$.

Si no se rechaza $H_0$ (por ejemplo, si el estadístico $t$ es mayor que el valor crítico con un 95% de confianza), se concluye que existe una raíz unitaria.

Prueba de Segundo Orden

Luego, pasamos a comparar $H_0: I(2)$ vs $H_1: I(1)$ (o $I(2)$ si se sigue el patrón de diferenciación).

La regresión en este caso se formula sobre las segundas diferencias:

$$ \Delta\Delta y_{t-1} + c + \sum_{i=1}^{n} \Phi \Delta\Delta y_{t-1} + \varepsilon_t $$

Observación: Ahora nos enfocamos en las diferencias.

Se sigue el mismo procedimiento. Si se rechaza $H_0$, el modelo es $I(1)$; si no se rechaza, el modelo es $I(2)$.

Cointegración

Dos variables son cointegradas si ambas son $I(1)$ y existe una combinación lineal entre ellas que es $I(0)$ (estacionaria). Esto implica que existe una relación a largo plazo (LP) hacia la cual ambas series convergen.

Si las series están cointegradas, la ecuación de largo plazo que caracteriza la relación es:

$$ Y_t = B X_t + c + \varepsilon_t \quad \text{(Fórmula General)} $$

Donde $c$ es el intercepto/Estimate y $B$ es el coeficiente principal.

Test de Engle-Granger

Este test evalúa la definición de cointegración mediante un procedimiento en dos pasos:

  1. Estimar la ecuación en niveles de una variable sobre la otra. De esta regresión se extraen los residuos.
  2. Aplicar el test de raíces unitarias a los residuos obtenidos.

Las hipótesis son:

  • $H_0$: No hay cointegración (los residuos tienen raíces unitarias, no son estacionarios).
  • $H_1$: Hay relación de cointegración (los residuos son estacionarios, no hay raíces unitarias).

El estadístico utilizado es el DF. Si el estadístico del test es $< v_c \implies$ Rechazo $H_0$. Si es $> v_c \implies$ No rechazo $H_0$. (En este test, los valores críticos deben ser los proporcionados por el profesor, guiándose por el tamaño de la muestra, y no los de la salida estándar del software).

Test de Johansen

El test de Johansen presenta dos ventajas sobre el test de Engle-Granger:

  1. Puede verificar la existencia de más de una relación de cointegración cuando hay más de dos variables.
  2. Las propiedades estadísticas del test de Johansen son superiores.

Modelos de Procesos Estocásticos

Procesos de Medias Móviles (MA(q))

El modelo $MA(q)$ se define como:

$$ W_t = \mu + \theta_1 \varepsilon_{t-1} + \theta_2 \varepsilon_{t-2} + \varepsilon_t \quad \text{(Medias Móviles)} $$

Se identifica mediante la Función de Autocorrelación (ACF). Es estacionario por definición.

Propiedades del MA(1)

  • Invertibilidad: Si $|\theta| < 1$. Esto equivale a que las raíces del polinomio característico estén fuera del círculo unitario ($|\text{raíces}| > 1$).
  • Esperanza: $E(W_t) = \mu$.
  • Varianza MA(1): $Var(W_t) = (1 + \theta_1^2) \sigma^2_{\varepsilon}$.
  • Función de Autocorrelación (FA):
    • $MA(1): \rho_1 = \frac{\theta_1}{1 + \theta_1^2}$; $\rho_2 = 0$. El $\rho$ es significativo solo hasta el orden del MA, después es cero.
    • $MA(2): \rho_1 = \frac{\sigma^2_{\varepsilon} (\theta_1 + \theta_1\theta_2)}{(1 + \theta_1^2 + \theta_2^2)}$; $\rho_2 = \frac{\theta_2 \sigma^2_{\varepsilon}}{(1 + \theta_1^2 + \theta_2^2)}$; $\rho_3 = 0$.

Invertibilidad MA(2)

Para ser invertible, las raíces del polinomio $\Theta(L) = 1 + \theta_1 L + \theta_2 L^2$ deben satisfacer $|z| > 1$.

Para encontrar las raíces $z$ de un polinomio cuadrático $az^2 + bz + c = 0$ (donde $L$ es la variable):

$$ z = \frac{-b}{2a} \pm \frac{\sqrt{4ac - b^2}}{2a} \quad \text{(Solo la raíz aplica al numerador)} $$

El módulo de la raíz es: $|z| = \sqrt{(\text{parte real})^2 + (\text{parte imaginaria})^2}$.

En un proceso $MA(2)$, la incertidumbre predictiva crece inicialmente y luego se estabiliza en la varianza incondicional.

El Teorema de Wold garantiza que todo proceso estacionario puede escribirse como un $MA(\infty)$ (más un componente determinista) con innovaciones incorrelacionadas.

Procesos Autorregresivos (AR(p))

El modelo $AR(p)$ se define como:

$$ W_t = c + \Phi_1 W_{t-1} + \Phi_2 W_{t-2} + \varepsilon_t \quad \text{(Autorregresivo)} $$

Se identifica mediante la Función de Autocorrelación Parcial (PACF). Es invertible por definición.

Propiedades del AR(1)

  • Estacionariedad: Si $|\Phi_1| < 1$. Esto implica que las raíces del polinomio característico deben estar fuera del círculo unitario ($|\text{raíces}| > 1$).
  • Esperanza AR(1): $E(W_t) = \frac{c}{1 - \Phi_1}$.
  • Varianza AR(1): $Var(W_t) = \frac{\sigma^2_{\varepsilon}}{1 - \Phi_1^2}$.
  • Función de Autocorrelación (FA): $\rho_k = \Phi_1^k$. Así, $\rho_1 = \Phi_1$; $\rho_2 = \Phi_1^2$; $\rho_3 = \Phi_1^3$.

Propiedades del AR(2)

Para el $AR(2)$, se deben calcular las Funciones de Autocorrelación (FA) antes de la varianza:

  • $\rho_1 = \frac{\Phi_1}{1 - \Phi_2}$
  • $\rho_2 = \frac{\Phi_1^2}{1 - \Phi_2} + \Phi_2$
  • $\rho_3 = \Phi_1 \rho_2 + \Phi_2 \rho_1$
  • Varianza: $\gamma_0 = V(w_t) = \Phi_1(\rho_1 \gamma_0) + \Phi_2 (\rho_2 \gamma_0) + \sigma^2_{\varepsilon}$.

Para que un $AR(2)$ sea estacionario, las raíces del polinomio $\Theta(L) = 1 + \Phi_1 L + \Phi_2 L^2$ deben tener módulo mayor a 1 ($|z| > 1$).

Las series temporales económicas suelen mostrar patrones cíclicos. La función PACF de una serie $AR(2)$ decae gradualmente, mientras que la PACF de un $AR(1)$ decae geométricamente.

Modelos de Vectores Autorregresivos (VAR(P))

El modelo VAR se define generalmente como:

$$ W_t = c + \Phi_1 W_{t-1} + \Phi_2 W_{t-2} + \varepsilon_t \quad \text{(Bivariado, extendible a multivariado)} $$

Para un $VAR(1)$, si llega hasta $y_{t-1}$. El orden $p$ en el correlograma es el rezago hasta donde llega la correlación.

La forma matricial puede escribirse como:

$$ (I - \Phi L) y_t = \varepsilon_t $$

Donde $I$ es la matriz identidad. Si las raíces del polinomio característico son mayores a 1 ($|\text{raíces}| > 1$), el proceso es estacionario; si son menores a 1, no es estacionario.

Un error en la selección del modelo VAR ocurre si el menor Criterio de Información de Akaike (AIC) no coincide con el modelo VAR seleccionado por otros criterios.


Conceptos Adicionales de Estacionariedad y Pruebas

Tipos de Estacionariedad

  • Estacionariedad Fuerte: Todas las variables aleatorias que componen el proceso estocástico tienen la misma función de densidad, lo que implica la misma media y varianza. $f_{Y_1}(y) = f_{Y_T}(y)$.
  • Estacionariedad Débil de 1er Orden: Todas las variables aleatorias tienen la misma media: $\mu_{Y_1} = ... = \mu_{Y_T} = \mu$.
  • Estacionariedad Débil de 2do Orden (Covarianza): Todas las variables tienen la misma media y varianza, y las covarianzas no dependen del tiempo. Esta es la que se usa en la práctica. Si alguna condición no se cumple, se debe transformar la serie.

Pruebas de Raíces Unitarias Alternativas

  • Test de Phillips-Perron (PP): Corrige la varianza del error de manera no paramétrica, evitando la necesidad de incluir rezagos adicionales. Esto proporciona un contraste robusto frente a autocorrelación y heterocedasticidad en los residuos, utilizando los mismos valores críticos que el Test de DF.
  • El test de Diferenciación Completa (DFA) tiende a sobre-diferenciar (menos malo), mientras que el test de PP tiende a sub-diferenciar.

Ruido Blanco

Un Ruido Blanco es un proceso impredecible, estacionario en covarianza (media igual a cero), cuyas observaciones no muestran dependencia lineal. Es un caso particular de proceso estocástico donde las variables aleatorias no están correlacionadas. $I(0)$ es ruido blanco.

Técnicas de Muestreo

  • Recursivo: Mantiene todos los datos disponibles.
  • Rolling (Ventana Móvil): Mantiene una cantidad fija de datos utilizados para el cálculo en cada paso.

Variables de Choque

  • Variable Impulso (Impulse Variable): Un choque que ocurre solo una vez.
  • Variable Escalón (Step Variable): Un choque que se mantiene en el tiempo. En la primera diferencia, un escalón se transforma en un impulso.

Causalidad de Granger

Testea si los rezagos de una variable aportan información útil para predecir la otra.

Se realizan dos pruebas:

  1. $H_0$: Variable 1 no causa a Granger la Variable 2. $H_1$: Variable 1 causa a Granger la Variable 2.
  2. $H_0$: Variable 2 no causa a Granger la Variable 1. $H_1$: Variable 2 causa a Granger la Variable 1.

Regla de decisión basada en el valor $p$:

  • Si $p < 0.05 \implies$ Rechazo $H_0$ (Hay causalidad).
  • Si $p > 0.05 \implies$ No rechazo $H_0$ (No hay causalidad).

Interpretación:

  • Si ambas causan: Causalidad bidireccional.
  • Si solo una causa: Causalidad unidireccional.

En un modelo VAR, todas las variables son débilmente exógenas. Para ser consideradas fuertemente exógenas, adicionalmente no deben ser causadas a Granger por las otras variables.

Notación ARMA(p,d,q)(P,D,Q)

En la notación estacional:

  • $\mathbf{p}$: Número de rezagos AR no estacionales (sin contar los múltiplos de 12).
  • $\mathbf{d}$: Orden de integración determinado por el modelo ($I(0), I(1), I(2)$).
  • $\mathbf{q}$: Número de rezagos MA no estacionales (sin contar los múltiplos de 12).
  • $\mathbf{P}$: Número de rezagos AR estacionales (múltiplos de 12).
  • $\mathbf{D}$: Orden de diferenciación estacional (usualmente $D=0$ o $D=1$).
  • $\mathbf{Q}$: Número de rezagos MA estacionales (múltiplos de 12).

Nota sobre ACF y PACF:

  • MA (ACF): No cuenta el primer rezago en la identificación estacional.
  • AR (PACF): Cuenta el primer rezago en la identificación estacional.

Entradas relacionadas: