Series de tiempo

series de tiempo

Series de tiempo

Eduardo Selim M. M. , Carlos A. Ar.
06-01-2021

Algunas definiciones

no siempre las series las observaciones de manera equiespaciadas

Ejemplo:

\(\{x_{t_j}\}_{j \in \mathbb{N}}\) si las observaciones no están igualmente espaciadas. Observaciones de:

\[ x_{t_1}: 16 \text{ abril } 2021 \\ x_{t_2}: 19 \text{ abril } 2021 \\ x_{t_3}: 10 \text{ mayo } 2021 \\ x_{t_4}: 15 \text{ mayo } 2021 \]

El caso más popular es el equiespaciado

De manera más formal

Definición. Un proceso de serie de tiempo, es un proceso estocástico, i.e. es una colección de variables aleatorias \(\{x_t\}_{t\in T}\) en el mismo espacio de probabilidad \((\Omega, \mathcal{F}, \mathbb{P})\).

Se dice que la serie es a tiempo discreto si \(T \subset \mathbb{Z}\)

Se dice que la serie es a tiempo continuo si \(T \sim \mathbb{R}, T = [0, \infty), T = [a, b]\)

Definición. Se dice que un proceso estocástico \(\{x_t\}_{t\in T}\) es completamente estacionario o fuertemente estacionario si \(\forall t_1, ..., t_n \in T, \forall t \in \mathbb{R}\) tal que \(t_1 +t,t_2 +t, ..., t_n +t \in T\).

\[ F_{X_{t_1}, X_{t_2}, ..., X_{t_n}} (a_1, a_2, ..., a_n) = F_{X_{t_1 + t}, X_{t_2+ t}, ..., X_{t_n+ t}} (a_1, a_2, ..., a_n) \]

i.e. el vector \((X_{t_1}, X_{t_2}, ..., X_{t_n})\) tiene la misma función de distribución que el vector \((X_{t_1 + t}, X_{t_2+ t}, ..., X_{t_n+ t})\)

Definición. Se dice que un proceso \(\{X_t\}_{t \in T}\) es débilmente estacionario (ó estacionario de segundo orden) si \(\forall n \in \mathbb{N_+}, \forall t_1, t_2, ..., t_n \in T, \forall t \in \mathbb{R}\) tal que \(t_1+t, t_2+t, ..., t_n+t \in T\). Todos los momentos de orden 1 y 2 del vector \((X_{t_1}, X_{t_2}, ..., X_{t_n})\) son iguales a los correspondientes momentos de orden 1 y 2 del vector \((X_{t_1 + t}, X_{t_2+ t}, ..., X_{t_n+ t})\) es decir

\[ \mathbb{E}\bigg[ X_{t_1}^{r_1} X_{t_2}^{r_2} ... X_{t_n}^{r_n}\bigg] = \mathbb{E}\bigg[ X_{t_1+t}^{r_1} X_{t_2+t}^{r_2} ... X_{t_n+t}^{r_n}\bigg] \]

con \(r_1, ..., r_n \in \mathbb{N}\) tal que \(r_1+r_2 +...+ r_n \leq 2\).

Condiciones a verificar para estacionariedad débil

\[ r_j = 1, r_i = 0 \\ r_i = 1, r_j = 1 \\ r_i = 2, r_j = 0 \]

Esto se reduce a

\[ \mathbb{E}(X_{t_j}) = \mathbb{E}(X_{t_j + t}) \\ \mathbb{E}(X_{t_i} X_{t_j}) = \mathbb{E}(X_{t_i + t} X_{t_j + t}) \\ \mathbb{E}(X_{t_j} ^2) = \mathbb{E}(X_{t_j + t}^2) \]

Es se reduce a verificar

\[ Cov(X_\tau, X_s) = Cov(X_{\tau+t}, X_{s+t}) \]

El análisis tradicional de series de tiempo descompone a la serie observada de la siguiente manera.

\[ X_t = \underbrace{m_t}_{\text{componente}\\\text{de tendencia}} + \underbrace{S_t}_{\text{componente}\\ \text{estacional} \\ \text{(seasonality)}} + \underbrace{Y_t}_{\text{componente}\\\text{aleatoria}} \]

Los objetivos al hacer análisis de series de tiempo son

  1. Estimar \(m_t, S_t\)

  2. Estimar \(Y_t\)

    • Encontrar un modelo adecuado para este de entre un catálogo de modelos.

      • Estimar parámetros.
  3. Hacer predicciones.

Ruido blanco

\(y_t \rightarrow\) Las \(Y_t'^s\) son independientes e identicamente distribuidas (generalmente Gaussianas)

Estacionariedad débil

Se dice que una serie de tiempo \(\{y_t\}\) es débilmente estacionaria ó estacionaria de segundo orden si:

Autocorrelación con lag \(k\)

\[ \rho_k = Corr(y_t, y_{t-k}) = \frac{Cov(y_t, y_{t-k})}{\sqrt{Var(y_t)Var(y_{t-k})}} = \frac{Cov(y_t, y_{t-k})}{\sigma_y^2} \]

Libros

Autocorrelación muestral con lag \(k\)

\[ r_k := \frac{\displaystyle\sum_{t = k+1}^\tau (y_{t} - \bar{y})(y_{t-k} - \bar{y})}{\displaystyle\sum_{t =1}^\tau(y_{t} - \bar{y})^2} \]

donde

\[ \bar{y} = \frac{1}{\tau}\sum_{t = 1}^\tau y_t\\ \\ \\ y_1 \space \space \space \space \space y_2 \space \space \space \space \space ... \space \space \space \space \space y_{\tau-k} \\ \updownarrow \space \space \space \space \space \space \space \updownarrow \space \space \space \space \space ... \space \space \space \space \space \space \space \updownarrow \\ y_{k+1} \space \space \space \space \space y_{k+2} \space \space \space \space \space ... \space \space \space \space \space y_{\tau} \]

Pronóstico en ruido blanco (Gaussiano)

Sean \(y_1, ..., y_T\) observaciones

Caminata aleatoria

\[ y_t = y_0 + \sum_{i=1} ^t c_i, \{c_i\} \text{ es un ruido blanco} \]

Afirmaciones

Demostración: tú puedes 👏🏻

Pronóstico en caminata aleatoria

Identificación de una caminata aleatoria

  1. \(\mathbb{E}(y_t) = y_0 + t\cdot\mu_c\) esto implica una tendencia una lineal en el tiempo.

    \(Var(y_t) = t \cdot \sigma_c ^2\) la varianza es creciente con respecto al tiempo.

  2. Si \(\{y_t\}\) es caminata aleatoria

    \[ c_t = y_t - y_{t-1} \] debiese ser un ruido blanco y entonces debería tener correlaciones cercanas a 0 (no significativamente distintas de 0).

  3. La desviación estándar de la serie original \(\{y_t\}\) debiése ser sustiancialmente mayor que la serie de diferencias \(c_t = y_t - y_{t-1}\)

    \[ Var(y_t) = t \cdot \sigma_c^2 \\ Var(c_t) = \sigma_c^2 \]

Filtros

Transformación logarítmica

Sea \(\{y_t\}\) tal que \(\boxed{\mathbb{E}(y_t) = \mu_t}\) y \(\boxed{\sqrt{Var(y_t)} = \mu_t \cdot \sigma}\), donde \(\mu_t\) es uina función determinista de \(t\) (generalmente creciente).

Se puede diferenciar postriormente para remover el nivel de variación media (i.e. ver qué onda con \(\log(\mu_t)\))

Tendencia lineal v.s. caminata aleatoria

Prueba de Dickey-Fuller

\[ \underbrace{y_t - y_{t-1}}_{y} = \underbrace{\overbrace{(\phi - 1)}^{x_1} y_{t-1} }_{\text{caminata} \\ \text{aleatoria}} + \underbrace{\beta_0 + \beta_1 \overbrace{t}^{x_2}}_{\text{tendencia} \\ \text{lineal}} + \epsilon_t \]

Se contrastan las hipótesis

\[ \underbrace{ \underbrace{H_0: \phi = 1}_{\text{caminata} \\ \text{aleatoria}} \space \space \space \space \space \space\space \space \space \text{v.s.} \space \space \space \space \space \space \space \space \space \underbrace{H_a : \phi < 1}_{\text{tendencia} \\ \text{lineal}}}_{\text{Prueba de raíz unitaria}} \]

Dickey-Fuller supone que los errores \(\epsilon_t'^s\) están serialmente no-correlacionados.

Versión aumentada de Dickey-Fuller

\[ \underbrace{y_t - y_{t-1}}_{y} = (\phi-1)\underbrace{y_{t-1}}_{y} + \beta_0 + \beta_1\underbrace{t}_{x_2} + \sum_{j=1}^p\phi_j\underbrace{(y_{t-j} - y_{t-j-1})}_{x_j+\epsilon_t} \]

Modelos estacionales

Modelos de efectos estacionales fijos

Suavizamiento (smoothing)

Promedios móviles (moving average)

¿Cómo sabemos que \(k\) utilizar?

Suavizamiento exponencial simple

\[ \hat{S}_t = \frac{1}{(1-\omega)^{-1}} \bigg[ y_t + \omega y_{t-1} + \omega^2 y_{t-2} + ... + \omega^{t-1} y_1 + \omega^ty_0\bigg] \]

El peso asignado a \(y_{t-i}\) es \((1-\omega)\omega^i\)

¿Por qué escogiste los ponderadores así? \((1-\omega)\omega^i\)

\[ \sum_{i=0}^\infty (1-\omega)\omega^i = (1-\omega)\sum_{i=0}^\infty \omega^i = (1-\omega) \bigg[\frac{1}{1-\omega} \bigg] = 1 \]

Tú puedes demostrar que \(\hat{S}_t = \hat{S}_{t-1} + (1-\omega)(y_t - \hat{S}_{t-1})=(1-\omega)y_t + \omega \hat{S}_{t-1}\)

Modelo AR de primer orden (AR(1))

Conocido como modelo Auto regresivo de orden 1.

Propiedades del modelo AR(1) estacionario

Para un modelo AR(1), \(y_t = \beta_0 + \beta_1y_{t-1} + \epsilon_t\)

Demuestra que:

Función de autocorrelación

Para \(k = 1, 2, ...\)

Estimación de parámetros en AR(1)

Aplicando la fórmula para \(\beta_1\) en el modelo SLR

\[ \boxed{ \hat{\beta}_1 = \frac{\displaystyle \sum_{t=2}^T (y_{t-1} - \bar{y}_{1,T-1})(y_t - \bar{y}_{2,T})}{\displaystyle \sum_{t=2}^T (y_{t-1} - \bar{y}_{1,T-1})^2} } \]

donde \(\bar{y}_{1, T-1} = \frac{1}{T-1} \displaystyle \sum_{t=1}^{T-1} y_{t}, \bar{y}_{2, T-1} = \frac{1}{T-1} \displaystyle \sum_{t=2}^{T} y_{t}\) y también \(\boxed{\hat{\beta}_0 = \bar{y}_{2, T} - \hat{\beta}_1 \bar{y}_{1, T-1}}\)

Entonces se tienen las siguientes aproximaciones

\[ \hat{\beta}_1 \approx r_1 \space \space \space \text{ y } \space \space \space \hat{\beta}_0 = \bar{y}(1-r_1) \]

Si se pide que se calule el LSE (estimador por mínimos cuadrados) de \(\beta_1\) se usa

\[ \hat{\beta}_1 = \frac{\displaystyle \sum_{t=2}^T(y_{t-1} -\bar{y})(y_{t} -\bar{y})}{\displaystyle \sum_{t=2}^T(y_{t-1} -\bar{y})^2} \]

no usar \(\hat{\beta}_1 = r_1\), a menos que se pida directamente.

Residuales

\[ \boxed{ e_t := y_t - (\hat{\beta}_0 + \hat{\beta}_1 y_{t-1}) } \]

  1. Verificación de diagnóstico. Si el modelo AR(1) ajustado es adecuado, los residuales se deben parecer a un verdadero ruido blanco \(\{ \epsilon_k\}\) que son i.i.d. y por lo tanto sin estructura de correlación.

    OJO: El residual \(e_1\) no está disponible, sólo se tienen \(T-1\) observaciones de los residuales.

  2. Estimación de la varianza del ruido blanco. Los residuales se usan para estimar la varianza del ruido blanco \(\sigma_{\epsilon}^2\)

    1. A diferencia del marco de regresión lineal, el promedio de los residuales no es 0.

    2. El MSE para la varianza del ruido blanco es

      \[ \boxed{ S^2 = \frac{1}{T-3} \sum_{t = 2}^T (e_t - \bar{e})^2 } \]

Predicción en el modelo AR(1)