“A31 - Pruebas de Cointegración y Causalidad”

UNIVERSIDAD DE EL SALVADOR

FACULTAD DE CIENCIAS ECONOMICAS

ESCUELA DE ECONOMIA


Métodos para el Análisis Económico

GT03 CICLO II/2024

CATEDRATICO: Carlos Ademir Perez Alas

Guía: “Pruebas de Cointegración y Causalidad”

Integrantes:

Cortez Hércules, José Vladimir CH21018

Deodanes Abrego, Cristian Jeferson DA21012

Linares Rodriguez, Walter Jose LR21023

Ciudad Universitaria, 7 Enero de 2025.

Prueba de Raíz Unitaria de Dickey & Fuller

Propósito de la prueba, ¿Para qué se usa?

La prueba de Raíz Unitaria de Dickey & Fuller nos facilita la identificación de la existencia o ausencia de raíz unitaria en las series temporales, permitiéndonos determinar si son estacionarias o no. Una serie de tiempo estacionaria es la que presenta una media y varianza constantes a lo largo del tiempo, lo que significa que la serie no exhibe una tendencia. En cambio, una serie de tiempo no estacionaria es la que presenta variaciones en estas propiedades a lo largo del tiempo. El test de Raíz Unitaria de Dickey & Fuller nos brinda la posibilidad de determinar si hay una tendencia presente en la serie de tiempo. (Rico, 2021)

Hipótesis de la prueba

Si el parámetro alfa es igual a cero implica que la serie sigue un camino aleatorio, en consecuencia es no estacionaria.

\[ H_0: \alpha = 0 \Rightarrow (\phi - 1) = 0 \Rightarrow \phi = 1 \]

Si el parámetro alfa es distinto de cero y es negativo, entonces la serie es estacionaria.

\[ H_1: \alpha < 0 \Rightarrow (\phi - 1) \neq 0 \Rightarrow \phi \neq 1 \]

Cuanto más negativa sea, más fuerte será el rechazo de la hipótesis de que existe una raíz unitaria. Por supuesto, esto es solo en cierto nivel de confianza. Es decir, si el estadístico de la prueba ADF es positivo, automáticamente se puede decidir no rechazar la hipótesis nula de raíz unitaria.

Simplemente se establece como hipótesis nula, la presencia de tendencia estocástica en las observaciones. En el caso de la hipótesis alternativa, establecemos no tendencia estocástica en las observaciones.

Estadístico de prueba

En el contexto de la prueba Dickey-Fuller hay dos condiciones para que la serie de tiempo sea estacionaria:

  • Rechazar la hipótesis nula.
  • Que el estimador alfa sea negativo.

Esto se pude probar mediante un estadístico t Student, en donde se espera que el estadistico t de la prueba sea negativo por lo tanto, tiene que ser mas negativo(menor) que el valor critico para que la hipotesis nula sea rechazada y conluir que las serie temporal es estacionaria.

\[ \hat{t}_{\alpha} = \frac{\hat{\alpha}}{SE(\hat{\alpha})} \]

Criterio de decisión

La prueba de raíz unitaria se lleva a cabo entonces bajo la hipótesis nula \(\alpha = 0\) contra la hipótesis alternativa de \(\alpha < 0\).

Una vez calculado el estadistico de la prueba debe ser comparado con el valor crítico relevante para la prueba de Dickey-Fuller. Si el resultado es menor (esta prueba no es simétrica por lo que no consideramos un valor absoluto) que el valor crítico (mayor negativo), entonces la hipótesis nula de es rechazada y no hay raíz unitaria presente.

Condición de estacionariedad:

\[ \hat{t}_{\alpha} = \frac{\hat{\alpha}}{SE(\hat{\alpha})} < 0 \quad \text{y} \quad p\text{-valor} < 0.05 \]

Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba:

  • Al ser rechazada la Hipótesis Nula, no se rechaza la Hipótesis Alternativa y se concluye que no existe raíz unitaria; por lo tanto, los residuales son estacionarios.
  • Al no ser rechazada la Hipótesis Nula, se concluye que existe raíz unitaria; por lo tanto, los residuales no son estacionarios.

Sintaxis de implementación en R

Paso 1: Estructura y preparación de datos

Para realizar la Prueba de Dickey-Fuller Aumentada se debe realizar la respectiva carga de datos que correspondan a una serie de tiempo.

Paso 2: Comprobar si la serie de tiempo es estacionaria

En el contexto de la prueba Dickey-Fuller hay dos condiciones para que la serie de tiempo sea estacionaria:

  • Rechazar la hipótesis nula.
  • Que el estimador alfa sea negativo.

Esto se hace mediante el estadístico de prueba:

\[ \text{Probabilidad de rechazo} < 0.05 \quad \text{y} \quad \hat{t}_{\alpha} = \frac{\hat{\alpha}}{SE(\hat{\alpha})} < 0 \]

Paso 3: Comprobar la estacionariedad de la serie de tiempo mediante la prueba de Dickey-Fuller Aumentada

Se genera un modelo de regresión con las dos variables utilizando el comando \((lm)\) y también se generan los residuales (errores) que son con los que trabajaremos en la prueba de ADF.

Luego de que se genera el modelo con el cual se trabajará, se procede a la aplicación de la prueba mediante el comando \(adf.test\) de la librería \(tseries\), pasando como objeto los residuales, en donde muestra los resultados para el análisis correspondiente como el estadístico de prueba y valor crítico.

Ejemplo en R

Hipótesis

  • \(H_0\): “Raíz Unitaria (No es estacionaria)”
  • \(H_1\): “No hay raíz unitaria (Es estacionaria).”
# Cargar librerías
library(tseries)
## Registered S3 method overwritten by 'quantmod':
##   method            from
##   as.zoo.data.frame zoo
# Generar una serie temporal simulada
set.seed(123)
serie <- cumsum(rnorm(100))

# Aplicar la prueba ADF
adf_result <- adf.test(serie, alternative = "stationary")

# Resultados
print(adf_result)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  serie
## Dickey-Fuller = -1.8871, Lag order = 4, p-value = 0.6234
## alternative hypothesis: stationary

Interpretación

El rechazo de \(H_0\) sugiere que la serie es estacionaria, Si no se rechaza, implica la presencia de una raíz unitaria.

Cointegración en el enfoque de Soren Johansen

El procedimiento multivariado de S. Johansen (1988 y 1991), se ha convertido en un método muy popular para probar la existencia de cointegración en la variables I(1) y I(0), en donde I(1) y I(0) indican integración de primer y cero orden, respectivamente. En la tecnología de S. Johansen, es necesario analizar las series previamente con el fin de conocer si presentan o no raíces unitarias. Las series que presenten raíces unitarias se colocan en un vector autorregresivo a partir del cual se puede probar la existencia de una o mas combinaciones lineales J(U) o vectores de cointegración, como también se les denomina.(Quintana and Mendoza 2016)

El procedimiento se sustenta en los modelos VAR, que con una especificación de un solo rezago, se escribe:

\[ Y_t = \mu + A_1 Y_{t-1} + V_t \]

Ahora transformamos el modelo restando \(Y_{t-1}\) de los dos lados:

\[ Y_t - Y_{t-1} = \mu + A_1 Y_{t-1} - Y_{t-1} + V_t \]

Agrupando las variables tenemos:

\[ \Delta Y_t = \mu + A Y_{t-1} + V_t \]

Donde:

\[ A = I + A_1 \]

La representación del modelo es la que llamamos Mecanismo de Corrección de Error en la sección anterior, por ello \(A\) es, por tanto, un Vector de Corrección de Error.

Por ello, el modelo es un Mecanismo de Corrección de Error Vectorial ( También se dará cuenta de la similitud de esta especificación con la de la prueba ADF, incluso podríamos considerarla un ADF multiecuacional.

Si ahora generalizamos la especificación para considerar un modelo VAR(p), el resultado es:

\[ Y_t = \mu + A_1 Y_{t-1} + A_2 Y_{t-2} + \ldots + A_p Y_{t-p} + V_t \]

Si se resta \(Y_{t-1}\) hasta \(Y_{t-p}\) de los dos lados, y se reescribe en función de \(\Delta Y_t\) entonces:

\[ \Delta Y_t = \mu + \Gamma_1 \Delta Y_{t-1} + \Gamma_2 \Delta Y_{t-2} + \ldots + \Gamma_{p-1} \Delta Y_{t-p+1} + A Y_{t-p} + e_t \]

Donde:

\[ \Gamma_i = I + \Gamma_1 + \ldots + \Gamma_i \] \[ A = I + A_1 + \ldots + A_p \]

En la matriz \((A)\) se encuentra la relación de largo plazo. Si su rango es \(\text{rango}(A) = r\), entonces se pueden encontrar las siguientes situaciones:

  • Si \(r = 0\), \(A\) es una matriz nula. No existirá ninguna relación de cointegración.
  • Si \(r = m\), el proceso multivariante \(Y_t\) es estacionario. Por tanto, habría \(m-1\) vectores de cointegración linealmente independientes que cancelan la tendencia común. Así, \(Y_t\) será estacionario si \(A_{m \times m}\) tiene rango completo.
  • Si \(0 < r < m\), se encontrará entre las dos situaciones anteriores, por lo que habrá \(r\) relaciones de cointegración.

Por lo tanto, el rango de \(A\) mostrará el número de columnas linealmente independientes de esta matriz y ese será también el número de vectores de cointegración existentes entre las variables del VAR.

De acuerdo con esto, Johansen demuestra que la estimación máximo verosímil de la matriz de vectores de cointegración, \(\alpha\), se obtiene a partir del cálculo de las raíces características \(\gamma_i, i=1, \ldots, m\).

Para contrastar la hipótesis nula de que hay como máximo \(r\) vectores de cointegración frente a la alternativa de que hay \(m\), \(r \geq m\), el contraste de razón de verosimilitud viene dado por los estadísticos de la traza y de la raíz máxima:

\[ \text{TRAZA} = -T \sum_{i=r+1}^m \ln(1 - \lambda_i) \] \[ \text{RAÍZ MÁXIMA} = \lambda_{\text{max}} = -T \ln(1 - \lambda_{r+1}) \]

Hipótesis de la prueba

Hipótesis Nula:

\[ H_0: r = 0 \quad \text{(No existe Cointegración)} \]

Hipótesis Alternativa:

\[ H_1: r = m \quad \text{(Existe Cointegración)} \]

El contraste de hipótesis consiste en la secuencia:

  1. La hipótesis nula \(H_0: r = 0\) (no cointegración), frente a la alternativa \(H_1: r = 1\).
  2. En caso de rechazar esta hipótesis (utilizando cualquiera de los dos estadísticos propuestos), se contrasta ahora \(H_0: r = 1\) frente a la alternativa \(H_1: r = 2\), y así sucesivamente hasta el momento en que no se rechaza \(H_0\), o bien hasta que se tuviera que no rechazar la hipótesis alternativa de \(r = m\).

Los valores críticos para los dos estadísticos de prueba dependen de la inclusión o no de constantes en las ecuaciones; se pueden incluir interceptos en los vectores de cointegración (Quintana and Mendoza 2016).

Sintaxis de Cointegración Enfoque Johansen en R

Librería que se utiliza en esta prueba son las siguientes:

-library(urca)

Prueba de Soren Johansen

La función principal para realizar la prueba de cointegración de Johansen es:

summary(ca.jo(ecb.consumo, type = “trace”, ecdet = “none”, spec = c(“longrun”), K = 4))

Estadístico de Prueba

Criterio de Decisión

  • Hipótesis nula: \[ H_0: r = 0 \quad \text{(No existe cointegración)} \]

  • Hipótesis alternativa: \[ H_1: r = m \quad \text{(Existe cointegración)} \]

Decisión:

  • Se rechaza \(H_0\): Se puede afirmar que en la serie de tiempo no existe cointegración.
  • No se rechaza \(H_0\): Se puede concluir que en la serie de tiempo existe cointegración.

Ejemplo en R

# Cargar librerías
library(urca)

# Crear series temporales simuladas
set.seed(123)
x <- cumsum(rnorm(100))
y <- 0.5 * x + rnorm(100)
data <- cbind(x, y)

# Prueba de cointegración
johansen_result <- ca.jo(data, type = "trace", ecdet = "const", K = 2)

# Resultados
summary(johansen_result)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: trace statistic , without linear trend and constant in cointegration 
## 
## Eigenvalues (lambda):
## [1] 4.045959e-01 2.751562e-02 1.759442e-19
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 1 |  2.73  7.52  9.24 12.97
## r = 0  | 53.55 17.85 19.96 24.60
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##               x.l2        y.l2    constant
## x.l2      1.000000  1.00000000  1.00000000
## y.l2     -2.071821 -0.03565006 -0.24245865
## constant -0.143079 -4.21041101  0.06197902
## 
## Weights W:
## (This is the loading matrix)
## 
##            x.l2        y.l2      constant
## x.d -0.06452877 -0.05310978  2.014102e-17
## y.d  0.56593797 -0.03034488 -4.849394e-17
(johansen_result)
## 
## ##################################################### 
## # Johansen-Procedure Unit Root / Cointegration Test # 
## ##################################################### 
## 
## The value of the test statistic is: 2.7343 53.5488

Interpretación

Si se rechaza \(H_0\), se concluye que las series están cointegradas.

Casualidad en el sentido de Granger

El test de causalidad de Granger se emplea para determinar si una serie de tiempos puede ser empleada para predecir otra.

En términos generales, dado que el futuro no puede anticipar el pasado, si la variable X (según la teoría de Granger) provoca la variable Y, las modificaciones en X deben ser anteriores a las modificaciones en Y. Por lo tanto, en una regresión de Y sobre otras variables (con sus propios valores pasados), si incorporamos valores pasados o rezagados de X y esto mejora notablemente la predicción de Y, podemos afirmar que X (según la teoría de Granger. (Gujarati and Porter 2010)

Hipótesis de la prueba

  • Hipótesis nula: \[ H_0: \beta_{2,1} = \beta_{2,2} = \beta_{2,3} = 0 \quad \text{(La serie temporal \(X\) no causa que \(Y\) se cause a sí misma).} \]

  • Hipótesis alternativa: \[ H_1: \exists \beta_{2,i} \neq 0 \quad \text{para algún } i \quad \text{(La serie temporal \(X\) causa a \(Y\) en el sentido de Granger).} \]

Estadístico de prueba

Las variables x y y deben ser estacionarias.

Para probar que \(X\) causa Granger a \(Y\), se examina si los valores rezagados de \(X\) en la regresión de \(Y\) sobre los valores rezagados de \(X\) e \(Y\) reducen significativamente el error de varianza.

Se dice que una serie temporal X es causa Granger de Y si se puede demostrar que esos valores X proporcionan información estadísticamente significativa sobre los valores futuros de Y a través de una serie de pruebas t y pruebas F sobre valores rezagados de X. Dichas pruebas nos brindan un valor p correspondiente. Si el valor p es menor que un cierto nivel designificación (es decir, p menor o igual a 0.05), entonces podemos rechazar la hipótesis nula y concluir que tenemos evidencia suficiente para decir que la serie temporal x Granger causa la serie temporal y.

#Estadistico F La prueba generalmente se realiza en la prueba wald o F.

\[ F = \frac{(RSS_1 - RSS_2) / (p_2 - p_1)}{RSS_2 / (n - p_2)} \]

Donde: - \(RSS_1\): Suma de cuadrados residuales del modelo restringido. - \(RSS_2\): Suma de cuadrados residuales del modelo no restringido. - \(p_1, p_2\): Grados de libertad de los modelos restringido y no restringido. - \(n\): Número total de observaciones.

Criterio de decisión

  • Rechazar \(H_0\) si el valor p es menor o igual a \(\alpha\): \[ p\text{-valor} \leq \alpha \]

Sintaxis de la prueba de Granger en R.

En R, podemos usar la función grangertest() del paquete lmtest para realizar una prueba de causalidad de Granger. La sintaxis es la siguiente:

-grangertest(Y ~ X, order = 1)

Donde: - \(X\): Primera serie temporal. - \(Y\): Segunda serie temporal dependiente. - order: Número de rezagos.

Pasos para implementar la prueba de Granger en R

Paso 1: Carga de datos: Para empezar con la realizacion de la prueba Granger, primero se hace la respectiva carga de datos.

Paso 2: Comprobacion de la estacionareidad: Para probar la estacionariedad utilizaremos dos pruebas fundamentales:

-Prueba aumentada de Dickey Fuller (ADF) para raíces unitarias. -Prueba KPSS para estacionariedad. -Para ello se puede hacer uso del paquete GAUSS para probar las raices unitarias, el cual contiene la libreia tsplib. Cargando esta libreia y haciendo uso del comando adf kpss obtendremos los resultados de la prueba.

Si los datos cumples con el requisito de estacionariedad se procede a realizar la prueba de Grange ; si los datos no cumplen con este requisito habra que transformar los datos utilizados.

Paso 3: Prueba de casualidad de Granger: Suponiendo que los datos cumplen con el requisito de estacionareidad procedemos a aplicarle a nuestra data la prueba de Granger.

Ae hara uso de la funcion grangertest() parq examinar si los valores sigen una casualidad de Granger, siuiendo el orden de kas variables: X, Y.

Esta prueba arrojara el valor del p_value que corresponde al estadistico de prueba f , y con este valor se decide si rechazar o no la hipotesis nula.

Paso 4: Prueba de casualidad de Granger a la inversa: Esto se hace porque es posible que se este produciendo una casualidad inversa. Se hace siguiendo el mismo prosedimiento solo que poniendo las variables estudiadas en diferente orden: Y, X.

Ejemplo en R

# Cargar librerías
library(lmtest)
## Loading required package: zoo
## 
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
## 
##     as.Date, as.Date.numeric
# Series simuladas
x <- cumsum(rnorm(100))
y <- 0.5 * lag(x, -1) + rnorm(100)

# Prueba de causalidad de Granger
granger_result <- grangertest(y ~ x, order = 1)

# Resultados
print(granger_result)
## Granger causality test
## 
## Model 1: y ~ Lags(y, 1:1) + Lags(x, 1:1)
## Model 2: y ~ Lags(y, 1:1)
##   Res.Df Df      F    Pr(>F)    
## 1     96                        
## 2     97 -1 54.444 5.727e-11 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Interpretación

El rechazo de \(H_0\) implica que \(X\) causa a \(Y\) en el sentido de Granger.

Bibliografía

Chamberlain, Gary. 1982. “The General Equivalence of Granger and Sims Causality.” Econometrica: Journal of the Econometric Society, 569–81.

Durlauf, Steven, and Lawrence Blume. 2016. Macroeconometrics and Time Series Analysis. Springer.

Gujarati, Damodar, and Dawn Porter. 2010. “Econometrı́a (Quinta Edición).” México: Editorial Mc. Graw Hill.

Mata, Humberto. 2004. “Nociones Elementales de Cointegración Enfoque de Soren Johansen.” Trabajo No Publicado. Http://Webdelprofesor. Ula. Ve/Economı́a.

Quintana, L, and MA Mendoza. 2016. “Econometrı́a Aplicada Utilizando r.” Distrito Federal, México: Universidad Nacional Autónoma de México.

Catalán, H. (n.d.). Modelos de vectores autorregresivos (VAR) y teoría de cointegración. Curso Internacional: Construcción de Escenarios Económicos y Econometría Avanzada.

Montero Granados, R. (2013). Variables no estacionarias y cointegración. Documentos de Trabajo en Economía Aplicada, Universidad de Granada, España.

Durlauf, S. N., & Blume, L. E. (Eds.). (2010). Macroeconometrics and Time Series Analysis. The New Palgrave Economics Collection. Palgrave Macmillan.