Laboratorio_3_MAE

Presentación



UNIVERSIDAD DE EL SALVADOR

FACULTAD DE CIENCIAS ECONOMICAS

ESCUELA DE ECONOMIA

Materia: Métodos para el Análisis Económico

Docente: Carlos Ademir Pérez Alas


“Laboratorio 3 - Cointegración y Causalidad.”

Integrantes:

Apellidos Nombres DUE Participación
Arias Monterroza Juan José AM19005 100%
Guerrero Martínez Linda Lisseth GM19074 100%
Palomo Portillo Jefferson Enrique PP19005 100%

Ciclo: II-2021

Fecha: Sábado 4 de diciembre de 2021

Ciudad Universitaria, San Salvador, El Salvador

Prueba de Raíz Unitaria de Dickey & Fuller

Propósito de la prueba

Llamada de esta forma por los estadísticos estadounidenses David Dickey y Wayne Fuller. Esta prueba de raíz única, detecta estadísticamente la presencia de conducta tendencial que estocástica en las series temporales de las variables a través de contrastar las hipótesis. Este contraste permite saber o conocer si existe presencia significativa de tendencia en las series temporales de las variables.

En otras palabras, la prueba se utiliza para determinar si una raíz unitaria se encuentra presente en un modelo autorregresivo.

Es importante destacar que, los mismos estadísticos ampliaron su prueba básica de raíz unitaria autorregresiva, para que pudiera adaptarse a modelos con mayor complejidad (Prueba Dickey-Fuller aumentada), que es la que prueba una raíz unitaria en una muestra de serie temporal.

Hipótesis de la prueba

Una variable simple autorregresiva tiene la forma \(x_t=\alpha\ x_{\left(t-1\right)}+\varepsilon_t\) Si sustraemos \(x_{\left(t-1\right)}\) de ambos lados el resultado es:

\[∆x_t=(α-1) x_(t-1)+ε_t\] La cual es la base de la prueba Dickey-Fuller, el cual es el modelo más simple para evaluar la presencia de raíz unitaria.

Como hipótesis nula se plantea la presencia de tendencia estocástica en las observaciones, para la hipótesis alternativa, se establece no tendencia estocástica en las observaciones.

\(H_o:\ \alpha=1;\ proceso\ no\ estacionario\) \(H_1:\ \alpha<1;proceso\ estacionario\)

Estadistico de Prueba

El estadístico de prueba es el estadístico t sobre la variable dependiente rezagada. Si \(\mathrm{\alpha>1\ }\) el coeficiente de la variable dependiente rezagada será positivo. Si \(\alpha\) es igual a la unidad, \((α-1)\). En ambos casos \(x_t\) será no estacionaria.

Cuando existe tendencia en una serie temporal en un modelo AR(1), el primer regresor tenderá a ser 1 o muy cercano a 1. Esto se debe a la propiedad de reversión a la media de un proceso estocástico estacionario, es decir, cuanto más cerca esté el primer coeficiente de un modelo AR(1) de 1, más tardarán las observaciones a volver al valor medio.

Criterio de Desición

\(H_o:\ \alpha=0\ \), Si no puede rechazarse la hipótesis nula, significa que (p-value > 0.05), por tanto la serie es no estacionaria y tiene raíz 1 (I(1)). La serie es Random walk = no estacionaria.

\(H_1:\ \alpha\neq0\), si se rechaza la nula (p-valor<0.05) la serie es estacionaria y tiene una raíz 0 (I(0)). La serie es White noise = estacionaria

Ejemplo Dickey-Fuller Simple

#Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca.

set.seed(10)
x = rnorm(100)
w = rnorm(100)
for (i in 2:100) {
x[i] <- x[i - 1] + w[i]
}
#Graficando:

plot(x,type="l")

#Analizando raíz unitaria

library(urca)
df = ur.df(x, type="none", lags = 0)
summary(df)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.31407 -0.86346  0.07963  0.66540  2.03542 
## 
## Coefficients:
##          Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.009083   0.031521  -0.288    0.774
## 
## Residual standard error: 0.9757 on 98 degrees of freedom
## Multiple R-squared:  0.0008466,  Adjusted R-squared:  -0.009349 
## F-statistic: 0.08304 on 1 and 98 DF,  p-value: 0.7738
## 
## 
## Value of test-statistic is: -0.2882 
## 
## Critical values for test statistics: 
##      1pct  5pct 10pct
## tau1 -2.6 -1.95 -1.61

Interpretación: El valor calculado “t-value” es de 0.288 (menor) en términos absolutos a lo valores del estadístico tau, se llega a la conclusión en favor de no rechazar hipótesis nula, por lo tanto, existe raíz unitaria y la serie no es estacionaria.

#Otra forma es haciendo uso de la función adf.test() de la librería tseries.

library(tseries)
adf.test(x,k=0)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  x
## Dickey-Fuller = -1.9334, Lag order = 0, p-value = 0.6042
## alternative hypothesis: stationary

Interpretación: Dado al valor de p-value = 0.6042, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.

Ejemplo Dickey Fuller Aumentada

La prueba ADF consiste en la estimación del siguiente modelo:

\[∆x_t= β_0+ β_1 t+δx_(t-1)+α_i ∑_(i=1)^m▒∆ x_(t-i)+ε_t\]

Por tanto, el contraste quedaría:

\(H_o:\ \delta=0\ \rightarrow\ \), Existe raíz unitaria, \(x_𝑡\) no es estacionaria.

\(H_1:\ \delta\neq0\ \rightarrow\ \) No existe raíz unitaria, \(x_t\) es estacionaria.

Para hacer la estimación de dicho test, se usan las mismas funciones que para el Dickey-Fuller simple, pero especificando en el número de rezagos igual a 1.

adf = ur.df(x, type="none", lags = 1)
summary(adf)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.25453 -0.90101  0.02681  0.70255  1.97744 
## 
## Coefficients:
##            Estimate Std. Error t value Pr(>|t|)
## z.lag.1    -0.01413    0.03282  -0.430    0.668
## z.diff.lag  0.06424    0.10583   0.607    0.545
## 
## Residual standard error: 0.983 on 96 degrees of freedom
## Multiple R-squared:  0.00467,    Adjusted R-squared:  -0.01607 
## F-statistic: 0.2252 on 2 and 96 DF,  p-value: 0.7988
## 
## 
## Value of test-statistic is: -0.4304 
## 
## Critical values for test statistics: 
##      1pct  5pct 10pct
## tau1 -2.6 -1.95 -1.61

Interpretación: Se puede observar que en ambos casos, se encuentra evidencia en favor de no rechazar la hipótesis nula y esto da razón de la existencia de raíz unitaria en la serie, por lo tanto, esta es no estacionaria. Dado al valor de p-value = 0.7988, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.

Cointegración en el Enfoque de Soren Johansen

Proposito de la Prueba

La metodología de Johansen se basa en la idea de que estimar el rango de nos da información sobre pi si hay cointegración y el número de estas relaciones de cointegración. Por definición, el rango de pi es el número máximo de vectores independientes dentro de esta matriz. Si tenemos tres variables endógenas, solo podemos tener tres vectores independientes y no más que eso. El rango podría ser cero o como máximo tres o en cualquier lugar de ese rango. Es decir, el rango no puede exceder el número de variables endógenas del sistema.

Dicho con sus palabras: «Para que haya cointegración, dos series integradas, o suaves, han de tener la propiedad de que una combinación lineal de ellas sea estacionaria. Muchos pares de series integradas no cumplen dicha propiedad y, consecuentemente, cuando ocurre, la cointegración debe ser considerada como una sorpresa».

En la mayoría de los casos, cuando las variables \(y_1,_t\) e \(y_2,_t\) son no estacionarias \(I(1)\) variables, una combinación lineal de estas variables también será no estacionaria. Sin embargo, en algunos casos la combinación lineal de estas variables puede ser estacionaria. Esto sucede cuando las variables comparten las mismas tendencias estocásticas, que se cancelan cuando se combinan. En estos casos, decimos que las variables están cointegradas.

Considere dos variables, \(y_1,_t\) e \(y_2,_t\), que están integrados de primer orden, \(I(1)\).

Al retroceder estas variables entre sí, podríamos reorganizar el modelo de regresión lineal, de modo que

\[u_t=y_1,_t-β_1y_2,_t\] Ahora si el término de error,\(u_t\) es estacionario \(I(0)\), entonces, por definición, la combinación Lineal \(y_1,_t−β_1y_2,_t\) también debe ser estacionario, ya que las propiedades del lado izquierdo deben ser iguales a las propiedades del lado derecho. Por lo tanto, mientras ambos \(y_1,_t,y_2,_t\) tienen tendencias estocásticas, decimos que las variables \(y_1,_t\) y \(y_2,_t\) están cointegrados, como la combinación lineal \(y_1,_t−β_1y_2,_t\) y tienen las mismas propiedades estadísticas que una \(I(0)\) variable.

Para probar la cointegración multivariante se puede usar el enforque de Johansen:

  • Enfoque multivariante: prueba de Johansen
    • Aplicable a sistemas de ecuaciones
    • Este método está basado en modelos VAR (Vectores autorregresivos)
    • Es un test de máxima verosimilitud que requiere grandes volúmenes de datos (100 ó más)
    • Prueba la existencia de múltiples vectores de cointegración entre las varibales, mediante la prueba de Traza y del Eigenvalue máximo
    • Descansa fuertemente en la relación entre el rango de la matriz y sus raíces caracteristicas

Hipotesis de la prueba Eigenvalor

Esta prueba está basada en la razón de máxima verosimilitud \(l\ n\left[\frac{L_{MV}\left(r\right)}{L_{MV}\left(r+1\right)}\right]\), y se efectua secuencialmente para

Hipotesis Nula: \[H_O=r=0,1,...,n-1\] No existe Cointegración

Hipotesis Alternativa: \[H_A=r=m+1\] Existe Cointegración

Sintaxis de Impletmentacion en R

En R, podemos usar la función ca.jo () de la libreria urca para realizar una prueba Cointegración, que tiene la siguiente sintaxis:

ca.jo(sjd, ecdet = “const,” type = “eigen,” K = 2, spec = “longrun,” season = 4)

dónde:

sjd: es la combinacion de las variables en un solo objeto

type: hace referencia al método que usaremos

El estadístico de prueba

\[l_{r+1}^*\ -\ l_r^*=\ -\frac{T}{2}\ ln\left(1-{\hat{\lambda}}_{r+1}\right)\ \] ## Criterio de Decision

Se rechaza la Hipótesis Nula si el nivel de significancia es mayor al Estadistico de Prueba

Interpretacion del Rechazo o no rechazo

Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.

Hipotesis de la prueba de traza

Esta prueba se basa en la razón de máxima verosimilitud \(l\ n\left[\frac{L_{MV}\left(r\right)}{L_{MV}\left(n\right)}\right]\) y es efectuada secuencialmente para

Hipotesis

\(H_O:r=0\) No existe Cointegración

\(H_A:r=m\) Existe Cointegración

Esta prueba comprueba la hipótesis nula de que el rango de cointegración es r frente a la alternativa que el rango de cointegración es n. 

El estadístico de prueba

\[l_A^\ast\ -\ l_0^\ast=\ -\frac{T}{2}\ \sum_{i=r+1}^{n}{log\ \left(1-{\hat{\lambda}}_i\right)\ }\]

Sintaxis de Impletmentacion en R

En R, podemos usar la función ca.jo () de la libreria urca para realizar una prueba Cointegración, que tiene la siguiente sintaxis:

ca.jo(sjd, ecdet = “const,” type = “trace,” K = 2, spec = “longrun,” season = 4)

dónde:

sjd: es la combinacion de las variables en un solo objeto

type: hace referencia al método que usaremos

El estadístico de prueba

\[l_{r+1}^*\ -\ l_r^*=\ -\frac{T}{2}\ ln\left(1-{\hat{\lambda}}_{r+1}\right)\ \]

Criterio de Decision

Se rechaza la Hipótesis Nula si el nivel de significancia es mayor al Estadistico de Prueba

Interpretacion del Rechazo o no rechazo

Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.

Ejemplos

# Libreria necesaria para realizar las pruebas
library(urca)
# Se juntan las variables en un solo objeto
data(denmark)
sjd <- denmark[, c("LRM", "LRY", "IBO", "IDE")]
#Se ejecuta la prueba de eigenvalue
sjd.vecm <-
  ca.jo(
    sjd,
    ecdet = "const",
    type = "eigen",
    K = 2,
    spec = "longrun",
    season = 4
  )
summary(sjd.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration 
## 
## Eigenvalues (lambda):
## [1] 4.331654e-01 1.775836e-01 1.127905e-01 4.341130e-02 6.927550e-16
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  2.35  7.52  9.24 12.97
## r <= 2 |  6.34 13.75 15.67 20.20
## r <= 1 | 10.36 19.77 22.00 26.81
## r = 0  | 30.09 25.56 28.14 33.24
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##             LRM.l2     LRY.l2     IBO.l2     IDE.l2   constant
## LRM.l2    1.000000  1.0000000  1.0000000   1.000000  1.0000000
## LRY.l2   -1.032949 -1.3681031 -3.2266580  -1.883625 -0.6336946
## IBO.l2    5.206919  0.2429825  0.5382847  24.399487  1.6965828
## IDE.l2   -4.215879  6.8411103 -5.6473903 -14.298037 -1.8951589
## constant -6.059932 -4.2708474  7.8963696  -2.263224 -8.0330127
## 
## Weights W:
## (This is the loading matrix)
## 
##            LRM.l2      LRY.l2       IBO.l2        IDE.l2      constant
## LRM.d -0.21295494 -0.00481498  0.035011128  2.028908e-03 -1.726523e-13
## LRY.d  0.11502204  0.01975028  0.049938460  1.108654e-03  9.428195e-14
## IBO.d  0.02317724 -0.01059605  0.003480357 -1.573742e-03  4.143714e-14
## IDE.d  0.02941109 -0.03022917 -0.002811506 -4.767627e-05  7.781415e-14

Interpretacion: al realizar la prueba para la primera hipotesis r=0 se rechaza la hipotesis nula de cointegración debido a que el estadistico de prueba (30.09) es mayor que los valores criticos del 10%, 5% y 1%; es decir que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, r <= 1, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.

Solo existe un Vector de Cointegración.

# Se juntan las variables en un solo objeto
data(finland)
sjf <- finland
#Se ejecuta la prueba de traza
sjf.vecm <- ca.jo(
  sjf,
  ecdet = "none",
  type = "trace",
  K = 2,
  spec = "longrun",
  season = 4
)
summary(sjf.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: trace statistic , with linear trend 
## 
## Eigenvalues (lambda):
## [1] 0.30932660 0.22599561 0.07308056 0.02946699
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  3.11  6.50  8.18 11.65
## r <= 2 | 11.00 15.66 17.95 23.52
## r <= 1 | 37.65 28.71 31.52 37.22
## r = 0  | 76.13 45.23 48.28 55.43
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##            lrm1.l2    lny.l2    lnmr.l2    difp.l2
## lrm1.l2  1.0000000  1.000000  1.0000000   1.000000
## lny.l2  -0.9763252 -1.323191 -0.9199865   1.608739
## lnmr.l2 -7.0910749 -2.016033  0.2691516  -1.375342
## difp.l2 -7.0191097 22.740851 -1.8223931 -15.686927
## 
## Weights W:
## (This is the loading matrix)
## 
##            lrm1.l2       lny.l2      lnmr.l2      difp.l2
## lrm1.d 0.033342108 -0.020280528 -0.129947614 -0.002561906
## lny.d  0.022544782 -0.005717446  0.012949130 -0.006265406
## lnmr.d 0.053505000  0.046876449 -0.007367715  0.002173242
## difp.d 0.005554849 -0.017353903  0.014561151  0.001531004

Interpretacion: al realizar la prueba para las hipotesis r=0 y r=1 se rechaza la hipotesis nula de cointegración debido a que los estadisticos de prueba ( 76.13, 37.65) es mayor que los valores criticos del 10%, 5% y 1%; es decir que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.

La prueba de traza nos da evidencia que existen dos Vectores de Cointegración.

Causalidad en el Sentido de Granger

Proposito de la Prueba

Es un test consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal X predice la conducta de una serie temporal Y. Si ocurre el hecho, se dice que “el resultado X” causa en el sentido de Granger “el resultado Y”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado Y” predice “el resultado X,” el comportamiento es bidireccional, entonces “el resultado X” causa “el resultado Y,” y “el resultado Y” causa “el resultado X.”

Cuando un serie temporal X causa otra Y, los modelos de Y en los que se emplean datos retrasados de X e Y deben funcionar mejor que los basados únicamente en datos retrasados de Y. Permitiendo identificar en series temporales en las que se observa una correlación que variable antecede a la otra. El concepto de causalidad que mide el test de Granger se puede relacionar con el concepto de causa-efecto, aunque no es lo mismo. El test solamente identifica si una variable antecede a otra en una serie temporal. Lo que la convierte en una buena predictora para la serie temporal. Es decir, si en unos datos se observa causalidad de Granger, no existe necesariamente un vínculo causal en el verdadero sentido de la palabra. (Rodriguez, 2019)

Granger Plantea dos ecuaciones:

\[X_t=\alpha_0+\alpha_1X_{t-1}+\alpha_2X_{t-2}+\ldots+\alpha_iX_{t-i}+\beta_1Y_{t-1}+\beta_2Y_{t-2}+\ldots+\beta_iY_{t-i}+U_{1t}\] \[Y_t=\delta_0+\delta_1X_{t-1}+\delta_2X_{t-2}+\ldots+\delta_iX_{t-i}+\theta_1Y_{t-1}+\theta_2Y_{t-2}+\ldots+\theta_iY_{t-i}+U_{2t}\]

Las variables x y y deben ser estacionarias. Entonces, para probar que x no está Granger causando a y, se debe examinar si los valores rezagados de x en la regresión de y sobre los valores rezagados de x e y reduce significativamente el error de varianza.

Asúmase que se tiene un proceso autorregresivo de orden p, tanto en x como en y.

Para poder usar los métodos de mínimos cuadrados ordinarios (MCO), la siguiente ecuación debe ser estimada:

\[X_t=\alpha_0+\alpha_1X_{t-1}+\alpha_2X_{t-2}+\ldots+\alpha_iX_{t-i}+\beta_1Y_{t-1}+\beta_2Y_{t-2}+\ldots+\beta_iY_{t-i}+U_{1t}\]

Usualmente esta ecuación recibe el nombre de regresión no restringida.

La ecuacion anterior es un modelo que plantea que la variable Y causa en el sentido de Granger a la variable X

Hipotesis

Esta prueba genera una estadística de prueba F junto con un valor p.

La Hipotesis Nula

Si la serie de tiempo Y no causa en el sentido de granger a la serie de tiempo X, entonces \(\ \beta_1,\ \beta_2,\beta_i\) serán cero:

\[H_0:\ \beta_1=\beta_2=\ldots=\beta_i=0\]

La hipótesis alternativa

Si la serie de tiempo Y causa en el sentido de granger a la serie de tiempo X, entonces \(\ \beta_1,\ \beta_2,\beta_i\) serán distintos de cero:

\[H_1:\ \beta_1\neq\beta_2=\ldots\neq\beta_i\neq0\]

Sintaxis de Implementacion en R

En R, podemos usar la función grangertest () del paquete lmtest para realizar una prueba Granger-Causality, que tiene la siguiente sintaxis:

\(grangertest( X, Y, orden = 1 )\)

dónde:

X: Esta es la primera serie temporal.

Y: el segundo conjunto de la serie temporal

orden: en la primera serie de tiempo, el número de retrasos a utilizar. El valor predeterminado es 1.

Estadistico de Prueba

Una forma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresión no restringida (URSS, por sus siglas en inglés),

\[URSS\ =\ \sum_{t=1}^{n}{\hat{u}}_t^2\] y compararla con la suma de residuales al cuadrado de una autorregresión univariada no restringida para X_t , (RRSS, por sus siglas en inglés)

\[RRSS\ =\ \sum_{t=1}^{n}{\hat{e}}_t^2\]

que surge de la ecuacion

\(X_t=\gamma_0+\gamma_1X_{t-1}+\gamma_2X_{t-2}+\ldots+\gamma_iX_{t-i}+e_t\)

Usualmente la ecuación recibe el nombre de regresión restringida.

El Estadístico de prueba es el siguiente

\[F\equiv\frac{(RRSS-URSS/m)\ }{URSS/(n-k)}\]

Donde los grados de libertad son m : es el numero de términos rezagados de Y, y k es el número de parámetros estimados en la regresión no restringida.

La prueba de causalidad en el sentido de Granger se calcula con la función grangertest() en R. En la presentacion de resultados el Estadistico de Prueba tiene la notacion F

Criterio de Decision

Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico

\[Rechazar\ Ho\ si\ F>\ F(i,\ n-k)\] En la salida o presentacion de resultados de la prueba de causalidad de Granger en R no se presenta el valor critico, pero si el valor-p. El criterio de decision utilizando el valor-p es:

\[Rechazar\ Ho\ si\ valor\ p <\alpha\] El valor-p en la salida tiene la notacion Pr(>F)

Interpretacion del Rechazo o no rechazo

Si se rechaza Ho, existe evidencia suficiente para decir que La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger.

Implementacion de un Ejemplo:

Cargamos los Datos

Data_Eu <- EuStockMarkets[,1:2]

Prueba de Causalidad en el Sentido de Granger

A continuación, usaremos la función grangertest() para ejecutar una prueba de Causalidad de Granger para examinar si los valores de SMI predicen los valores de DAX en el futuro. Realizaremos la prueba con tres rezagos diferentes

library(lmtest)

### Guardamos la Prueba en un objeto para acceder a los resultados
granger_test <- grangertest(DAX~SMI,order=3,data = Data_Eu)
print(granger_test)
## Granger causality test
## 
## Model 1: DAX ~ Lags(DAX, 1:3) + Lags(SMI, 1:3)
## Model 2: DAX ~ Lags(DAX, 1:3)
##   Res.Df Df      F    Pr(>F)    
## 1   1850                        
## 2   1853 -3 8.4968 1.322e-05 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El estadístico de prueba F se denota con la letra F y es igual a 8.4968 y el valor p que corresponde al estadístico de prueba F es Pr (> F) 1.322e-05.

Podemos rechazar la hipótesis nula de la prueba porque el valor p es menor que 0.05. Existe evidencia estadistica de que La serie de tiempo SMI causa la serie de tiempo DAX a la propia causa de Granger. Esto significa que conocer los valores de SMI es valioso para pronosticar los valores futuros de DAX.

Prueba de Causalidad en el Sentido de Granger a la inversa

Vamos a ejecutar la misma prueba pero esta vez examinaremos si los valores de DAX predicen los valores de SMI en el futuro. Realizaremos la prueba con tres rezagos diferentes

library(lmtest)

### Guardamos la Prueba en un objeto para acceder a los resultados
granger_test <- grangertest(SMI~DAX,order=3,data = Data_Eu)
print(granger_test)
## Granger causality test
## 
## Model 1: SMI ~ Lags(SMI, 1:3) + Lags(DAX, 1:3)
## Model 2: SMI ~ Lags(SMI, 1:3)
##   Res.Df Df      F  Pr(>F)  
## 1   1850                    
## 2   1853 -3 2.6576 0.04689 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El estadístico de prueba F es igual a 2.6576 y el valor p que corresponde al estadístico de prueba F es Pr (> F) 0.04689.

Podemos rechazar la hipótesis nula de la prueba porque el valor p es apenas menor que 0.05. Existe evidencia estadistica de que La serie de tiempo DAX causa la serie de tiempo SMI a la propia causa de Granger. Esto significa que conocer los valores de DAX es valioso para pronosticar los valores futuros de SMI.

Causalidad en el Sentido de Sims

Propósito de la Prueba

Es una extensión de la prueba de causalidad de Granger.

Sims enfatiza bastante que el futuro no puede causar el presente. Para decidir si una variable Y causa una variable X, Sims propone estimar el siguiente par de ecuaciones:

\[Y_{t\ }=\alpha_1+\sum_{i=1}^{i=n}{\beta_iX_{t-i}}+\sum_{i=1}^{i=m}{\gamma_iY_{t-i}}\ +\ \sum_{i=1}^{i=p}{\lambda_iX_{t+i}}\]

\[X_{t\ }=\alpha_1+\sum_{i=1}^{i=n}{\delta_iX_{t-i}}+\sum_{i=1}^{i=m}{\theta_iY_{t-i}}\ +\ \sum_{i=1}^{i=p}{\omega_iY_{t+i}}\]

Sims incorpora al análisis de causalidad los términos futuros. Podemos observar que en el planteamiento anterior encontramos términos rezagados \(X_{t-i},\ Y_{t-i}\), los términos actuales \(X_{t\ },\ Y_{t\ }\) y los términos futuros o adelantados \(X_{t+i},\ Y_{t+i}\).

Hipótesis de la Prueba

Tomando la siguiente Ecuacion:

\[Y_{t\ }=\alpha_1+\sum_{i=1}^{i=n}{\beta_iX_{t-i}}+\sum_{i=1}^{i=m}{\gamma_iY_{t-i}}\ +\ \sum_{i=1}^{i=p}{\lambda_iX_{t+i}}\]

Si Y es causa según Granger de X, debe haber alguna relación entre Y y los valores adelantados, o futuros, de X. Por tanto, en lugar de probar que \(\sum_{i=1}^{i=n}\beta_i=0\), debemos probar que \(\sum_{i=1}^{i=n}\lambda_i=0\).

La Hipótesis Nula

Si la serie de tiempo Y no causa en el sentido de Granger a la serie de tiempo X (no existe relación entre los valores de Y y los valores futuros de X), entonces \(\ \lambda_1,\ \lambda_2,\lambda_i\) serán cero.

\[H_0:\ \lambda_1=\lambda_2=\ldots=\lambda_i=0\]

La hipótesis alternativa

Si la serie de tiempo Y causa en el sentido de Granger a la serie de tiempo X (existe relación entre los valores de Y y los valores futuros de X), entonces \(\ \lambda_1,\ \lambda_2,\lambda_i\) serán distintos de cero

\[H_1:\ \lambda_1\neq\lambda_2=\ldots\neq\lambda_i\neq0\]

Sintaxis de Implementacion en R

No hay una libreria en R que integre la prueba de Sims, pero se puede crear funciones paso por paso para desarrollarla. Omitiremos la Prueba de Causalidad de Sims

Estadistico de Prueba

El Estadístico de prueba es el mismo que se utiliza en la Prueba de Causalidad en el Sentido de Granger

\[F\equiv\frac{(RRSS-URSS/p)\ }{URSS/(n-k)}\]

Criterio de Decision

Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico

\[Rechazar\ Ho\ si\ F>\ F(i,\ n-k)\] El criterio de decision utilizando el valor-p es:

\[Rechazar\ Ho\ si\ valor\ p <\alpha\]

Interpretacion del Rechazo o No Rechazo

Si NO se Rechaza la Hipotesis Nula

La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger. Es decir, no hay evidencia de una relación entre la serie Y y los valores adelantados o futuros de la serie X.

Si se Rechaza la Hipotesis Nula

La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger. Es decir, hay evidencia de una relación entre la serie Y y los valores adelantados o futuros de la serie X.

Si rechazamos \(Ho\ \), la causalidad va de Y a X, y no de X a Y, porque el futuro no puede causar el presente. Los mismos comentarios aplican a la segunda ecuación.

Implementacion de un Ejemplo

No hay una libreria en R que integre la prueba de Sims, pero se puede crear funciones paso por paso para desarrollarla. Omitiremos la Prueba de Causalidad de Sims

BIBLIOGRAFIA

Caballero, Carlos Vladimir Rodrı́guez. n.d. “Ensayos Sobre La Granger Causalidad.”
Chamberlain, Gary. 1982. “The General Equivalence of Granger and Sims Causality.” Econometrica: Journal of the Econometric Society, 569–81.
Chung, Victor. 2021. “Modelos VEC En r.” 2021. https://rstudio-pubs-static.s3.amazonaws.com/189106_a4b4ea3e4c9747ef9a7a28eba1137d6c.html.
Gujarati, Damodar, and Dawn Porter. 2010. “Econometrı́a (Quinta Edición).” México: Editorial Mc. Graw Hill.
Hothorn, Torsten, Achim Zeileis, Richard W. Farebrother, and Clint Cummins. 2021. Lmtest: Testing Linear Regression Models. https://CRAN.R-project.org/package=lmtest.
Mata, Humberto. 2004. “Nociones Elementales de Cointegración Enfoque de Soren Johansen.” Trabajo No Publicado. Http://Webdelprofesor. Ula. Ve/Economı́a.
Montero, Roberto. 2013. “Variables No Estacionarias y Cointegración.” Documentos de Trabajo En Economı́a Aplicada. España: Universidad de Granada.
Pañeda, Cándido. 2009. “Granger: Casualidad, Causalidad y Cointegración.” La Nueva España.
Pfaff, B. 2008. Analysis of Integrated and Cointegrated Time Series with r. Second. New York: Springer. http://www.pfaffikus.de.
Pfaff, Bernhard. 2016. Urca: Unit Root and Cointegration Tests for Time Series Data. https://CRAN.R-project.org/package=urca.
R Core Team. 2021. R: A Language and Environment for Statistical Computing. Vienna, Austria: R Foundation for Statistical Computing. https://www.R-project.org/.
R-bloggers. 2021. “Prueba de Causalidad de Granger En r (Con Ejemplo).” R-Bloggers.
Robinson, Mahadeva, and L Mahadeva. 2009. “Prueba de Raı́z Unitaria Para Ayudar a La Construccion de Un Modelo-Ensayo 76.” Centro de Estudios Monetarios Latinoamericanos-Asociacion Regional de Bancos Centrales: Https://Www. Cemla. Org/PDF/Ensayos/Pub-En-76. Pdf.
Rodo, Paula. 2019. “Contraste de Dickey-Fuller.” 2019. https://economipedia.com/definiciones/contraste-de-dickey-fuller.html.
Rodriguez, Daniel. 2019. “Test de Causalidad de Wiener-Granger.” Trabajo Publicado. Https://Www.analyticslane.com/2019/11/18/Test-de-Causalidad-de-Wiener-Granger/.
Sandoval, Wilson. 2021. “Vec-Cointegracion.” 2021. https://rpubs.com/wilsonsr/828582.
Trapletti, Adrian, and Kurt Hornik. 2021. Tseries: Time Series Analysis and Computational Finance. https://CRAN.R-project.org/package=tseries.
Zeileis, Achim, and Torsten Hothorn. 2002. “Diagnostic Checking in Regression Relationships.” R News 2 (3): 7–10. https://CRAN.R-project.org/doc/Rnews/.