Laboratorio_3_MAE
Presentación
UNIVERSIDAD DE EL SALVADOR
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE ECONOMIA

Materia: Métodos para el Análisis Económico
Docente: Carlos Ademir Pérez Alas
“Laboratorio 3 - Cointegración y Causalidad.”
Integrantes:
Apellidos
Nombres
DUE
Participación
Arias Monterroza
Juan José
AM19005
100%
Guerrero Martínez
Linda Lisseth
GM19074
100%
Palomo Portillo
Jefferson Enrique
PP19005
100%
Ciclo: II-2021
Fecha: Sábado 4 de diciembre de 2021
Ciudad Universitaria, San Salvador, El Salvador
UNIVERSIDAD DE EL SALVADOR
FACULTAD DE CIENCIAS ECONOMICAS
ESCUELA DE ECONOMIA
Materia: Métodos para el Análisis Económico
Docente: Carlos Ademir Pérez Alas
“Laboratorio 3 - Cointegración y Causalidad.”
Integrantes:
| Apellidos | Nombres | DUE | Participación |
|---|---|---|---|
| Arias Monterroza | Juan José | AM19005 | 100% |
| Guerrero Martínez | Linda Lisseth | GM19074 | 100% |
| Palomo Portillo | Jefferson Enrique | PP19005 | 100% |
Ciclo: II-2021
Fecha: Sábado 4 de diciembre de 2021
Ciudad Universitaria, San Salvador, El Salvador
Prueba de Raíz Unitaria de Dickey & Fuller
Propósito de la prueba
Llamada de esta forma por los estadísticos estadounidenses David Dickey y Wayne Fuller. Esta prueba de raíz única, detecta estadísticamente la presencia de conducta tendencial que estocástica en las series temporales de las variables a través de contrastar las hipótesis. Este contraste permite saber o conocer si existe presencia significativa de tendencia en las series temporales de las variables.
En otras palabras, la prueba se utiliza para determinar si una raíz unitaria se encuentra presente en un modelo autorregresivo.
Es importante destacar que, los mismos estadísticos ampliaron su prueba básica de raíz unitaria autorregresiva, para que pudiera adaptarse a modelos con mayor complejidad (Prueba Dickey-Fuller aumentada), que es la que prueba una raíz unitaria en una muestra de serie temporal.
Hipótesis de la prueba
Una variable simple autorregresiva tiene la forma \(x_t=\alpha\ x_{\left(t-1\right)}+\varepsilon_t\) Si sustraemos \(x_{\left(t-1\right)}\) de ambos lados el resultado es:
\[∆x_t=(α-1) x_(t-1)+ε_t\] La cual es la base de la prueba Dickey-Fuller, el cual es el modelo más simple para evaluar la presencia de raíz unitaria.
Como hipótesis nula se plantea la presencia de tendencia estocástica en las observaciones, para la hipótesis alternativa, se establece no tendencia estocástica en las observaciones.
\(H_o:\ \alpha=1;\ proceso\ no\ estacionario\) \(H_1:\ \alpha<1;proceso\ estacionario\)
Estadistico de Prueba
El estadístico de prueba es el estadístico t sobre la variable dependiente rezagada. Si \(\mathrm{\alpha>1\ }\) el coeficiente de la variable dependiente rezagada será positivo. Si \(\alpha\) es igual a la unidad, \((α-1)\). En ambos casos \(x_t\) será no estacionaria.
Cuando existe tendencia en una serie temporal en un modelo AR(1), el primer regresor tenderá a ser 1 o muy cercano a 1. Esto se debe a la propiedad de reversión a la media de un proceso estocástico estacionario, es decir, cuanto más cerca esté el primer coeficiente de un modelo AR(1) de 1, más tardarán las observaciones a volver al valor medio.
Criterio de Desición
\(H_o:\ \alpha=0\ \), Si no puede rechazarse la hipótesis nula, significa que (p-value > 0.05), por tanto la serie es no estacionaria y tiene raíz 1 (I(1)). La serie es Random walk = no estacionaria.
\(H_1:\ \alpha\neq0\), si se rechaza la nula (p-valor<0.05) la serie es estacionaria y tiene una raíz 0 (I(0)). La serie es White noise = estacionaria
Ejemplo Dickey-Fuller Simple
#Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca.
set.seed(10)
x = rnorm(100)
w = rnorm(100)
for (i in 2:100) {
x[i] <- x[i - 1] + w[i]
}#Graficando:
plot(x,type="l")#Analizando raíz unitaria
library(urca)
df = ur.df(x, type="none", lags = 0)
summary(df)##
## ###############################################
## # Augmented Dickey-Fuller Test Unit Root Test #
## ###############################################
##
## Test regression none
##
##
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2.31407 -0.86346 0.07963 0.66540 2.03542
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.009083 0.031521 -0.288 0.774
##
## Residual standard error: 0.9757 on 98 degrees of freedom
## Multiple R-squared: 0.0008466, Adjusted R-squared: -0.009349
## F-statistic: 0.08304 on 1 and 98 DF, p-value: 0.7738
##
##
## Value of test-statistic is: -0.2882
##
## Critical values for test statistics:
## 1pct 5pct 10pct
## tau1 -2.6 -1.95 -1.61
Interpretación: El valor calculado “t-value” es de 0.288 (menor) en términos absolutos a lo valores del estadístico tau, se llega a la conclusión en favor de no rechazar hipótesis nula, por lo tanto, existe raíz unitaria y la serie no es estacionaria.
#Otra forma es haciendo uso de la función adf.test() de la librería tseries.
library(tseries)
adf.test(x,k=0)##
## Augmented Dickey-Fuller Test
##
## data: x
## Dickey-Fuller = -1.9334, Lag order = 0, p-value = 0.6042
## alternative hypothesis: stationary
Interpretación: Dado al valor de p-value = 0.6042, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.
Ejemplo Dickey Fuller Aumentada
La prueba ADF consiste en la estimación del siguiente modelo:
\[∆x_t= β_0+ β_1 t+δx_(t-1)+α_i ∑_(i=1)^m▒∆ x_(t-i)+ε_t\]
Por tanto, el contraste quedaría:
\(H_o:\ \delta=0\ \rightarrow\ \), Existe raíz unitaria, \(x_𝑡\) no es estacionaria.
\(H_1:\ \delta\neq0\ \rightarrow\ \) No existe raíz unitaria, \(x_t\) es estacionaria.
Para hacer la estimación de dicho test, se usan las mismas funciones que para el Dickey-Fuller simple, pero especificando en el número de rezagos igual a 1.
adf = ur.df(x, type="none", lags = 1)
summary(adf)##
## ###############################################
## # Augmented Dickey-Fuller Test Unit Root Test #
## ###############################################
##
## Test regression none
##
##
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2.25453 -0.90101 0.02681 0.70255 1.97744
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.01413 0.03282 -0.430 0.668
## z.diff.lag 0.06424 0.10583 0.607 0.545
##
## Residual standard error: 0.983 on 96 degrees of freedom
## Multiple R-squared: 0.00467, Adjusted R-squared: -0.01607
## F-statistic: 0.2252 on 2 and 96 DF, p-value: 0.7988
##
##
## Value of test-statistic is: -0.4304
##
## Critical values for test statistics:
## 1pct 5pct 10pct
## tau1 -2.6 -1.95 -1.61
Interpretación: Se puede observar que en ambos casos, se encuentra evidencia en favor de no rechazar la hipótesis nula y esto da razón de la existencia de raíz unitaria en la serie, por lo tanto, esta es no estacionaria. Dado al valor de p-value = 0.7988, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.
Cointegración en el Enfoque de Soren Johansen
Proposito de la Prueba
La metodología de Johansen se basa en la idea de que estimar el rango de nos da información sobre pi si hay cointegración y el número de estas relaciones de cointegración. Por definición, el rango de pi es el número máximo de vectores independientes dentro de esta matriz. Si tenemos tres variables endógenas, solo podemos tener tres vectores independientes y no más que eso. El rango podría ser cero o como máximo tres o en cualquier lugar de ese rango. Es decir, el rango no puede exceder el número de variables endógenas del sistema.
Dicho con sus palabras: «Para que haya cointegración, dos series integradas, o suaves, han de tener la propiedad de que una combinación lineal de ellas sea estacionaria. Muchos pares de series integradas no cumplen dicha propiedad y, consecuentemente, cuando ocurre, la cointegración debe ser considerada como una sorpresa».
En la mayoría de los casos, cuando las variables \(y_1,_t\) e \(y_2,_t\) son no estacionarias \(I(1)\) variables, una combinación lineal de estas variables también será no estacionaria. Sin embargo, en algunos casos la combinación lineal de estas variables puede ser estacionaria. Esto sucede cuando las variables comparten las mismas tendencias estocásticas, que se cancelan cuando se combinan. En estos casos, decimos que las variables están cointegradas.
Considere dos variables, \(y_1,_t\) e \(y_2,_t\), que están integrados de primer orden, \(I(1)\).
Al retroceder estas variables entre sí, podríamos reorganizar el modelo de regresión lineal, de modo que
\[u_t=y_1,_t-β_1y_2,_t\] Ahora si el término de error,\(u_t\) es estacionario \(I(0)\), entonces, por definición, la combinación Lineal \(y_1,_t−β_1y_2,_t\) también debe ser estacionario, ya que las propiedades del lado izquierdo deben ser iguales a las propiedades del lado derecho. Por lo tanto, mientras ambos \(y_1,_t,y_2,_t\) tienen tendencias estocásticas, decimos que las variables \(y_1,_t\) y \(y_2,_t\) están cointegrados, como la combinación lineal \(y_1,_t−β_1y_2,_t\) y tienen las mismas propiedades estadísticas que una \(I(0)\) variable.
Para probar la cointegración multivariante se puede usar el enforque de Johansen:
- Enfoque multivariante: prueba de Johansen
- Aplicable a sistemas de ecuaciones
- Este método está basado en modelos VAR (Vectores autorregresivos)
- Es un test de máxima verosimilitud que requiere grandes volúmenes de datos (100 ó más)
- Prueba la existencia de múltiples vectores de cointegración entre las varibales, mediante la prueba de Traza y del Eigenvalue máximo
- Descansa fuertemente en la relación entre el rango de la matriz y sus raíces caracteristicas
Hipotesis de la prueba Eigenvalor
Esta prueba está basada en la razón de máxima verosimilitud \(l\ n\left[\frac{L_{MV}\left(r\right)}{L_{MV}\left(r+1\right)}\right]\), y se efectua secuencialmente para
Hipotesis Nula: \[H_O=r=0,1,...,n-1\] No existe Cointegración
Hipotesis Alternativa: \[H_A=r=m+1\] Existe Cointegración
Sintaxis de Impletmentacion en R
En R, podemos usar la función ca.jo () de la libreria urca para realizar una prueba Cointegración, que tiene la siguiente sintaxis:
ca.jo(sjd, ecdet = “const,” type = “eigen,” K = 2, spec = “longrun,” season = 4)
dónde:
sjd: es la combinacion de las variables en un solo objeto
type: hace referencia al método que usaremos
El estadístico de prueba
\[l_{r+1}^*\ -\ l_r^*=\ -\frac{T}{2}\ ln\left(1-{\hat{\lambda}}_{r+1}\right)\ \] ## Criterio de Decision
Se rechaza la Hipótesis Nula si el nivel de significancia es mayor al Estadistico de Prueba
Interpretacion del Rechazo o no rechazo
Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.
Hipotesis de la prueba de traza
Esta prueba se basa en la razón de máxima verosimilitud \(l\ n\left[\frac{L_{MV}\left(r\right)}{L_{MV}\left(n\right)}\right]\) y es efectuada secuencialmente para
Hipotesis
\(H_O:r=0\) No existe Cointegración
\(H_A:r=m\) Existe Cointegración
Esta prueba comprueba la hipótesis nula de que el rango de cointegración es r frente a la alternativa que el rango de cointegración es n.
El estadístico de prueba
\[l_A^\ast\ -\ l_0^\ast=\ -\frac{T}{2}\ \sum_{i=r+1}^{n}{log\ \left(1-{\hat{\lambda}}_i\right)\ }\]
Sintaxis de Impletmentacion en R
En R, podemos usar la función ca.jo () de la libreria urca para realizar una prueba Cointegración, que tiene la siguiente sintaxis:
ca.jo(sjd, ecdet = “const,” type = “trace,” K = 2, spec = “longrun,” season = 4)
dónde:
sjd: es la combinacion de las variables en un solo objeto
type: hace referencia al método que usaremos
El estadístico de prueba
\[l_{r+1}^*\ -\ l_r^*=\ -\frac{T}{2}\ ln\left(1-{\hat{\lambda}}_{r+1}\right)\ \]
Criterio de Decision
Se rechaza la Hipótesis Nula si el nivel de significancia es mayor al Estadistico de Prueba
Interpretacion del Rechazo o no rechazo
Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.
Ejemplos
# Libreria necesaria para realizar las pruebas
library(urca)# Se juntan las variables en un solo objeto
data(denmark)
sjd <- denmark[, c("LRM", "LRY", "IBO", "IDE")]
#Se ejecuta la prueba de eigenvalue
sjd.vecm <-
ca.jo(
sjd,
ecdet = "const",
type = "eigen",
K = 2,
spec = "longrun",
season = 4
)
summary(sjd.vecm)##
## ######################
## # Johansen-Procedure #
## ######################
##
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration
##
## Eigenvalues (lambda):
## [1] 4.331654e-01 1.775836e-01 1.127905e-01 4.341130e-02 6.927550e-16
##
## Values of teststatistic and critical values of test:
##
## test 10pct 5pct 1pct
## r <= 3 | 2.35 7.52 9.24 12.97
## r <= 2 | 6.34 13.75 15.67 20.20
## r <= 1 | 10.36 19.77 22.00 26.81
## r = 0 | 30.09 25.56 28.14 33.24
##
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
##
## LRM.l2 LRY.l2 IBO.l2 IDE.l2 constant
## LRM.l2 1.000000 1.0000000 1.0000000 1.000000 1.0000000
## LRY.l2 -1.032949 -1.3681031 -3.2266580 -1.883625 -0.6336946
## IBO.l2 5.206919 0.2429825 0.5382847 24.399487 1.6965828
## IDE.l2 -4.215879 6.8411103 -5.6473903 -14.298037 -1.8951589
## constant -6.059932 -4.2708474 7.8963696 -2.263224 -8.0330127
##
## Weights W:
## (This is the loading matrix)
##
## LRM.l2 LRY.l2 IBO.l2 IDE.l2 constant
## LRM.d -0.21295494 -0.00481498 0.035011128 2.028908e-03 -1.726523e-13
## LRY.d 0.11502204 0.01975028 0.049938460 1.108654e-03 9.428195e-14
## IBO.d 0.02317724 -0.01059605 0.003480357 -1.573742e-03 4.143714e-14
## IDE.d 0.02941109 -0.03022917 -0.002811506 -4.767627e-05 7.781415e-14
Interpretacion: al realizar la prueba para la primera hipotesis r=0 se rechaza la hipotesis nula de cointegración debido a que el estadistico de prueba (30.09) es mayor que los valores criticos del 10%, 5% y 1%; es decir que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, r <= 1, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.
Solo existe un Vector de Cointegración.
# Se juntan las variables en un solo objeto
data(finland)
sjf <- finland
#Se ejecuta la prueba de traza
sjf.vecm <- ca.jo(
sjf,
ecdet = "none",
type = "trace",
K = 2,
spec = "longrun",
season = 4
)
summary(sjf.vecm)##
## ######################
## # Johansen-Procedure #
## ######################
##
## Test type: trace statistic , with linear trend
##
## Eigenvalues (lambda):
## [1] 0.30932660 0.22599561 0.07308056 0.02946699
##
## Values of teststatistic and critical values of test:
##
## test 10pct 5pct 1pct
## r <= 3 | 3.11 6.50 8.18 11.65
## r <= 2 | 11.00 15.66 17.95 23.52
## r <= 1 | 37.65 28.71 31.52 37.22
## r = 0 | 76.13 45.23 48.28 55.43
##
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
##
## lrm1.l2 lny.l2 lnmr.l2 difp.l2
## lrm1.l2 1.0000000 1.000000 1.0000000 1.000000
## lny.l2 -0.9763252 -1.323191 -0.9199865 1.608739
## lnmr.l2 -7.0910749 -2.016033 0.2691516 -1.375342
## difp.l2 -7.0191097 22.740851 -1.8223931 -15.686927
##
## Weights W:
## (This is the loading matrix)
##
## lrm1.l2 lny.l2 lnmr.l2 difp.l2
## lrm1.d 0.033342108 -0.020280528 -0.129947614 -0.002561906
## lny.d 0.022544782 -0.005717446 0.012949130 -0.006265406
## lnmr.d 0.053505000 0.046876449 -0.007367715 0.002173242
## difp.d 0.005554849 -0.017353903 0.014561151 0.001531004
Interpretacion: al realizar la prueba para las hipotesis r=0 y r=1 se rechaza la hipotesis nula de cointegración debido a que los estadisticos de prueba ( 76.13, 37.65) es mayor que los valores criticos del 10%, 5% y 1%; es decir que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.
La prueba de traza nos da evidencia que existen dos Vectores de Cointegración.
Causalidad en el Sentido de Granger
Proposito de la Prueba
Es un test consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal X predice la conducta de una serie temporal Y. Si ocurre el hecho, se dice que “el resultado X” causa en el sentido de Granger “el resultado Y”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado Y” predice “el resultado X,” el comportamiento es bidireccional, entonces “el resultado X” causa “el resultado Y,” y “el resultado Y” causa “el resultado X.”
Cuando un serie temporal X causa otra Y, los modelos de Y en los que se emplean datos retrasados de X e Y deben funcionar mejor que los basados únicamente en datos retrasados de Y. Permitiendo identificar en series temporales en las que se observa una correlación que variable antecede a la otra. El concepto de causalidad que mide el test de Granger se puede relacionar con el concepto de causa-efecto, aunque no es lo mismo. El test solamente identifica si una variable antecede a otra en una serie temporal. Lo que la convierte en una buena predictora para la serie temporal. Es decir, si en unos datos se observa causalidad de Granger, no existe necesariamente un vínculo causal en el verdadero sentido de la palabra. (Rodriguez, 2019)
Granger Plantea dos ecuaciones:
\[X_t=\alpha_0+\alpha_1X_{t-1}+\alpha_2X_{t-2}+\ldots+\alpha_iX_{t-i}+\beta_1Y_{t-1}+\beta_2Y_{t-2}+\ldots+\beta_iY_{t-i}+U_{1t}\] \[Y_t=\delta_0+\delta_1X_{t-1}+\delta_2X_{t-2}+\ldots+\delta_iX_{t-i}+\theta_1Y_{t-1}+\theta_2Y_{t-2}+\ldots+\theta_iY_{t-i}+U_{2t}\]
Las variables x y y deben ser estacionarias. Entonces, para probar que x no está Granger causando a y, se debe examinar si los valores rezagados de x en la regresión de y sobre los valores rezagados de x e y reduce significativamente el error de varianza.
Asúmase que se tiene un proceso autorregresivo de orden p, tanto en x como en y.
Para poder usar los métodos de mínimos cuadrados ordinarios (MCO), la siguiente ecuación debe ser estimada:
\[X_t=\alpha_0+\alpha_1X_{t-1}+\alpha_2X_{t-2}+\ldots+\alpha_iX_{t-i}+\beta_1Y_{t-1}+\beta_2Y_{t-2}+\ldots+\beta_iY_{t-i}+U_{1t}\]
Usualmente esta ecuación recibe el nombre de regresión no restringida.
La ecuacion anterior es un modelo que plantea que la variable Y causa en el sentido de Granger a la variable X
Hipotesis
Esta prueba genera una estadística de prueba F junto con un valor p.
La Hipotesis Nula
Si la serie de tiempo Y no causa en el sentido de granger a la serie de tiempo X, entonces \(\ \beta_1,\ \beta_2,\beta_i\) serán cero:
\[H_0:\ \beta_1=\beta_2=\ldots=\beta_i=0\]
La hipótesis alternativa
Si la serie de tiempo Y causa en el sentido de granger a la serie de tiempo X, entonces \(\ \beta_1,\ \beta_2,\beta_i\) serán distintos de cero:
\[H_1:\ \beta_1\neq\beta_2=\ldots\neq\beta_i\neq0\]
Sintaxis de Implementacion en R
En R, podemos usar la función grangertest () del paquete lmtest para realizar una prueba Granger-Causality, que tiene la siguiente sintaxis:
\(grangertest( X, Y, orden = 1 )\)
dónde:
X: Esta es la primera serie temporal.
Y: el segundo conjunto de la serie temporal
orden: en la primera serie de tiempo, el número de retrasos a utilizar. El valor predeterminado es 1.
Estadistico de Prueba
Una forma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresión no restringida (URSS, por sus siglas en inglés),
\[URSS\ =\ \sum_{t=1}^{n}{\hat{u}}_t^2\] y compararla con la suma de residuales al cuadrado de una autorregresión univariada no restringida para X_t , (RRSS, por sus siglas en inglés)
\[RRSS\ =\ \sum_{t=1}^{n}{\hat{e}}_t^2\]
que surge de la ecuacion
\(X_t=\gamma_0+\gamma_1X_{t-1}+\gamma_2X_{t-2}+\ldots+\gamma_iX_{t-i}+e_t\)
Usualmente la ecuación recibe el nombre de regresión restringida.
El Estadístico de prueba es el siguiente
\[F\equiv\frac{(RRSS-URSS/m)\ }{URSS/(n-k)}\]
Donde los grados de libertad son m : es el numero de términos rezagados de Y, y k es el número de parámetros estimados en la regresión no restringida.
La prueba de causalidad en el sentido de Granger se calcula con la función grangertest() en R. En la presentacion de resultados el Estadistico de Prueba tiene la notacion F
Criterio de Decision
Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico
\[Rechazar\ Ho\ si\ F>\ F(i,\ n-k)\] En la salida o presentacion de resultados de la prueba de causalidad de Granger en R no se presenta el valor critico, pero si el valor-p. El criterio de decision utilizando el valor-p es:
\[Rechazar\ Ho\ si\ valor\ p <\alpha\] El valor-p en la salida tiene la notacion Pr(>F)
Interpretacion del Rechazo o no rechazo
Si se rechaza Ho, existe evidencia suficiente para decir que La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger.
Implementacion de un Ejemplo:
Cargamos los Datos
Data_Eu <- EuStockMarkets[,1:2]Prueba de Causalidad en el Sentido de Granger
A continuación, usaremos la función grangertest() para ejecutar una prueba de Causalidad de Granger para examinar si los valores de SMI predicen los valores de DAX en el futuro. Realizaremos la prueba con tres rezagos diferentes
library(lmtest)
### Guardamos la Prueba en un objeto para acceder a los resultados
granger_test <- grangertest(DAX~SMI,order=3,data = Data_Eu)
print(granger_test)## Granger causality test
##
## Model 1: DAX ~ Lags(DAX, 1:3) + Lags(SMI, 1:3)
## Model 2: DAX ~ Lags(DAX, 1:3)
## Res.Df Df F Pr(>F)
## 1 1850
## 2 1853 -3 8.4968 1.322e-05 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
El estadístico de prueba F se denota con la letra F y es igual a 8.4968 y el valor p que corresponde al estadístico de prueba F es Pr (> F) 1.322e-05.
Podemos rechazar la hipótesis nula de la prueba porque el valor p es menor que 0.05. Existe evidencia estadistica de que La serie de tiempo SMI causa la serie de tiempo DAX a la propia causa de Granger. Esto significa que conocer los valores de SMI es valioso para pronosticar los valores futuros de DAX.
Prueba de Causalidad en el Sentido de Granger a la inversa
Vamos a ejecutar la misma prueba pero esta vez examinaremos si los valores de DAX predicen los valores de SMI en el futuro. Realizaremos la prueba con tres rezagos diferentes
library(lmtest)
### Guardamos la Prueba en un objeto para acceder a los resultados
granger_test <- grangertest(SMI~DAX,order=3,data = Data_Eu)
print(granger_test)## Granger causality test
##
## Model 1: SMI ~ Lags(SMI, 1:3) + Lags(DAX, 1:3)
## Model 2: SMI ~ Lags(SMI, 1:3)
## Res.Df Df F Pr(>F)
## 1 1850
## 2 1853 -3 2.6576 0.04689 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
El estadístico de prueba F es igual a 2.6576 y el valor p que corresponde al estadístico de prueba F es Pr (> F) 0.04689.
Podemos rechazar la hipótesis nula de la prueba porque el valor p es apenas menor que 0.05. Existe evidencia estadistica de que La serie de tiempo DAX causa la serie de tiempo SMI a la propia causa de Granger. Esto significa que conocer los valores de DAX es valioso para pronosticar los valores futuros de SMI.
Causalidad en el Sentido de Sims
Propósito de la Prueba
Es una extensión de la prueba de causalidad de Granger.
Sims enfatiza bastante que el futuro no puede causar el presente. Para decidir si una variable Y causa una variable X, Sims propone estimar el siguiente par de ecuaciones:
\[Y_{t\ }=\alpha_1+\sum_{i=1}^{i=n}{\beta_iX_{t-i}}+\sum_{i=1}^{i=m}{\gamma_iY_{t-i}}\ +\ \sum_{i=1}^{i=p}{\lambda_iX_{t+i}}\]
\[X_{t\ }=\alpha_1+\sum_{i=1}^{i=n}{\delta_iX_{t-i}}+\sum_{i=1}^{i=m}{\theta_iY_{t-i}}\ +\ \sum_{i=1}^{i=p}{\omega_iY_{t+i}}\]
Sims incorpora al análisis de causalidad los términos futuros. Podemos observar que en el planteamiento anterior encontramos términos rezagados \(X_{t-i},\ Y_{t-i}\), los términos actuales \(X_{t\ },\ Y_{t\ }\) y los términos futuros o adelantados \(X_{t+i},\ Y_{t+i}\).
Hipótesis de la Prueba
Tomando la siguiente Ecuacion:
\[Y_{t\ }=\alpha_1+\sum_{i=1}^{i=n}{\beta_iX_{t-i}}+\sum_{i=1}^{i=m}{\gamma_iY_{t-i}}\ +\ \sum_{i=1}^{i=p}{\lambda_iX_{t+i}}\]
Si Y es causa según Granger de X, debe haber alguna relación entre Y y los valores adelantados, o futuros, de X. Por tanto, en lugar de probar que \(\sum_{i=1}^{i=n}\beta_i=0\), debemos probar que \(\sum_{i=1}^{i=n}\lambda_i=0\).
La Hipótesis Nula
Si la serie de tiempo Y no causa en el sentido de Granger a la serie de tiempo X (no existe relación entre los valores de Y y los valores futuros de X), entonces \(\ \lambda_1,\ \lambda_2,\lambda_i\) serán cero.
\[H_0:\ \lambda_1=\lambda_2=\ldots=\lambda_i=0\]
La hipótesis alternativa
Si la serie de tiempo Y causa en el sentido de Granger a la serie de tiempo X (existe relación entre los valores de Y y los valores futuros de X), entonces \(\ \lambda_1,\ \lambda_2,\lambda_i\) serán distintos de cero
\[H_1:\ \lambda_1\neq\lambda_2=\ldots\neq\lambda_i\neq0\]
Sintaxis de Implementacion en R
No hay una libreria en R que integre la prueba de Sims, pero se puede crear funciones paso por paso para desarrollarla. Omitiremos la Prueba de Causalidad de Sims
Estadistico de Prueba
El Estadístico de prueba es el mismo que se utiliza en la Prueba de Causalidad en el Sentido de Granger
\[F\equiv\frac{(RRSS-URSS/p)\ }{URSS/(n-k)}\]
Criterio de Decision
Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico
\[Rechazar\ Ho\ si\ F>\ F(i,\ n-k)\] El criterio de decision utilizando el valor-p es:
\[Rechazar\ Ho\ si\ valor\ p <\alpha\]
Interpretacion del Rechazo o No Rechazo
Si NO se Rechaza la Hipotesis Nula
La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger. Es decir, no hay evidencia de una relación entre la serie Y y los valores adelantados o futuros de la serie X.
Si se Rechaza la Hipotesis Nula
La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger. Es decir, hay evidencia de una relación entre la serie Y y los valores adelantados o futuros de la serie X.
Si rechazamos \(Ho\ \), la causalidad va de Y a X, y no de X a Y, porque el futuro no puede causar el presente. Los mismos comentarios aplican a la segunda ecuación.
Implementacion de un Ejemplo
No hay una libreria en R que integre la prueba de Sims, pero se puede crear funciones paso por paso para desarrollarla. Omitiremos la Prueba de Causalidad de Sims