Cointegración y Causalidad

2022-11-03

UNIVERSIDAD DE EL SALVADOR

FACULTAD DE CIENCIAS ECONÓMICAS

ESCUELA DE ECONOMÍA

“LABORATORIO 3”

DOCENTE: MSF. CARLOS ADEMIR PÉREZ

MATERIA: MÉTODOS PARA EL ANÁLISIS ECONÓMICO

GT: 02

PRESENTADO POR:

NOMBRE CARNET
LUIS DANIEL QUIJANO VÁSQUEZ QV13001
CARLOS ROBERTO GARCÍA RAMÍREZ GR16051

Ejercicio 1

Prueba de Raíz Unitaria de Dickey & Fuller, en R.

Llamada de esta forma por los estadísticos estadounidenses David Dickey y Wayne Fuller. Esta prueba de raíz única, detecta estadísticamente la presencia de conducta tendencial que estocástica en las series temporales de las variables a través de contrastar las hipótesis. En otras palabras, la prueba se utiliza para determinar si una raíz unitaria se encuentra presente en un modelo autorregresivo.

Una variable simple autorregresiva tiene la forma xt=α x(t−1)+εt Si sustraemos x(t−1) de ambos lados el resultado es:

Δxt=(α−1)x(t−1)+εt La cual es la base de la prueba Dickey-Fuller, el cual es el modelo más simple para evaluar la presencia de raíz unitaria.

Como hipótesis nula se plantea la presencia de tendencia estocástica en las observaciones, para la hipótesis alternativa, se establece no tendencia estocástica en las observaciones.

Ho: α=1; proceso no estacionario H1: α<1;proceso estacionario

Estadistico de Prueba El estadístico de prueba es el estadístico t sobre la variable dependiente rezagada. Si α>1 el coeficiente de la variable dependiente rezagada será positivo. Si α es igual a la unidad, (α−1). En ambos casos xt será no estacionaria.

Cuando existe tendencia en una serie temporal en un modelo AR(1), el primer regresor tenderá a ser 1 o muy cercano a 1. Esto se debe a la propiedad de reversión a la media de un proceso estocástico estacionario, es decir, cuanto más cerca esté el primer coeficiente de un modelo AR(1) de 1, más tardarán las observaciones a volver al valor medio.

Criterio de Desición Ho: α=0 , Si no puede rechazarse la hipótesis nula, significa que (p-value > 0.05), por tanto la serie es no estacionaria y tiene raíz 1 (I(1)). La serie es Random walk = no estacionaria.

H1: α≠0, si se rechaza la nula (p-valor<0.05) la serie es estacionaria y tiene una raíz 0 (I(0)). La serie es White noise = estacionaria

Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca.

Analizando raíz unitaria

library(urca) df = ur.df(x, type=“none”, lags = 0) summary(df)

Augmented Dickey-Fuller Test Unit Root Test

Test regression none

Call: lm(formula = z.diff ~ z.lag.1 - 1)

Residuals: Min 1Q Median 3Q Max -2.31407 -0.86346 0.07963 0.66540 2.03542

Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.009083 0.031521 -0.288 0.774

Residual standard error: 0.9757 on 98 degrees of freedom Multiple R-squared: 0.0008466, Adjusted R-squared: -0.009349 F-statistic: 0.08304 on 1 and 98 DF, p-value: 0.7738

Value of test-statistic is: -0.2882

Critical values for test statistics: 1pct 5pct 10pct tau1 -2.6 -1.95 -1.61

Interpretación: El valor calculado “t-value” es de 0.288 (menor) en términos absolutos a lo valores del estadístico tau, se llega a la conclusión en favor de no rechazar hipótesis nula, por lo tanto, existe raíz unitaria y la serie no es estacionaria.

Ejercicio 2

Cointegración en el enfoque de Soren Johansen, en R.

La metodología de Johansen se basa en la idea de que estimar el rango de nos da información sobre pi si hay cointegración y el número de estas relaciones de cointegración. Por definición, el rango de pi es el número máximo de vectores independientes dentro de esta matriz. Si tenemos tres variables endógenas, solo podemos tener tres vectores independientes y no más que eso. El rango podría ser cero o como máximo tres o en cualquier lugar de ese rango. Es decir, el rango no puede exceder el número de variables endógenas del sistema.

Dicho con sus palabras: «Para que haya cointegración, dos series integradas, o suaves, han de tener la propiedad de que una combinación lineal de ellas sea estacionaria. Muchos pares de series integradas no cumplen dicha propiedad y, consecuentemente, cuando ocurre, la cointegración debe ser considerada como una sorpresa».

Hipotesis de la prueba Eigenvalor Esta prueba está basada en la razón de máxima verosimilitud l n[LMV(r)LMV(r+1)], y se efectua secuencialmente para

Hipotesis Nula: HO=r=0,1,…,n−1 No existe Cointegración

Hipotesis Alternativa: HA=r=m+1 Existe Cointegración

Sintaxis de Impletmentacion en R En R, podemos usar la función ca.jo () de la libreria urca para realizar una prueba Cointegración, que tiene la siguiente sintaxis:

ca.jo(sjd, ecdet = “const,” type = “eigen,” K = 2, spec = “longrun,” season = 4)

dónde:

sjd: es la combinacion de las variables en un solo objeto

type: hace referencia al método que usaremos

El estadístico de prueba l∗r+1 − l∗r= −T2 ln(1−λ^r+1) ## Criterio de Decision

Se rechaza la Hipótesis Nula si el nivel de significancia es mayor al Estadistico de Prueba

Interpretacion del Rechazo o no rechazo Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.

Hipotesis de la prueba de traza Esta prueba se basa en la razón de máxima verosimilitud l n[LMV(r)LMV(n)] y es efectuada secuencialmente para

Hipotesis

HO:r=0 No existe Cointegración

HA:r=m Existe Cointegración

Esta prueba comprueba la hipótesis nula de que el rango de cointegración es r frente a la alternativa que el rango de cointegración es n. 

El estadístico de prueba l∗A − l∗0= −T2 ∑i=r+1nlog (1−λ^i)

Sintaxis de Impletmentacion en R En R, podemos usar la función ca.jo () de la libreria urca para realizar una prueba Cointegración, que tiene la siguiente sintaxis:

ca.jo(sjd, ecdet = “const,” type = “trace,” K = 2, spec = “longrun,” season = 4)

dónde:

sjd: es la combinacion de las variables en un solo objeto

type: hace referencia al método que usaremos

El estadístico de prueba l∗r+1 − l∗r= −T2 ln(1−λ^r+1)

Criterio de Decision Se rechaza la Hipótesis Nula si el nivel de significancia es mayor al Estadistico de Prueba

Interpretacion del Rechazo o no rechazo Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.

Ejercicio 3

Causalidad en el sentido de Granger, en R.

Es un test consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal X predice la conducta de una serie temporal Y. Si ocurre el hecho, se dice que “el resultado X” causa en el sentido de Granger “el resultado Y”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado Y” predice “el resultado X,” el comportamiento es bidireccional, entonces “el resultado X” causa “el resultado Y,” y “el resultado Y” causa “el resultado X.”

Cuando un serie temporal X causa otra Y, los modelos de Y en los que se emplean datos retrasados de X e Y deben funcionar mejor que los basados únicamente en datos retrasados de Y. Permitiendo identificar en series temporales en las que se observa una correlación que variable antecede a la otra. El concepto de causalidad que mide el test de Granger se puede relacionar con el concepto de causa-efecto, aunque no es lo mismo. El test solamente identifica si una variable antecede a otra en una serie temporal. Lo que la convierte en una buena predictora para la serie temporal. Es decir, si en unos datos se observa causalidad de Granger, no existe necesariamente un vínculo causal en el verdadero sentido de la palabra. (Rodriguez, 2019)

Granger Plantea dos ecuaciones:

Xt=α0+α1Xt−1+α2Xt−2+…+αiXt−i+β1Yt−1+β2Yt−2+…+βiYt−i+U1t Yt=δ0+δ1Xt−1+δ2Xt−2+…+δiXt−i+θ1Yt−1+θ2Yt−2+…+θiYt−i+U2t

Las variables x y y deben ser estacionarias. Entonces, para probar que x no está Granger causando a y, se debe examinar si los valores rezagados de x en la regresión de y sobre los valores rezagados de x e y reduce significativamente el error de varianza.

Asúmase que se tiene un proceso autorregresivo de orden p, tanto en x como en y.

Para poder usar los métodos de mínimos cuadrados ordinarios (MCO), la siguiente ecuación debe ser estimada:

Xt=α0+α1Xt−1+α2Xt−2+…+αiXt−i+β1Yt−1+β2Yt−2+…+βiYt−i+U1t

Usualmente esta ecuación recibe el nombre de regresión no restringida.

La ecuacion anterior es un modelo que plantea que la variable Y causa en el sentido de Granger a la variable X

Hipotesis Esta prueba genera una estadística de prueba F junto con un valor p.

La Hipotesis Nula

Si la serie de tiempo Y no causa en el sentido de granger a la serie de tiempo X, entonces β1, β2,βi serán cero:

H0: β1=β2=…=βi=0

La hipótesis alternativa

Si la serie de tiempo Y causa en el sentido de granger a la serie de tiempo X, entonces β1, β2,βi serán distintos de cero:

H1: β1≠β2=…≠βi≠0

Sintaxis de Implementacion en R En R, podemos usar la función grangertest () del paquete lmtest para realizar una prueba Granger-Causality, que tiene la siguiente sintaxis:

grangertest(X,Y,orden=1)

dónde:

X: Esta es la primera serie temporal.

Y: el segundo conjunto de la serie temporal

orden: en la primera serie de tiempo, el número de retrasos a utilizar. El valor predeterminado es 1.

Estadistico de Prueba Una forma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresión no restringida (URSS, por sus siglas en inglés),

URSS = ∑t=1nu^2t y compararla con la suma de residuales al cuadrado de una autorregresión univariada no restringida para X_t , (RRSS, por sus siglas en inglés)

RRSS = ∑t=1ne^2t

que surge de la ecuacion

Xt=γ0+γ1Xt−1+γ2Xt−2+…+γiXt−i+et

Usualmente la ecuación recibe el nombre de regresión restringida.

El Estadístico de prueba es el siguiente:

F≡(RRSS−URSS/m) URSS/(n−k)

Donde los grados de libertad son m : es el numero de términos rezagados de Y, y k es el número de parámetros estimados en la regresión no restringida.

La prueba de causalidad en el sentido de Granger se calcula con la función grangertest() en R. En la presentacion de resultados el Estadistico de Prueba tiene la notacion F

Criterio de Decision Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico

Rechazar Ho si F> F(i, n−k) En la salida o presentacion de resultados de la prueba de causalidad de Granger en R no se presenta el valor critico, pero si el valor-p. El criterio de decision utilizando el valor-p es:

Rechazar Ho si valor p<α El valor-p en la salida tiene la notacion Pr(>F)

Interpretacion del Rechazo o no rechazo Si se rechaza Ho, existe evidencia suficiente para decir que La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger.

Cointegración en el enfoque de Soren Johansen

Proposito de la prueba

En la mayoría de los casos, cuando las variables y1,t e y2,t son no estacionarias I(1) variables, una combinación lineal de estas variables también será no estacionaria. Sin embargo, en algunos casos la combinación lineal de estas variables puede ser estacionaria. Esto sucede cuando las variables comparten las mismas tendencias estocásticas, que se cancelan cuando se combinan. En estos casos, decimos que las variables están cointegradas.

Considere dos variables, y1,t e y2,t, que están integrados de primer orden, I(1).

Al retroceder estas variables entre sí, podríamos reorganizar el modelo de regresión lineal, de modo que

\[ut=y1,t−β1y2,t\]

Ahora si el término de error,ut es estacionario I(0), entonces, por definición, la combinación lineal y1,t−β1y2,t también debe ser estacionario, ya que las propiedades del lado izquierdo deben ser iguales a las propiedades del lado derecho. Por lo tanto, mientras ambos y1,t,y2,t tienen tendencias estocásticas, decimos que las variables y1,t y y2,t están cointegrados, como la combinación lineal y1,t−β1y2,t y tienen las mismas propiedades estadísticas que una I(0) variable.

Hipotesis de la prueba

Para la hipótesis de la prueba tenemos los siguientes planteamientos

Hipótesis nula (H0) : El rango de cointegración es \[(r=0)\]

Hipótesis Alternativa (H1) : El rango de cointegración es \[(r>0)\]

Dando por resultado que:

(H0) =No existe cointegración (H1) = Existe cointegración de 1 o más series.

Sintaxis de implementación en R

#library(urca)
#ca.jo(x, 
       #type = c ("eigen", "trace"), 
       #ecdet = c ("none", "const", "trend"), 
       #K = 2,
       #spec = c ("largo plazo", "transitorio"), 
       #temporada = NULL, 
       #dumvar = NULL)

Donde

x: Matriz de datos a investigar para la cointegración.

type: La prueba a realizar, ya sea eigen o trace.

ecdet: Carácter, none para no interceptar en la cointegración, const por término constante en cointegración y trend para la variable de tendencia en cointegración

k: El orden de retraso de la serie (niveles) en el VAR.

spec: Determina la especificación del VECM de la serie,largo plazo o trasnsitorio, se refiere a la especificación del VECM.

temporada: Si se deben incluir variables ficticias estacionales, la frecuencia de los datos debe establecerse en consecuencia, es decir 4 para datos trimestrales.

dumvar: Matriz de variables estacionales, si se incluyen

Estadistico de prueba

El estadístico de prueba en la salida R se muestra como “Values of teststatistic and critical values of test:” los estadisticos de estas se ubicaran en la columna test del resumen de estadisticas de pruebas y valores criticos.

Criterio de decisión

El criterio de decisión se basa en comparar el valor del estadístico r mostrado en la columna test de la prueba realizada por la función ca.jo() con los niveles de significancia que estan en las otras columnas mostradas como 10pct, 5pct, 1pct.

Entre las cuales se decide si se rechaza o no la hipotesis nula, con su criterio de decisión para rechazar la hipótesis nula consiste el comparar el valor del estadistico de prueba y un valor critico para un determinado nivel de significancia, si el estadistico es mayor se rechaza la hipótesis nula, caso contrario no se rechaza la hipótesis nula.

Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba

Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.

Implementación de un ejemplo

library(urca)
data(denmark)
prueba <- denmark[, c("LRM", "LRY", "IBO", "IDE")]
#Se ejecuta la prueba de eigenvalue
prueba.vecm <-
  ca.jo(
    prueba,
    ecdet = "const",
    type = "eigen",
    K = 2,
    spec = "longrun",
    season = 4
  )
summary(prueba.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration 
## 
## Eigenvalues (lambda):
## [1] 4.331654e-01 1.775836e-01 1.127905e-01 4.341130e-02 6.927550e-16
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  2.35  7.52  9.24 12.97
## r <= 2 |  6.34 13.75 15.67 20.20
## r <= 1 | 10.36 19.77 22.00 26.81
## r = 0  | 30.09 25.56 28.14 33.24
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##             LRM.l2     LRY.l2     IBO.l2     IDE.l2   constant
## LRM.l2    1.000000  1.0000000  1.0000000   1.000000  1.0000000
## LRY.l2   -1.032949 -1.3681031 -3.2266580  -1.883625 -0.6336946
## IBO.l2    5.206919  0.2429825  0.5382847  24.399487  1.6965828
## IDE.l2   -4.215879  6.8411103 -5.6473903 -14.298037 -1.8951589
## constant -6.059932 -4.2708474  7.8963696  -2.263224 -8.0330127
## 
## Weights W:
## (This is the loading matrix)
## 
##            LRM.l2      LRY.l2       IBO.l2        IDE.l2      constant
## LRM.d -0.21295494 -0.00481498  0.035011128  2.028908e-03 -1.726523e-13
## LRY.d  0.11502204  0.01975028  0.049938460  1.108654e-03  9.428195e-14
## IBO.d  0.02317724 -0.01059605  0.003480357 -1.573742e-03  4.143714e-14
## IDE.d  0.02941109 -0.03022917 -0.002811506 -4.767627e-05  7.781415e-14

Los resultados arrojan que en la primera hipotesis r=0, se rechaza la hipotesis nula de cointegración debido a que el estadistico de prueba (30.09) es mayor que los valores criticos del 10%, 5% y 1%; es decir, que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, r <= 1, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.

Causalidad en el sentido de Granger

Propósito de la prueba

La noción de causalidad de C.W.J. Granger (1969) es una prueba estadística empleada para determinar si una serie temporal puede predecir a otra. Permitiendo identificar en series temporales en las que se observa una correlación que variable antecede a la otra.

Es un test consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal X predice la conducta de una serie temporal Y. Si ocurre el hecho, se dice que “el resultado X” causa en el sentido de Granger “el resultado Y”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado Y” predice “el resultado X,” el comportamiento es bidireccional, entonces “el resultado X” causa “el resultado Y,” y “el resultado Y” causa “el resultado X.”

Cuando un serie temporal X causa otra Y, los modelos de Y en los que se emplean datos retrasados de X e Y deben funcionar mejor que los basados únicamente en datos retrasados de Y. Permitiendo identificar en series temporales en las que se observa una correlación que variable antecede a la otra. El concepto de causalidad que mide el test de Granger se puede relacionar con el concepto de causa-efecto, aunque no es lo mismo. El test solamente identifica si una variable antecede a otra en una serie temporal. Lo que la convierte en una buena predictora para la serie temporal. Es decir, si en unos datos se observa causalidad de Granger, no existe necesariamente un vínculo causal en el verdadero sentido de la palabra. (Rodriguez, 2019)

Granger Plantea dos ecuaciones:

\[Xt=α0+α1Xt−1+α2Xt−2+…+αiXt−i+β1Yt−1+β2Yt−2+…+βiYt−i+U1t\]

\[Yt=δ0+δ1Xt−1+δ2Xt−2+…+δiXt−i+θ1Yt−1+θ2Yt−2+…+θiYt−i+U2t\]

Las variables x y y deben ser estacionarias. Entonces, para probar que x no está Granger causando a y, se debe examinar si los valores rezagados de x en la regresión de y sobre los valores rezagados de x e y reduce significativamente el error de varianza.

Hipotesis de la prueba

Hipótesis Nula: es que no hay causalidad en el sentido de Granger: \[(H0: βyx1=βyx2=βyx3= ... =βyxp=0)\]

La serie temporal X no causa que Y se cause a sí misma

Hipótesis Alternativa: hay causalidad en el sentido de Granger:\[(H0: βyx1=βyx2=βyx3= ... =βyxp≠0)\] #### La serie temporal X hace que la serie temporal Y se cause a si misma con causa-Granger

Sintaxis de implementación en R

En R, dentro de la libreria lmtest podemos usar la función grangertest() para realizar una prueba de causalidad de Granger.

#library(IMTest)
#grangertest(X, Y, order = 1)

en donde:

X: Es la primera serie temporal.

Y: Es la segunda serie temporal.

Order: Es el numero de retardos a utilizar en la primera serie de tiempo. El valor predeterminado es 1.

Estadístico de prueba

Una forma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresión no restringida (URSS, por sus siglas en inglés),

RSS = ∑t=1nu^2t

y compararla con la suma de residuales al cuadrado de una autorregresión univariada no restringida para X_t , (RRSS, por sus siglas en inglés)

\[RRSS = ∑t=1ne^2t\]

que surge de la ecuacion

\[Xt=γ0+γ1Xt−1+γ2Xt−2+…+γiXt−i+et\]

Usualmente la ecuación recibe el nombre de regresión restringida.

El Estadístico de prueba es el siguiente

\[F≡(RRSS−URSS/m) URSS/(n−k)\]

Donde los grados de libertad son m : es el numero de términos rezagados de Y, y k es el número de parámetros estimados en la regresión no restringida.

La prueba de causalidad en el sentido de Granger se calcula con la función grangertest() en R. En la presentacion de resultados el Estadistico de Prueba tiene la notacion F

Criterio de decisión

Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico

Rechazar Ho si \[F> F(i, n−k)\] #### En la salida o presentacion de resultados de la prueba de causalidad de Granger en R no se presenta el valor critico, pero si el valor-p. El criterio de decision utilizando el valor-p es:

Rechazar Ho si valor \[p<α\]

El valor-p en la salida tiene la notacion \[Pr(>F)\]

Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba

Si se rechaza Ho, existe evidencia suficiente para decir que La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger.

Implementación de un ejemplo

library(lmtest)
#cargar datos
Data_Eu <- EuStockMarkets[,1:2]
#prueba
prueba_granger <-grangertest(DAX~SMI,order=3,data = Data_Eu)
print(prueba_granger)
## Granger causality test
## 
## Model 1: DAX ~ Lags(DAX, 1:3) + Lags(SMI, 1:3)
## Model 2: DAX ~ Lags(DAX, 1:3)
##   Res.Df Df      F    Pr(>F)    
## 1   1850                        
## 2   1853 -3 8.4968 1.322e-05 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El estadístico de prueba F se denota con la letra F y es igual a 8.4968 y el valor p que corresponde al estadístico de prueba F es \[Pr (> F) 1.322e-05\]

Podemos rechazar la hipótesis nula de la prueba porque el valor p es menor que 0.05. Existe evidencia estadistica de que La serie de tiempo SMI causa la serie de tiempo DAX a la propia causa de Granger. Esto significa que conocer los valores de SMI es valioso para pronosticar los valores futuros de DAX.