UNIVERSIDAD DE EL SALVADOR

FACULTAD DE CIENCIAS ECONÓMICAS

ESCUELA DE ECONOMÍA

CICLO II-2024

Asignatura:

Métodos para el Análisis Económico

Docente:

Carlos Ademir Pérez Alas.

Tema:

Cointegración y Causalidad

Grupo:

2

Integrantes:

Márquez Arévalo, Iris Leonor. MA15003 .

Menjivar Guillen, Carlos Fernando. MG20035.

Santos Guzman, Orlando Rigoberto SG18058.

Ciudad Universitaria, 10 de enero 2025.

1. Prueba de Raíz Unitaria de Dickey & Fuller.

• propósito de la prueba, es decir ¿Para qué se usa?

El propósito principal de la prueba de raíz unitaria de Dickey-Fuller es determinar si una serie temporal es estacionaria o no estacionaria. La estacionariedad es una propiedad importante en el análisis de series temporales, ya que implica que las propiedades estadísticas de la serie, como la media y la varianza, no cambian con el tiempo, por lo que, es deseable en muchos modelos y técnicas de análisis de series temporales po rque facilita la interpretación de los resultados y la aplicación de métodos estadísticos, en cambio, si una serie temporal no estacionaria presenta tendencias, patrones sistemáticos y cambios en la varianza a lo largo del tiempo, lo que dificulta el análisis y la predicción. La prueba de raíz unitaria de Dickey-Fuller se utiliza para evaluar la presencia de una raíz unitaria en una serie temporal, lo que indica la presencia de no estacionariedad.

• Hipótesis de la prueba. (explique el porqué de las hipótesis Nula y Alternativa)

                               Δxt=(α−1)x(t−1)+εt
                               

La ecuación anterior es la base de la prueba Dickey-Fuller. Si α > 1 el coeficiente de la variable dependiente rezagada será positivo. Si α es igual a la unidad, (α―1) será igual a cero. Las hipótesis se formulan de la siguiente manera:

Hipótesis nula (H0): La hipótesis nula representa la situación en la que la serie temporal no es estacionaria. H0: δ=0 o p= 1 La hipótesis nula en la prueba de Dickey-Fuller es que la serie temporal tiene una raíz unitaria, lo que significa que es no estacionaria, significa que, la serie tiene una tendencia o patrón sistemático que persiste a lo largo del tiempo. La presencia de una raíz unitaria implica que los cambios en la serie temporal son permanentes y no se revierten con el tiempo. Esto indica que la serie no muestra una estabilidad estadística y sus propiedades estadísticas, como la media y la varianza, cambian con el tiempo.

Hipótesis alternativa (H1): La hipótesis alternativa representa la situación en cuya serie temporal es estacionaria. H1: δ≠0 o p<1 La hipótesis alternativa en la prueba de Dickey-Fuller es que la serie temporal no tiene una raíz unitaria y, por lo tanto, es estacionaria, en otras palabras, la serie no muestra una tendencia o patrón sistemático y exhibe una estabilidad estadística a lo largo del tiempo. la ausencia de una raíz unitaria implica que los cambios en la serie son temporales y se revierten a lo largo del tiempo.

• Sintaxis de implementación en R, explicando cada uno de los argumentos.

La prueba de raíz unitaria de Dickey-Fuller también se puede implementar en R utilizando la función ur.df() del paquete urca. A continuación, se muestra la sintaxis de implementación y una explicación de cada uno de los argumentos:

library(urca) ur.df(y, type = c(“none”, “drift”, “trend”, “both”), lags = NULL, selectlags = c(“AIC”, “BIC”, “t-stat”), …)

  • y: Este argumento representa la serie temporal que se va a probar, puede ser un vector numérico o un objeto de serie temporal en R.

  • type: Este argumento especifica el tipo de prueba a realizar, tiene cuatro opciones: “none” (sin constante ni tendencia), “drift” (solo con constante), “trend” (solo con tendencia) y “both” (con constante y tendencia). Por defecto, se utiliza “none”.

  • lags: Este argumento especifica el número máximo de rezagos a incluir en la regresión. Si se establece en NULL, se seleccionará automáticamente utilizando los métodos de selección de lag. Es común dejarlo como NULL para que R determine los rezagos óptimos.

  • selectlags: Este argumento especifica el criterio de selección de rezagos a utilizar si lags es NULL. Tiene tres opciones: “AIC” (criterio de información de Akaike), “BIC” (criterio de información bayesiano) y “t-stat” (prueba de razón de verosimilitud basada en el estadístico t). Por defecto, se utiliza “AIC”.

Además de estos argumentos, la función ur.df() también admite otros argumentos opcionales, como model para especificar un modelo de regresión personalizado y lags.multiplier para ajustar los rezagos seleccionados automáticamente. Al utilizar la función ur.df(), se obtendrá una salida que incluye el valor del estadístico de prueba, los valores críticos correspondientes a diferentes niveles de significancia y el valor p asociado al estadístico de prueba, estos valores se utilizan para tomar una decisión sobre la estacionariedad de la serie temporal.

• Estadístico de prueba (haga referencia en la salida que genera R)

La función ur.df() del paquete urca en R devuelve una salida que incluye varios componentes, entre ellos el estadístico de prueba. El estadístico de prueba específico que se proporciona en la salida depende del tipo de prueba seleccionado en el argumento type.

Si se realiza una prueba de raíz unitaria sin constante ni tendencia (type = “none”), la salida incluirá el estadístico de prueba denominado “Test Statistic” o “Test statistic” en inglés. Este valor representa el valor del estadístico de prueba de Dickey-Fuller.

Si se realiza una prueba de raíz unitaria con constante (type = “drift”) o con constante y tendencia (type = “both” o type = “trend”), la salida incluirá el estadístico de prueba denominado “tau” o “Tau statistic” en inglés, este valor representa el valor del estadístico de prueba extendido de Dickey-Fuller.

El valor del estadístico de prueba se utiliza para compararlo con los valores críticos correspondientes a diferentes niveles de significancia y para evaluar la significancia estadística de la prueba.

• Criterio de decisión (haga referencia en la salida que genera R)

Para tomar una decisión sobre la estacionariedad de la serie temporal, se compara el valor del estadístico de prueba con los valores críticos. Si el valor del estadístico de prueba es menor que los valores críticos, se puede rechazar la hipótesis nula de raíz unitaria y concluir que la serie es estacionaria, por el contrario, si el valor del estadístico de prueba es mayor que los valores críticos, no se puede rechazar la hipótesis nula y se concluye que la serie es no estacionaria

• Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba.

La Hipótesis nula H0 No se rechaza si el valor del estadístico de prueba Dickey-Fuller es mayor que el valor crítico. Diremos entonces que la serie posee una raíz unitaria o no es estacionaria. La hipótesis nula H0 se rechaza si el valor del estadístico de prueba Dickey-Fuller es menor que el valor crítico. En este caso, plantearemos que la serie es estacionaria.

• Implementación de un ejemplo.

# Cargar el paquete urca
library(urca)

# Realizar la prueba de raíz unitaria
result <- ur.df(UKgas, type = "trend", lags = 4)

# Imprimir la salida
summary(result)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression trend 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 + 1 + tt + z.diff.lag)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -97.86 -13.00  -1.69  12.49 106.74 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  0.42313    6.58035   0.064   0.9489    
## z.lag.1     -0.11712    0.07284  -1.608   0.1111    
## tt           1.17042    0.45525   2.571   0.0117 *  
## z.diff.lag1 -0.92718    0.11696  -7.928 4.04e-12 ***
## z.diff.lag2 -1.19860    0.11131 -10.768  < 2e-16 ***
## z.diff.lag3 -1.01927    0.10734  -9.496 1.80e-15 ***
## z.diff.lag4 -0.24334    0.10630  -2.289   0.0243 *  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 31.23 on 96 degrees of freedom
## Multiple R-squared:  0.9836, Adjusted R-squared:  0.9826 
## F-statistic: 960.4 on 6 and 96 DF,  p-value: < 2.2e-16
## 
## 
## Value of test-statistic is: -1.6079 19.4272 9.7565 
## 
## Critical values for test statistics: 
##       1pct  5pct 10pct
## tau3 -3.99 -3.43 -3.13
## phi2  6.22  4.75  4.07
## phi3  8.43  6.49  5.47

Para un nivel de significancia del 5% el valor crítico es de -3.99 mientras que el valor del estadístico de prueba es de -1.9984.

Como el estadístico Dickey-Fuller es mayor que el valor crítico hay evidencia para aceptar la hipótesis nula y rechazar la hipotesis alternativa. La seríe de tiempo del IPC no es estacionaria.

2. Cointegración en el enfoque de Soren Johansen.

• Propósito de la prueba, es decir ¿Para qué se usa?

La metodología de Johansen se basa en la idea de que estimar el rango que nos da información sobre pi si hay cointegración y el número de estas relaciones de cointegración. Por definición, el rango de pi es el número máximo de vectores independientes dentro de esta matriz. Si tenemos tres variables endógenas, solo podemos tener tres vectores independientes y no más que eso. El rango podría ser cero o como máximo tres o cualquier lugar dentro de ese rango. Es decir, el rango no puede exceder el número de variables endógenas del sistema.

En la tecnología de Johansen, es necesario analizar las series previamente con el fin de conocer si presentan o no raíces unitarias. Las series que presenten raíces unitarias se colocan en un vector autorregresivo a partir del cual se puede probar la existencia de una o más combinaciones lineales, J(U) o vectores de cointegración, como también se les denomina (Mata, 2004). De esta manera seguiremos la metodología recomendada para poder estimar la cointegración de Johansen:

  1. Determinar el orden de integración a cada una de las series incluidas en el modelo.

  2. Especificar un Vector AutoRegresivo (VAR)

  3. Determinar el rezago óptimo del VAR para asegurar que los residuos sean ruido blanco (white noise)

  4. Procedimiento de Máxima Verosimilitud al VAR con el fin de determinar el rango (r) de cointegración del sistema:

  5. Prueba de la Traza y Prueba del Eigenvalor Máximo (valor propio).

[@toribio2011origenes]

• Hipótesis de la prueba.

Esta prueba está basada en la razón de máxima verosimilitud \(l\ n\left[\frac{L_{MV}\left(r\right)}{L_{MV}\left(r+1\right)}\right]\), y se efectua secuencialmente para

Hipotesis Nula: \[H_O=r=0,1,...,n-1\] No existe Cointegración

Hipotesis Alternativa: \[H_A=r=m+1\] Existe Cointegración

• Sintaxis de Implementacion en R

Para la implementación de la sintaxis utilizaremos la librería “urca” para realizar pruebas de raíz unitaria y de cointegración para datos de series temporales Dentro de esta libreria se encuentra la función “ca.jo” que brinda el cálculo de la cointegración por el enfoque de johansen.

ca.jo(x, type = c(“eigen,” “trace”), ecdet = c(“none,” “const,” “trend”), K = 2,spec=c(“longrun,” “transitory”), season = NULL, dumvar = NULL)

Argumentos de la sintaxis

• x: matriz de datos a investigar para la cointegración.

• type: la prueba que se va a realizar, ya sea “eigen” o “traza.”

• ecdet: carácter, “none” para no interceptar en cointegración, “const” para término constante en cointegración y “trend” para la variable de tendencia en la cointegración.

• K: el orden de retraso de la serie (levels) en el VAR.

• spec: determina la especificación del VECM.

• season: si se deben incluir variables ficticias estacionales, la frecuencia de los datos debe establecerse en consecuencia, es decir, “4” para los datos trimestrales.

• dumvar: si se deben incluir variables ficticias, una matriz con una dimensión de fila igual a x se puede proporcionar.

• Estadístico de prueba

\[l_{r+1}^*\ -\ l_r^*=\ -\frac{T}{2}\ ln\left(1-{\hat{\lambda}}_{r+1}\right)\ \]

\[l_A^\ast\ -\ l_0^\ast=\ -\frac{T}{2}\ \sum_{i=r+1}^{n}{log\ \left(1-{\hat{\lambda}}_i\right)\ }\]

• Criterio de decisión

Rechazar H0 si p≤αRechazar H0 si p≤α

No Rechazar H0 si p>αNo Rechazar H0 si p>α

Es convencional rechazar la hipótesis nula con un nivel de significación α=0.05α=0.05. Cuando se rechaza la hipótesis nula se dice que los resultados del estudio son estadísticamente significativos al nivel αα.

Interpretación de p-values

• No Significativo: p<10p<10

• Marginalmente Significativo: 0.05<p<100.05<p<10

• Significativo: 0.01<p<0.010.01<p<0.01

• Altamente Significativo: 0.001<p<0.010.001<p<0.01

• Fuertemente Significativo: p<0.01

[@mata2004nociones]

• Interpretacion del Rechazo o no rechazo

Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.

Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.

• Implementación de un ejemplo.

library(urca)
data(denmark)
sjd <- denmark[, c("LRM", "LRY", "IBO", "IDE")]
#Se ejecuta la prueba de eigenvalue
sjd.vecm <-
  ca.jo(
    sjd,
    ecdet = "const",
    type = "eigen",
    K = 2,
    spec = "longrun",
    season = 4
  )
summary(sjd.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration 
## 
## Eigenvalues (lambda):
## [1] 4.331654e-01 1.775836e-01 1.127905e-01 4.341130e-02 6.853773e-16
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  2.35  7.52  9.24 12.97
## r <= 2 |  6.34 13.75 15.67 20.20
## r <= 1 | 10.36 19.77 22.00 26.81
## r = 0  | 30.09 25.56 28.14 33.24
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##             LRM.l2     LRY.l2     IBO.l2     IDE.l2   constant
## LRM.l2    1.000000  1.0000000  1.0000000   1.000000  1.0000000
## LRY.l2   -1.032949 -1.3681031 -3.2266580  -1.883625 -0.6336946
## IBO.l2    5.206919  0.2429825  0.5382847  24.399487  1.6965828
## IDE.l2   -4.215879  6.8411103 -5.6473903 -14.298037 -1.8951589
## constant -6.059932 -4.2708474  7.8963696  -2.263224 -8.0330127
## 
## Weights W:
## (This is the loading matrix)
## 
##            LRM.l2      LRY.l2       IBO.l2        IDE.l2      constant
## LRM.d -0.21295494 -0.00481498  0.035011128  2.028908e-03  2.437019e-13
## LRY.d  0.11502204  0.01975028  0.049938460  1.108654e-03 -1.738409e-13
## IBO.d  0.02317724 -0.01059605  0.003480357 -1.573742e-03 -2.139321e-14
## IDE.d  0.02941109 -0.03022917 -0.002811506 -4.767627e-05 -1.148246e-14

Interpretacion: al realizar la prueba para la primera hipotesis r=0 se rechaza la hipotesis nula de cointegración debido a que el estadistico de prueba (30.09) es mayor que los valores criticos del 10%, 5% y 1%; es decir que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, r <= 1, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.

Solo existe un Vector de Cointegración.

Otro Ejemplo

# Se juntan las variables en un solo objeto
data(finland)
sjf <- finland
#Se ejecuta la prueba de traza
sjf.vecm <- ca.jo(
  sjf,
  ecdet = "none",
  type = "trace",
  K = 2,
  spec = "longrun",
  season = 4
)
summary(sjf.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: trace statistic , with linear trend 
## 
## Eigenvalues (lambda):
## [1] 0.30932660 0.22599561 0.07308056 0.02946699
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  3.11  6.50  8.18 11.65
## r <= 2 | 11.00 15.66 17.95 23.52
## r <= 1 | 37.65 28.71 31.52 37.22
## r = 0  | 76.13 45.23 48.28 55.43
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##            lrm1.l2    lny.l2    lnmr.l2    difp.l2
## lrm1.l2  1.0000000  1.000000  1.0000000   1.000000
## lny.l2  -0.9763252 -1.323191 -0.9199865   1.608739
## lnmr.l2 -7.0910749 -2.016033  0.2691516  -1.375342
## difp.l2 -7.0191097 22.740851 -1.8223931 -15.686927
## 
## Weights W:
## (This is the loading matrix)
## 
##            lrm1.l2       lny.l2      lnmr.l2      difp.l2
## lrm1.d 0.033342108 -0.020280528 -0.129947614 -0.002561906
## lny.d  0.022544782 -0.005717446  0.012949130 -0.006265406
## lnmr.d 0.053505000  0.046876449 -0.007367715  0.002173242
## difp.d 0.005554849 -0.017353903  0.014561151  0.001531004
HF0 <- matrix(c(-1, 1, 0, 0, 0, 0, 1, 0, 0, 0, 0, 1), c(4,3))
summary(blrtest(sjf.vecm, H=HF0, r=3))
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Estimation and testing under linear restrictions on beta 
## 
## The VECM has been estimated subject to: 
## beta=H*phi and/or alpha=A*psi
## 
##      [,1] [,2] [,3]
## [1,]   -1    0    0
## [2,]    1    0    0
## [3,]    0    1    0
## [4,]    0    0    1
## 
## Eigenvalues of restricted VAR (lambda):
## [1] 0.3093 0.1994 0.0705
## 
## The value of the likelihood ratio test statistic:
## 3.82 distributed as chi square with 3 df.
## The p-value of the test statistic is: 0.28 
## 
## Eigenvectors, normalised to first column
## of the restricted VAR:
## 
##        [,1]    [,2]    [,3]
## [1,]  1.000  1.0000  1.0000
## [2,] -1.000 -1.0000 -1.0000
## [3,] -7.090 -1.4409  0.3503
## [4,] -6.288 14.4392 -1.6555
## 
## Weights W of the restricted VAR:
## 
##          [,1]    [,2]    [,3]
## lrm1.d 0.0335 -0.0377 -0.1102
## lny.d  0.0228 -0.0163  0.0238
## lnmr.d 0.0543  0.0589 -0.0134
## difp.d 0.0054 -0.0180  0.0113

Interpretacion: al realizar la prueba para las hipotesis r=0 y r=1 se rechaza la hipotesis nula de cointegración debido a que los estadisticos de prueba ( 76.13, 37.65) es mayor que los valores criticos del 10%, 5% y 1%; es decir que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.

La prueba de traza nos da evidencia que existen dos Vectores de Cointegración.

3. Causalidad en el sentido de Granger.

•Propósito de la prueba, es decir ¿Para qué se usa?

La prueba de causalidad de Granger se usa para examinar si una serie de tiempo se puede usar para pronosticar otra. Dados dos conjuntos de datos de series de tiempo,“X” y “Y”, la causalidad de Granger es un método que intenta determinar si es probable que una serie influya en el cambio de la otra. Esto se logra tomando diferentes rezagos de una serie y usándolos para modelar el cambio en la segunda serie.

se usa para verificar si una variable aleatoria no esta correlacionada con ninguna de las otras dos variables aleatorias, entonces si no esta correlacionada con ninguna combinacion lineal de ellas; pero si es independiente de cada una de las otras variables aleatorias no es necesario que sea independiente de cada funcion de ellas.

(CHAMBERLAIN1, 2014)

•Hipotesis de la prueba.(Explique el porque de la hipotesis nula y alternativa)

\[H0:X→Y\]

La serie de tiempo X no causa que la serie de tiempo Y sea la causa de Granger en sí misma.

\[H1:X≠Y\]

La serie de tiempo X causa la serie de tiempo Y a la propia causa de Granger.

Conocer el valor de una serie de tiempo X en un desfase dado es valioso para pronosticar el valor de una serie de tiempo Y en un período de tiempo posterior que se conoce como “causas de Granger”.

Esto se logra tomando diferentes rezagos de una serie y usándolos para modelar el cambio en la segunda serie. Creamos dos modelos que predicen y, uno con solo valores pasados de y (Ω) y el otro con valores pasados de y y x (π). Los modelos se dan a continuación, donde k es el número de retrasos en la serie temporal:

\[[Sea Ω = yt = β0 + β1yt-1 +⋯ + βkyt-k + e]\]

\[[π = yt = β0 + β1yt-1 +… + βkyt-k + α1xt-1 +… + αkxt-k + e]\]

La versión de Granger establece que X, es “media independiente” de la corriente y condicional en X actual y pasado. Granger extendido la definición de “y no causa x” es más fuerte que la condición de que y sea independiente de x futuro condicional de x actual y pasado; entonces la no causalidad es más fuerte que la exogeneidad estricta. Sin embargo, bajo una condición de regularidad débil, si y es independiente de x futuro condicional en x actual y pasado y y pasado, entonces y no causa x.

(Bobbitt, 2021) (CHAMBERLAIN1, 2014)

•Sintaxis de implementacion en R, explicando cada uno de los argumentos.

 library(lmtest)   # El paquete R "lmtest" incorpora el procedimiento de causalidad de Granger, que prueba los modelos de regresión lineal.Una colección de pruebas, conjuntos de datos y ejemplos para la verificación de diagnóstico en modelos de regresión lineal. Además, se proporcionan algunas herramientas genéricas para la inferencia en modelos paramétricos.

   En R, podemos usar la función grangertest  del paquete lmtest para realizar una prueba Granger-Causality, que tiene la siguiente sintaxis:


  dónde:

 X: Esta es la primera serie temporal.

 Y: el segundo conjunto de la serie temporal.


 data("EuStockMarkets") # Cargar los datos

 Estandarizar la data
tsData<-EuStockMarkets[,1:2]  # Este conjunto de datos contiene valores para los valores DAX, SMI, CAC y FTSE, pero estamos utilizando solo valores DAX y SMI.

 head(tsData) # Mostar primeras 6 filas


 library(lmtest) # Realizar la prueba de causalidad de Granger
grangertest(DAX~SMI, order=3, data = tsData)
grangertest # para examinar si los valores de SMI predicen los valores de DAX en el futuro. 

•Estadistico de prueba (haga referencia en la salida que genera R)

La prueba F, la prueba t o la prueba de Wald (utilizadas en R) se calculan para probar las siguientes hipótesis nulas y alternativas:

\[H0: αi = 0 [1, k]\]

Sea cero para cada i del elemento.

\[H1: αi ≠ 0 [1, k]\]

Sea cero para al menos 1 i del elemento.

Esencialmente, estamos tratando de determinar si podemos decir que estadísticamente x proporciona más información sobre los valores futuros de y que los valores pasados de y solo. Bajo esta definición, está claro que no estamos tratando de probar la causalidad real, solo que los dos valores están relacionados por algún fenómeno. En ese sentido, también debemos ejecutar este modelo a la inversa para verificar que y no proporcione información sobre los valores futuros de x. Si encontramos que este es el caso, es probable que exista alguna variable exógena, z, que deba controlarse o podría ser una mejor candidata para una mayor causalidad.

P-Value > Nivel de significancia, no se rechaza la hipotesis nula.

•Criterio de decision (haga referencia en la salida que genera R)

En las varibles se establece de que X no causa a y, en dado caso puede darse que sea a la inversa. Rechazar la HO Estadistico de prueba sea 0 *P-value<0.05 Las salidas que genera R El estadístico de prueba F se denota con la letra F y el valor p que corresponde al estadístico de prueba F.

En las varibles se establece de que X no causa a y, en dado caso puede darse que sea a la inversa.

Rechazar la HO si: Estadistico de prueba sea 0 P-value<0.05

Esta prueba produce una estadística de prueba F con un valor p correspondiente. Si el valor p es menor que cierto nivel de significación (es decir, α = .05), entonces podemos rechazar la hipótesis nula y concluir que tenemos suficiente evidencia para decir que la serie de tiempo x Granger causa la serie de tiempo y. (Bobbitt, 2021)

•Interpretacion del rechazo, o no rechazo de la Hipotesis nula de la prueba

H0: αi = 0 [1, k] y la inversa H1: αi ≠ 0 [1, k]

• Si p_value≤αp_value≤α, por ejemplo α=0.05α=0.05 entonces es posible rechazar la hipótesis nula y concluir que hay evidencia suficiente para decir que la serie de tiempo x Granger-causa la serie de tiempo y.

• Si p_value>αp_value>α se puede decir que hay evidencia suficiente para no rechazar la hipótesis nula. Por tanto, la serie de tiempo x No Granger-causa la serie de tiempo y.

•Implementacion de un ejemplo

Cargar los datos

library(lmtest)
library(zoo)
tsData <- EuStockMarkets[, 1:2]
head(tsData)
##          DAX    SMI
## [1,] 1628.75 1678.1
## [2,] 1613.63 1688.5
## [3,] 1606.51 1678.6
## [4,] 1621.04 1684.1
## [5,] 1618.16 1686.6
## [6,] 1610.61 1671.6

Las salidas que genera R
El estadístico de prueba F se denota con la letra F igual a 12.819 y el valor p que corresponde al estadístico de prueba F es Pr (> F) 0.000352.

el valor p es menor que 0.05 siendo de 0.04689

Realizar la prueba de causalidad de Granger.

library(lmtest)
grangertest(DAX~SMI, data=tsData)
## Granger causality test
## 
## Model 1: DAX ~ Lags(DAX, 1:1) + Lags(SMI, 1:1)
## Model 2: DAX ~ Lags(DAX, 1:1)
##   Res.Df Df      F   Pr(>F)    
## 1   1856                       
## 2   1857 -1 12.819 0.000352 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
grangertest 
## function (x, ...) 
## {
##     UseMethod("grangertest")
## }
## <bytecode: 0x00000219f382b568>
## <environment: namespace:lmtest>

El estadístico de prueba F se denota con la letra F igual a 12.819 y el valor p que corresponde al estadístico de prueba F es Pr (> F) 0.000352.

Realizar la prueba de Causalidad de Granger a la inversa.

grangertest(SMI~DAX, order=3, data=tsData)
## Granger causality test
## 
## Model 1: SMI ~ Lags(SMI, 1:3) + Lags(DAX, 1:3)
## Model 2: SMI ~ Lags(SMI, 1:3)
##   Res.Df Df      F  Pr(>F)  
## 1   1850                    
## 2   1853 -3 2.6576 0.04689 *
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

El valor p de la prueba es 0.04689. Rechazamos la hipótesis nula porque este valor es menor que 0.05. Es decir, los valores de DAX predicen los valores de SMI en el futuro.

Como resultado, podemos concluir que conocer los valores de SMI es útil para proyectar los valores de DAX en el futuro.

Bibliografia

A.Rico, Victor. 2017. “Prueba de Raiz Unitaria de DICKEY FULLER En r.” Conceptos Básicos (Primera Ed.). Medellı́n: Ecoe. Ediciones.

Toribio, R. J. (2011). Orı́genes y evolución de la teorı́a de la cointegración y del análisis de la transmisión de precios en mercados.

Engle, R. F., White, H., et al. (1999). Cointegration, causality, and forecasting: A festschrift in honour of clive WJ granger. Oxford University Press on Demand.

Mata, H. (2004). Nociones elementales de cointegración. Enfoque de s. johansen. Obtenida El, 14.

Sandoval, W. (2021). RPubs - cointegración. https://rpubs.com/wilsonsr/828582

R package urca. (n.d.). In Pfaffikus. https://www.pfaffikus.de/rpacks/urca/

CHAMBERLAIN1, G. (2014). The General Equivalence of Granger and Sims Causality. The Econometric Society is collaborating with JSTOR.

Bobbitt, Z. (2021). How to Perform a Granger-Causality Test in R. https://www.statology.org/granger-causality-test-in-r/