Cointegración y Causalidad.

Universidad de El Salvador
Faculdad de ciencias económicas
escuela de economía

<>

Metodos para el analisis económico
Docente: Carlos Ademir Perez Alas
Grupo teorico: “02”
Tema de investigación: Cointegración y Causalidad.
Integrantes
Apellidos Nombres DUE Participación
Álvarez Pineda Heidy Judith AP18017 100%
Hernández García Estefany Azucena HG20004 100%
Hernandez Gutierrez German Alejandro HG19046 100%
Mendez Carrillo Jairo Rodrigo MC19167 100%
Lemus Perez Elias Amilcar LP16016 100%
Fecha de entrega: 07 de enero de 2024
Ciudad universitaria, San Salvador, El Salvador

1. Prueba de Raíz Unitaria de Dickey & Fuller.

Proposito de la prueba

Llamada de esta forma por los estadísticos estadounidenses David Dickey y Wayne Fuller. Esta prueba de raíz única, detecta estadísticamente la presencia de conducta tendencial que estocástica en las series temporales de las variables a través de contrastar las hipótesis.

Este contraste permite saber o conocer si existe presencia significativa de tendencia en las series temporales de las variables.

Paula Rodó, 30 de julio, 2019 Contraste de Dickey-Fuller.Economipedia.com.

En otras palabras, la prueba se utiliza para determinar si una raíz unitaria se encuentra presente en un modelo autorregresivo.

Es importante destacar que, los mismos estadísticos ampliaron su prueba básica de raíz unitaria autorregresiva, para que pudiera adaptarse a modelos con mayor complejidad (Prueba Dickey-Fuller aumentada), que es la que prueba una raíz unitaria en una muestra de serie temporal.

Hipótesis de la prueba

Una variable simple autorregresiva tiene la forma \(\ xt=α x(t−1)+εt\) Si sustraemos $ (t−1)$ de ambos lados el resultado es:

\[Δxt=(α−1)x(t−1)+εt\]

La cual es la base de la prueba Dickey-Fuller, el cual es el modelo más simple para evaluar la presencia de raíz unitaria.

Como hipótesis nula se plantea la presencia de tendencia estocástica en las observaciones, para la hipótesis alternativa, se establece no tendencia estocástica en las observaciones.

\(\ Ho: α=1\); proceso no estacionario \(\ H1: α<1\);proceso estacionario

Sintaxis de implementacion en R

  • Paso 1: EStructura y preparacion de dato.

Para realizar la Prueba de Dickey-Fuller Aumentada se debe realizar la respectiva carga de datos que correspondan a una serie de tiempo.

  • Paso 2: Comprobar si la serie de tiempo es estacionaria

En el contexto de la prueba Dickey-Fuller hay dos condiciones para que la serie de tiempo sea estacionaria:

  • Rechazar la hipótesis nula.

  • Que el estimador alfa sea negativo.

Esto se hace mediante el estadistico de prueba:

Prob de rechazo <0.05
\(\ t̂ α̂ =α̂ /SE(α̂ )<0\)
  • Paso 3: Comprobar si la estacionariedad de la serie de tiempo mediante la prueba de Dickey-Fuller Aumentada

Se genera un modelo de regresion con las dos variables utilizando el comando (lm)y tambien se generan los residuales (errores) que son con los que trabajaremos en la prueba de ADF.

Luego de que se genra el modelo con el cual se trabajara, se procede a la aplicacion de la prueba mediante el comando adf.test de la libreria tseries, pasando como objeto los residuales, en donde muestra los resultados para el analisis correspondiente como el estadistico de prueba y valor critico.

Estadistico de Prueba

El estadístico de prueba es el \(\ estadístico t\) sobre la variable dependiente rezagada. Si \(\ α > 1\) el coeficiente de la variable dependiente rezagada será positivo. Si \(\ α\) es igual a la unidad, \(\ (α−1)\). En ambos casos \(\ xt\) será no estacionaria.

Cuando existe tendencia en una serie temporal en un modelo AR(1), el primer regresor tenderá a ser 1 o muy cercano a 1. Esto se debe a la propiedad de reversión a la media de un proceso estocástico estacionario, es decir, cuanto más cerca esté el primer coeficiente de un modelo AR(1) de 1, más tardarán las observaciones a volver al valor medio.

Criterio de Desición.

\(\ Ho: α=0\), Si no puede rechazarse la hipótesis nula, significa que (p-value > 0.05), por tanto la serie es no estacionaria y tiene raíz 1 (I(1)). La serie es Random walk = no estacionaria.

\(\ H1: α≠0\), si se rechaza la nula (p-valor<0.05) la serie es estacionaria y tiene una raíz 0 (I(0)). La serie es White noise = estacionaria

Ejemplo Dickey-Fuller Simple

#Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca.

set.seed(10)
x = rnorm(100)
w = rnorm(100)
for (i in 2:100) {
x[i] <- x[i - 1] + w[i]
}
#Graficando:

plot(x,type="l")

#Analizando raíz unitaria

library(urca)
df = ur.df(x, type="none", lags = 0)
summary(df)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.31407 -0.86346  0.07963  0.66540  2.03542 
## 
## Coefficients:
##          Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.009083   0.031521  -0.288    0.774
## 
## Residual standard error: 0.9757 on 98 degrees of freedom
## Multiple R-squared:  0.0008466,  Adjusted R-squared:  -0.009349 
## F-statistic: 0.08304 on 1 and 98 DF,  p-value: 0.7738
## 
## 
## Value of test-statistic is: -0.2882 
## 
## Critical values for test statistics: 
##      1pct  5pct 10pct
## tau1 -2.6 -1.95 -1.61

Interpretación: El valor calculado “t-value” es de 0.288 (menor) en términos absolutos a lo valores del estadístico tau, se llega a la conclusión en favor de no rechazar hipótesis nula, por lo tanto, existe raíz unitaria y la serie no es estacionaria.

#Otra forma es haciendo uso de la función adf.test() de la librería tseries.

library(tseries)
adf.test(x,k=0)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  x
## Dickey-Fuller = -1.9334, Lag order = 0, p-value = 0.6042
## alternative hypothesis: stationary

Interpretación: Dado al valor de p-value = 0.6042, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.

Ejemplo Dickey Fuller Aumentada

La prueba ADF consiste en la estimación del siguiente modelo:

\[ Δxt=β0+β1t+δx(t−1)+αi∑(i=1)m▒Δx(t−i)+εt\]

Por tanto, el contraste quedaría:

\(\ Ho: δ=0\) → Existe raíz unitaria, \(\ xt\) no es estacionaria.

\(\ H1: δ≠0\) → No existe raíz unitaria, \(\ xt\) es estacionaria.

Para hacer la estimación de dicho test, se usan las mismas funciones que para el Dickey-Fuller simple, pero especificando en el número de rezagos igual a 1.

adf = ur.df(x, type="none", lags = 1)
summary(adf)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.25453 -0.90101  0.02681  0.70255  1.97744 
## 
## Coefficients:
##            Estimate Std. Error t value Pr(>|t|)
## z.lag.1    -0.01413    0.03282  -0.430    0.668
## z.diff.lag  0.06424    0.10583   0.607    0.545
## 
## Residual standard error: 0.983 on 96 degrees of freedom
## Multiple R-squared:  0.00467,    Adjusted R-squared:  -0.01607 
## F-statistic: 0.2252 on 2 and 96 DF,  p-value: 0.7988
## 
## 
## Value of test-statistic is: -0.4304 
## 
## Critical values for test statistics: 
##      1pct  5pct 10pct
## tau1 -2.6 -1.95 -1.61

Interpretación: Se puede observar que en ambos casos, se encuentra evidencia en favor de no rechazar la hipótesis nula y esto da razón de la existencia de raíz unitaria en la serie, por lo tanto, esta es no estacionaria. Dado al valor de p-value = 0.7988, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.

2. Cointegración en el enfoque de Soreb Johansen

Propósito de la prueba, es decir ¿Para qué se usa?

El procedimiento multivariado de S. Johansen (1988 y 1991), profesor de estadística matemática de la Universidad de Copenhagen, se ha convertido en un método muy popular para probar la existencia de cointegración en la variables I(1) y I(0), en donde I(1) y I(0) indican integración de primer y cero orden, respectivamente. En la tecnología de S. Johansen, es necesario analizar las series previamente con el fin de conocer si presentan o no raíces unitarias. Las series que presenten raíces unitarias se colocan en un vector autorregresivo a partir del cual se puede probar la existencia de una o mas combinaciones lineales J(U) o vectores de cointegración, como también se les denomina. [Alonso]

\[ Y_{t} = \mu + A_{1} Y_{t-1} + V_{t} \]

Transformamos el modelo restando \(Y_{t-1}\) en ambos lados

\[ Y_{t} - Y_{t-1} = \mu + A_{1} Y_{t-1} - Y_{t-1} + V_{t} \]

Luego se agrupan las variables

\[ \Delta Y_{t} = \mu + AY_{t-1} + V_{t} \]

Donde:

\[ A = - I + A_{1} \]

A es, por tanto, un Vector de Corrección de Error: Por ello, el modelo es un Mecanismo de Corrección de Error Vectorial (VECM). [EconometriaR]

Hipotesis de la prueba

Para contrastar la hipótesis nula de que hay como maximo r vectores de cointegración frente a la alternativa de que hay m, \(r \leq m\), el contraste de razon verisimil viene dado por los estadisticos de la traza y de la raíz máxima

Permite probar la hipotesis nula y que el número de vectores de cointegración es M(número de variables en el vector estudiado)

\[Traza = -2LnQ = -T \sum_{i=r+1}^{m}(1-\lambda _{i})\]

Permite comprobar la hipotesis nula y que el numero de vectores de cointegración es r a diferencia de la alternativa que el número de cointegración es r+1

\[Raíz máxima = \lambda _{r}^{max} = -T * Ln(1-\lambda _{r})\]

Sintanxis de implementación en R, explicando cada uno de los argumentos

ca.jo(x, type = c(“eigen”, “trace”), ecdet = c(“none”, “const”, “trend”), K = 2, spec=c(“longrun”, “transitory”), season = NULL, dumvar = NULL)

  • x = Matriz de datos para investigar la cointegración

  • type = La prueba que debe realizarse, ya sea “eigen” o “trace”

  • ecdet = carácter, ‘none’ para no interceptar en cointegración, ‘const’ para término constante en cointegración y ‘trend’ para variable de tendencia en cointegración

  • K = El orden de demora de las series (niveles) en el VAR

  • spec = Determina la especificación del VECM

  • season = Si se incluyen variables estacionales ficticias, la frecuencia de los datos debe ajustarse en consecuencia, es decir, “4” para datos trimestrales

  • dumvar = Si se deben incluir variables ficticias, puede presentar una matriz con una dimensión de fila igual a x. [@Pfaff_2022]

Estadistico de prueba

En la tabla se muestran los estadisticos de prueba y los valores criticos que son 10%, 5% y 1%, en ese caso se suele utilizar el valor critico del 5% como referencia para aceptar o rechazar la hipotesis nula.

Criterio de decisión

En caso de rechazar la hipótesis nula, se contrasta ahora \(H_{0}: r=1\) frente a la alternativa \(H_{1}: r=2\), y así sucecivamente hasta el momento en que no se rechaza \(H_{0}\) o bien hasta que se tuviera que aceptar la hipótesis alternativa de r=m

Interpretación del rechazo, o no rechazo de la hipotesis nula de la prueba

  • $ H_{0}: r=0 $ <- No existe ninguna relación de cointegración

  • $ H_{1}: r=m $ <- Existe cointegración, por lo tanto \(Y_{t}\) es estacionario

Ejemplo

Ejercicio tomado del canal de youtube de Justin Eloriaga. [@YouTube_2020]

library(urca)
library(forecast)
library(tidyverse)
library(readr)
Datos <- read_csv("VECM_LectureNotes.csv")
head(Datos)
## # A tibble: 6 × 15
##     CPI Date     GDP lnCPI lnGDP    M4    M3    M1  lnM4  lnM3  lnM1    M2  lnM2
##   <dbl> <chr>  <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1  64.6 1/31… 1.84e6  4.17  14.4 10.2   6.57 19.0   2.32  1.88  2.94  6.73  1.91
## 2  65.1 5/1/… 1.93e6  4.18  14.5  8.97  5.63 12.2   2.19  1.73  2.50  5.73  1.75
## 3  65.5 8/1/… 1.91e6  4.18  14.5  6.93  4.4   9.87  1.94  1.48  2.29  4.3   1.46
## 4  65.7 10/3… 2.16e6  4.19  14.6  5.17  4     8.7   1.64  1.39  2.16  3.93  1.37
## 5  66.5 1/31… 1.97e6  4.20  14.5  5.47  5.3  10.8   1.70  1.67  2.38  5.3   1.67
## 6  67.4 5/1/… 2.08e6  4.21  14.5  6.2   5.37 12.3   1.82  1.68  2.51  5.33  1.67
## # ℹ 2 more variables: Consumption <dbl>, lnConsumption <dbl>

Crear las variables de series temporales

GDP <- ts(Datos$lnGDP, start = c(2003,1,31), frequency = 4)
CPI <- ts(Datos$lnCPI, start = c(2003,1,31), frequency = 4)
M3 <- ts(Datos$lnM3, start = c(2003,1,31), frequency = 4)

Vincular las variables de series temporales en un objeto y seleccionar los lags

library(vars)

dset <- cbind(GDP,CPI,M3)
lagselect <- VARselect(dset, lag.max = 7, type = "const")
lagselect$selection
## AIC(n)  HQ(n)  SC(n) FPE(n) 
##      6      5      4      5

4. lags son los optimos para utilizar

Traza

ctest1t <- ca.jo(dset, type = "trace", ecdet = "const", K = 4)
summary(ctest1t)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: trace statistic , without linear trend and constant in cointegration 
## 
## Eigenvalues (lambda):
## [1]  7.408536e-01  2.831294e-01  1.143077e-01 -5.050117e-16
## 
## Values of teststatistic and critical values of test:
## 
##            test 10pct  5pct  1pct
## r <= 2 |   7.89  7.52  9.24 12.97
## r <= 1 |  29.53 17.85 19.96 24.60
## r = 0  | 117.30 32.00 34.91 41.07
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##              GDP.l4    CPI.l4      M3.l4     constant
## GDP.l4    1.0000000  1.000000  1.0000000  1.000000000
## CPI.l4   -1.9652971 -3.401060 -2.3478809 -1.258575716
## M3.l4     0.1534219 -5.703423  0.1823729 -0.004795708
## constant -4.2100503 15.387818 -4.6126235 -9.216460807
## 
## Weights W:
## (This is the loading matrix)
## 
##             GDP.l4        CPI.l4       M3.l4      constant
## GDP.d  0.027782440 -4.455686e-05 -0.01509218 -4.204658e-13
## CPI.d  0.001718154  5.843056e-04  0.01124142 -5.526204e-13
## M3.d  -0.022303210  5.927883e-02 -0.28911043  7.595893e-12
  • r= 0 <- 117.30 es mayor que 34.91 entonces se rechaza la hipotesis nula y existe cointegración

  • r= 1 <- 29.53 es mayor a 19.96, por lo tanto se rechaza la hipotesis nula.

  • r = 2 <- 7.89 es menor a 9.24, por lo tanto no se rechaza la hipotesis nula

Se puede concluir que hay 2 relaciones de cointegración en el modelo

Raiz Maxima

ctest1e <- ca.jo(dset, type = "eigen", ecdet = "const", K = 4)
summary(ctest1e)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration 
## 
## Eigenvalues (lambda):
## [1]  7.408536e-01  2.831294e-01  1.143077e-01 -5.050117e-16
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 2 |  7.89  7.52  9.24 12.97
## r <= 1 | 21.64 13.75 15.67 20.20
## r = 0  | 87.77 19.77 22.00 26.81
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##              GDP.l4    CPI.l4      M3.l4     constant
## GDP.l4    1.0000000  1.000000  1.0000000  1.000000000
## CPI.l4   -1.9652971 -3.401060 -2.3478809 -1.258575716
## M3.l4     0.1534219 -5.703423  0.1823729 -0.004795708
## constant -4.2100503 15.387818 -4.6126235 -9.216460807
## 
## Weights W:
## (This is the loading matrix)
## 
##             GDP.l4        CPI.l4       M3.l4      constant
## GDP.d  0.027782440 -4.455686e-05 -0.01509218 -4.204658e-13
## CPI.d  0.001718154  5.843056e-04  0.01124142 -5.526204e-13
## M3.d  -0.022303210  5.927883e-02 -0.28911043  7.595893e-12
  • r = 0 <- 87.77 es mayor a 22.00 por lo tanto, se rechaza la hipotesis nula y existe cointegración

  • r = 1 <- 21.64 es mayor a 15.67 por lo tanto, se rechaza la hipotesis nula y existe cointegración

  • r = 2 <- 7.89 es menor a 9.24 por lo tanto no se rechaza la hipotesis nula

Se concluye que hay 2 relaciones de cointegración en el modelo, al igual que en la prueba de la traza.

3. Casualidad en el sentido de Granger

Propósito de la prueba, es decir ¿Para qué se usa?

Es un test que consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal X predice la conducta de una serie temporal Y. Si ocurre el hecho, se dice que “el resultado X” causa en el sentido de Granger “el resultado Y”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado Y” predice “el resultado X,” el comportamiento es bidireccional, entonces “el resultado X” causa “el resultado Y,” y “el resultado Y” causa “el resultado X.”

De modo más general, como el futuro no puede predecir el pasado, si la variable X (a la manera de Granger) causa la variable Y, los cambios en X deben preceder a los cambios en Y. Por consiguiente, en una regresión de Y sobre otras variables (con sus propios valores pasados), si incluimos valores pasados o rezagados de X y esto mejora significativamente la predicción de Y, podemos decir que X (a la manera de Granger) causa Y. (Gujarati and Porter 2010).

Granger Plantea dos ecuaciones:

\[X_t=\alpha_0+\alpha_1X_{t-1}+\alpha_2X_{t-2}+\ldots+\alpha_iX_{t-i}+\beta_1Y_{t-1}+\beta_2Y_{t-2}+\ldots+\beta_iY_{t-i}+U_{1t}\] \[Y_t=\delta_0+\delta_1X_{t-1}+\delta_2X_{t-2}+\ldots+\delta_iX_{t-i}+\theta_1Y_{t-1}+\theta_2Y_{t-2}+\ldots+\theta_iY_{t-i}+U_{2t}\]

Las variables x y y deben ser estacionarias. Entonces, para probar que x no está Granger causando a Y, se debe examinar si los valores rezagados de X en la regresión de Y sobre los valores rezagados de x e y reduce significativamente el error de varianza.

Asúmase que se tiene un proceso autorregresivo de orden p, tanto en x como en y.

Para poder usar los métodos de mínimos cuadrados ordinarios (MCO), la siguiente ecuación debe ser estimada:

\[X_t=\alpha_0+\alpha_1X_{t-1}+\alpha_2X_{t-2}+\ldots+\alpha_iX_{t-i}+\beta_1Y_{t-1}+\beta_2Y_{t-2}+\ldots+\beta_iY_{t-i}+U_{1t}\]

Usualmente esta ecuación recibe el nombre de regresión no restringida.

La ecuacion anterior es un modelo que plantea que la variable Y causa en el sentido de Granger a la variable X

Hipótesis de la prueba. (explique el porqué de las hipótesis Nula y Alternativa)

Esta prueba genera una estadística de prueba F junto con un valor p.

La Hipotesis Nula \(H_0\)

Si la serie de tiempo Y no causa en el sentido de granger a la serie de tiempo X, entonces \(\ \beta_1,\ \beta_2,\beta_i\) serán cero: \[H_0:\ \beta_1=\beta_2=\ldots=\beta_i=0\]

La hipótesis alternativa \(H_1\)

Si la serie de tiempo Y causa en el sentido de granger a la serie de tiempo X, entonces \(\ \beta_1,\ \beta_2,\beta_i\) serán distintos de cero: \[H_1:\ \beta_1\neq\beta_2=\ldots\neq\beta_i\neq0\]

Sintaxis de implementación en R, explicando cada uno de los argumentos.

En R, podemos usar la función grangertest () del paquete lmtest para realizar una prueba Granger-Causality, que tiene la siguiente sintaxis:

\[grangertest( X, Y, orden = 1 )\]

Dónde:

  • X: Esta es la primera serie temporal.

  • Y: el segundo conjunto de la serie temporal

Orden: en la primera serie de tiempo, el número de retrasos a utilizar. El valor predeterminado es 1.

Estadístico de prueba (haga referencia en la salida que genera R)

Una forma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresión no restringida (URSS, por sus siglas en inglés).

\[URSS\ =\ \sum_{t=1}^{n}{\hat{u}}_t^2\]

y compararla con la suma de residuales al cuadrado de una autorregresión univariada no restringida para X_t , (RRSS, por sus siglas en inglés)

\[RRSS\ =\ \sum_{t=1}^{n}{\hat{e}}_t^2\] Que surge de la ecuacion.

\[X_t=\gamma_0+\gamma_1X_{t-1}+\gamma_2X_{t-2}+\ldots+\gamma_iX_{t-i}+e_t\]

Usualmente la ecuación recibe el nombre de regresión restringida.

El Estadístico de prueba es el siguiente

\[F\equiv\frac{(RRSS-URSS/m)\ }{URSS/(n-k)}\]

Donde los grados de libertad son m : es el numero de términos rezagados de Y, y k es el número de parámetros estimados en la regresión no restringida.

La prueba de causalidad en el sentido de Granger se calcula con la función grangertest() en R. En la presentacion de resultados el Estadistico de Prueba tiene la notacion F .

Criterio de decisión (haga referencia en la salida que genera R)

Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico \[Rechazar\ Ho\ si\ F>\ F(i,\ n-k)\]

En la salida o presentacion de resultados de la prueba de causalidad de Granger en R no se presenta el valor critico, pero si el valor-p. El criterio de decision utilizando el valor-p es:

\[Rechazar\ Ho\ si\ valor\ p <\alpha\]

  • El valor-p en la salida tiene la notacion Pr(>F)

Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba.

  • Si se rechaza Ho, existe evidencia suficiente para decir que La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger.

  • Si no se rechaza Ho, existe evidencia de que La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger.

Implementación de un ejemplo.

  • H0: :“Conocer el numero de pollos no es util para predecir el numero futuro de huevos.”

  • H1: “Conocer el numero de huevos es util para predecir el numero futuro de pollos.”

library(lmtest)
data(ChickEgg)
head(ChickEgg)
## Time Series:
## Start = 1930 
## End = 1935 
## Frequency = 1 
##      chicken  egg
## 1930  468491 3581
## 1931  449743 3532
## 1932  436815 3327
## 1933  444523 3255
## 1934  433937 3156
## 1935  389958 3081

Usando la función grangertest() para realizar una prueba de causalidad de Granger para ver si el número de huevos fabricados es predictivo del número futuro de pollos. Ejecutaremos la prueba usando tres retardos:

grangertest(chicken ~ egg, order = 3, data = ChickEgg)
## Granger causality test
## 
## Model 1: chicken ~ Lags(chicken, 1:3) + Lags(egg, 1:3)
## Model 2: chicken ~ Lags(chicken, 1:3)
##   Res.Df Df     F   Pr(>F)   
## 1     44                     
## 2     47 -3 5.405 0.002966 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
  • Como 0.002966< 0.05 Se rechaza la H0, por lo tanto se concluye que conocer el numero de huevos es util para predecir el numero futuro de pollos.

Prueba de casualidad de Granger a la inversa.

Aunque rechazamos la hipótesis nula de la prueba, en realidad es posible que haya un caso de causalidad inversa. Es decir, es posible que el número de pollos esté haciendo que el número de huevos cambie.

Para descartar esta posibilidad, necesitamos realizar la prueba de Causalidad de Granger a la inversa, utilizando pollos como variable predictora y huevos como variable de respuesta:

grangertest(egg ~ chicken, order = 3, data = ChickEgg)
## Granger causality test
## 
## Model 1: egg ~ Lags(egg, 1:3) + Lags(chicken, 1:3)
## Model 2: egg ~ Lags(egg, 1:3)
##   Res.Df Df      F Pr(>F)
## 1     44                 
## 2     47 -3 0.5916 0.6238
  • Como 0,6238 > 0.05, No se rechaza la H0, por lo que podemos decir que el número de pollos no es predictivo del número futuro de huevos.

Por lo tanto, podemos concluir que conocer el número de huevos es útil para predecir el número futuro de pollos.

Bibliografia

“Bienvenido a Econometria Aplicada Utilizando r.” n.d. http://saree.com.mx/econometriaR/. Network. Comprehensive R Archive Network (CRAN). https://cran.rstudio.com/web/packages/urca/ Alonso, Julio César. n.d. TUTORIAL PARA REALIZAR LA PRUEBA DE COINTEGRACIÓN DE JOHANSEN EMPLEANDO EASYREG. https://www.icesi.edu.co/departamentos/images/departamentos/FCAE/economia/apuntesEconomia/TUTORIAL_PARA_REALIZAR_LA_PRUEBA_DE_COINTEGRACION_DE_JOHANSEN_EMPLEANDO_EASYREG.pdf . ———. n.d. Studocu. https://www.studocu.com/es-mx/document/universidad-mesoamericana-de-san-agustin/detalle-tecnico/johansen/2217883.