<>
| Apellidos | Nombres | DUE | Participación |
|---|---|---|---|
| Álvarez Pineda | Heidy Judith | AP18017 | 100% |
| Hernández García | Estefany Azucena | HG20004 | 100% |
| Hernandez Gutierrez | German Alejandro | HG19046 | 100% |
| Mendez Carrillo | Jairo Rodrigo | MC19167 | 100% |
| Lemus Perez | Elias Amilcar | LP16016 | 100% |
1. Prueba de Raíz Unitaria de Dickey & Fuller.
Proposito de la prueba
Llamada de esta forma por los estadísticos estadounidenses David Dickey y Wayne Fuller. Esta prueba de raíz única, detecta estadísticamente la presencia de conducta tendencial que estocástica en las series temporales de las variables a través de contrastar las hipótesis.
Este contraste permite saber o conocer si existe presencia significativa de tendencia en las series temporales de las variables.
Paula Rodó, 30 de julio, 2019 Contraste de Dickey-Fuller.Economipedia.com.
En otras palabras, la prueba se utiliza para determinar si una raíz unitaria se encuentra presente en un modelo autorregresivo.
Es importante destacar que, los mismos estadísticos ampliaron su prueba básica de raíz unitaria autorregresiva, para que pudiera adaptarse a modelos con mayor complejidad (Prueba Dickey-Fuller aumentada), que es la que prueba una raíz unitaria en una muestra de serie temporal.
Hipótesis de la prueba
Una variable simple autorregresiva tiene la forma \(\ xt=α x(t−1)+εt\) Si sustraemos $ (t−1)$ de ambos lados el resultado es:
\[Δxt=(α−1)x(t−1)+εt\]
La cual es la base de la prueba Dickey-Fuller, el cual es el modelo más simple para evaluar la presencia de raíz unitaria.
Como hipótesis nula se plantea la presencia de tendencia estocástica en las observaciones, para la hipótesis alternativa, se establece no tendencia estocástica en las observaciones.
\(\ Ho: α=1\); proceso no estacionario \(\ H1: α<1\);proceso estacionario
Sintaxis de implementacion en R
- Paso 1: EStructura y preparacion de dato.
Para realizar la Prueba de Dickey-Fuller Aumentada se debe realizar la respectiva carga de datos que correspondan a una serie de tiempo.
- Paso 2: Comprobar si la serie de tiempo es estacionaria
En el contexto de la prueba Dickey-Fuller hay dos condiciones para que la serie de tiempo sea estacionaria:
Rechazar la hipótesis nula.
Que el estimador alfa sea negativo.
Esto se hace mediante el estadistico de prueba:
Paso 3: Comprobar si la estacionariedad de la serie de tiempo mediante la prueba de Dickey-Fuller Aumentada
Se genera un modelo de regresion con las dos variables utilizando el comando (lm)y tambien se generan los residuales (errores) que son con los que trabajaremos en la prueba de ADF.
Luego de que se genra el modelo con el cual se trabajara, se procede a la aplicacion de la prueba mediante el comando adf.test de la libreria tseries, pasando como objeto los residuales, en donde muestra los resultados para el analisis correspondiente como el estadistico de prueba y valor critico.
Estadistico de Prueba
El estadístico de prueba es el \(\ estadístico t\) sobre la variable dependiente rezagada. Si \(\ α > 1\) el coeficiente de la variable dependiente rezagada será positivo. Si \(\ α\) es igual a la unidad, \(\ (α−1)\). En ambos casos \(\ xt\) será no estacionaria.
Cuando existe tendencia en una serie temporal en un modelo AR(1), el primer regresor tenderá a ser 1 o muy cercano a 1. Esto se debe a la propiedad de reversión a la media de un proceso estocástico estacionario, es decir, cuanto más cerca esté el primer coeficiente de un modelo AR(1) de 1, más tardarán las observaciones a volver al valor medio.
Criterio de Desición.
\(\ Ho: α=0\), Si no puede rechazarse la hipótesis nula, significa que (p-value > 0.05), por tanto la serie es no estacionaria y tiene raíz 1 (I(1)). La serie es Random walk = no estacionaria.
\(\ H1: α≠0\), si se rechaza la nula (p-valor<0.05) la serie es estacionaria y tiene una raíz 0 (I(0)). La serie es White noise = estacionaria
Ejemplo Dickey-Fuller Simple
#Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca.
set.seed(10)
x = rnorm(100)
w = rnorm(100)
for (i in 2:100) {
x[i] <- x[i - 1] + w[i]
}##
## ###############################################
## # Augmented Dickey-Fuller Test Unit Root Test #
## ###############################################
##
## Test regression none
##
##
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2.31407 -0.86346 0.07963 0.66540 2.03542
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.009083 0.031521 -0.288 0.774
##
## Residual standard error: 0.9757 on 98 degrees of freedom
## Multiple R-squared: 0.0008466, Adjusted R-squared: -0.009349
## F-statistic: 0.08304 on 1 and 98 DF, p-value: 0.7738
##
##
## Value of test-statistic is: -0.2882
##
## Critical values for test statistics:
## 1pct 5pct 10pct
## tau1 -2.6 -1.95 -1.61
Interpretación: El valor calculado “t-value” es de 0.288 (menor) en términos absolutos a lo valores del estadístico tau, se llega a la conclusión en favor de no rechazar hipótesis nula, por lo tanto, existe raíz unitaria y la serie no es estacionaria.
#Otra forma es haciendo uso de la función adf.test() de la librería tseries.
library(tseries)
adf.test(x,k=0)##
## Augmented Dickey-Fuller Test
##
## data: x
## Dickey-Fuller = -1.9334, Lag order = 0, p-value = 0.6042
## alternative hypothesis: stationary
Interpretación: Dado al valor de p-value = 0.6042, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.
Ejemplo Dickey Fuller Aumentada
La prueba ADF consiste en la estimación del siguiente modelo:
\[ Δxt=β0+β1t+δx(t−1)+αi∑(i=1)m▒Δx(t−i)+εt\]
Por tanto, el contraste quedaría:
\(\ Ho: δ=0\) → Existe raíz unitaria, \(\ xt\) no es estacionaria.
\(\ H1: δ≠0\) → No existe raíz unitaria, \(\ xt\) es estacionaria.
Para hacer la estimación de dicho test, se usan las mismas funciones que para el Dickey-Fuller simple, pero especificando en el número de rezagos igual a 1.
##
## ###############################################
## # Augmented Dickey-Fuller Test Unit Root Test #
## ###############################################
##
## Test regression none
##
##
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2.25453 -0.90101 0.02681 0.70255 1.97744
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.01413 0.03282 -0.430 0.668
## z.diff.lag 0.06424 0.10583 0.607 0.545
##
## Residual standard error: 0.983 on 96 degrees of freedom
## Multiple R-squared: 0.00467, Adjusted R-squared: -0.01607
## F-statistic: 0.2252 on 2 and 96 DF, p-value: 0.7988
##
##
## Value of test-statistic is: -0.4304
##
## Critical values for test statistics:
## 1pct 5pct 10pct
## tau1 -2.6 -1.95 -1.61
Interpretación: Se puede observar que en ambos casos, se encuentra evidencia en favor de no rechazar la hipótesis nula y esto da razón de la existencia de raíz unitaria en la serie, por lo tanto, esta es no estacionaria. Dado al valor de p-value = 0.7988, y por tanto, > 0.05; existe evidencia en favor de no rechazar hipótesis nula, concluyendo así que la serie no es estacionaria.
2. Cointegración en el enfoque de Soreb Johansen
Propósito de la prueba, es decir ¿Para qué se usa?
El procedimiento multivariado de S. Johansen (1988 y 1991), profesor de estadística matemática de la Universidad de Copenhagen, se ha convertido en un método muy popular para probar la existencia de cointegración en la variables I(1) y I(0), en donde I(1) y I(0) indican integración de primer y cero orden, respectivamente. En la tecnología de S. Johansen, es necesario analizar las series previamente con el fin de conocer si presentan o no raíces unitarias. Las series que presenten raíces unitarias se colocan en un vector autorregresivo a partir del cual se puede probar la existencia de una o mas combinaciones lineales J(U) o vectores de cointegración, como también se les denomina.
\[ Y_{t} = \mu + A_{1} Y_{t-1} + V_{t} \]
Transformamos el modelo restando \(Y_{t-1}\) en ambos lados
\[ Y_{t} - Y_{t-1} = \mu + A_{1} Y_{t-1} - Y_{t-1} + V_{t} \]
Luego se agrupan las variables
\[ \Delta Y_{t} = \mu + AY_{t-1} + V_{t} \]
Donde:
\[ A = - I + A_{1} \]
A es, por tanto, un Vector de Corrección de Error: Por ello, el modelo es un Mecanismo de Corrección de Error Vectorial (VECM).
Hipotesis de la prueba
Para contrastar la hipótesis nula de que hay como maximo r vectores de cointegración frente a la alternativa de que hay m, \(r \leq m\), el contraste de razon verisimil viene dado por los estadisticos de la traza y de la raíz máxima
Permite probar la hipotesis nula y que el número de vectores de cointegración es M(número de variables en el vector estudiado)
\[Traza = -2LnQ = -T \sum_{i=r+1}^{m}(1-\lambda _{i})\]
Permite comprobar la hipotesis nula y que el numero de vectores de cointegración es r a diferencia de la alternativa que el número de cointegración es r+1
\[Raíz máxima = \lambda _{r}^{max} = -T * Ln(1-\lambda _{r})\]
Sintanxis de implementación en R, explicando cada uno de los argumentos
ca.jo(x, type = c(“eigen”, “trace”), ecdet = c(“none”, “const”, “trend”), K = 2, spec=c(“longrun”, “transitory”), season = NULL, dumvar = NULL)
x = Matriz de datos para investigar la cointegración
type = La prueba que debe realizarse, ya sea “eigen” o “trace”
ecdet = carácter, ‘none’ para no interceptar en cointegración, ‘const’ para término constante en cointegración y ‘trend’ para variable de tendencia en cointegración
K = El orden de demora de las series (niveles) en el VAR
spec = Determina la especificación del VECM
season = Si se incluyen variables estacionales ficticias, la frecuencia de los datos debe ajustarse en consecuencia, es decir, “4” para datos trimestrales
dumvar = Si se deben incluir variables ficticias, puede presentar una matriz con una dimensión de fila igual a x.
Estadistico de prueba
En la tabla se muestran los estadisticos de prueba y los valores criticos que son 10%, 5% y 1%, en ese caso se suele utilizar el valor critico del 5% como referencia para aceptar o rechazar la hipotesis nula.
Criterio de decisión
En caso de rechazar la hipótesis nula, se contrasta ahora \(H_{0}: r=1\) frente a la alternativa \(H_{1}: r=2\), y así sucecivamente hasta el momento en que no se rechaza \(H_{0}\) o bien hasta que se tuviera que aceptar la hipótesis alternativa de r=m
Interpretación del rechazo, o no rechazo de la hipotesis nula de la prueba
$ H_{0}: r=0 $ <- No existe ninguna relación de cointegración
$ H_{1}: r=m $ <- Existe cointegración, por lo tanto \(Y_{t}\) es estacionario
Ejemplo
Ejercicio tomado del canal de youtube de Justin Eloriaga.
library(urca)
library(forecast)
library(tidyverse)
library(readr)
Datos <- read_csv("VECM_LectureNotes.csv")
head(Datos)## # A tibble: 6 × 15
## CPI Date GDP lnCPI lnGDP M4 M3 M1 lnM4 lnM3 lnM1 M2 lnM2
## <dbl> <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 64.6 1/31… 1.84e6 4.17 14.4 10.2 6.57 19.0 2.32 1.88 2.94 6.73 1.91
## 2 65.1 5/1/… 1.93e6 4.18 14.5 8.97 5.63 12.2 2.19 1.73 2.50 5.73 1.75
## 3 65.5 8/1/… 1.91e6 4.18 14.5 6.93 4.4 9.87 1.94 1.48 2.29 4.3 1.46
## 4 65.7 10/3… 2.16e6 4.19 14.6 5.17 4 8.7 1.64 1.39 2.16 3.93 1.37
## 5 66.5 1/31… 1.97e6 4.20 14.5 5.47 5.3 10.8 1.70 1.67 2.38 5.3 1.67
## 6 67.4 5/1/… 2.08e6 4.21 14.5 6.2 5.37 12.3 1.82 1.68 2.51 5.33 1.67
## # ℹ 2 more variables: Consumption <dbl>, lnConsumption <dbl>
Crear las variables de series temporales
GDP <- ts(Datos$lnGDP, start = c(2003,1,31), frequency = 4)
CPI <- ts(Datos$lnCPI, start = c(2003,1,31), frequency = 4)
M3 <- ts(Datos$lnM3, start = c(2003,1,31), frequency = 4)Vincular las variables de series temporales en un objeto y seleccionar los lags
library(vars)
dset <- cbind(GDP,CPI,M3)
lagselect <- VARselect(dset, lag.max = 7, type = "const")
lagselect$selection## AIC(n) HQ(n) SC(n) FPE(n)
## 6 5 4 5
4. lags son los optimos para utilizar
Traza
##
## ######################
## # Johansen-Procedure #
## ######################
##
## Test type: trace statistic , without linear trend and constant in cointegration
##
## Eigenvalues (lambda):
## [1] 7.408536e-01 2.831294e-01 1.143077e-01 -5.050117e-16
##
## Values of teststatistic and critical values of test:
##
## test 10pct 5pct 1pct
## r <= 2 | 7.89 7.52 9.24 12.97
## r <= 1 | 29.53 17.85 19.96 24.60
## r = 0 | 117.30 32.00 34.91 41.07
##
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
##
## GDP.l4 CPI.l4 M3.l4 constant
## GDP.l4 1.0000000 1.000000 1.0000000 1.000000000
## CPI.l4 -1.9652971 -3.401060 -2.3478809 -1.258575716
## M3.l4 0.1534219 -5.703423 0.1823729 -0.004795708
## constant -4.2100503 15.387818 -4.6126235 -9.216460807
##
## Weights W:
## (This is the loading matrix)
##
## GDP.l4 CPI.l4 M3.l4 constant
## GDP.d 0.027782440 -4.455686e-05 -0.01509218 -4.204658e-13
## CPI.d 0.001718154 5.843056e-04 0.01124142 -5.526204e-13
## M3.d -0.022303210 5.927883e-02 -0.28911043 7.595893e-12
r= 0 <- 117.30 es mayor que 34.91 entonces se rechaza la hipotesis nula y existe cointegración
r= 1 <- 29.53 es mayor a 19.96, por lo tanto se rechaza la hipotesis nula.
r = 2 <- 7.89 es menor a 9.24, por lo tanto no se rechaza la hipotesis nula
Se puede concluir que hay 2 relaciones de cointegración en el modelo
Raiz Maxima
##
## ######################
## # Johansen-Procedure #
## ######################
##
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration
##
## Eigenvalues (lambda):
## [1] 7.408536e-01 2.831294e-01 1.143077e-01 -5.050117e-16
##
## Values of teststatistic and critical values of test:
##
## test 10pct 5pct 1pct
## r <= 2 | 7.89 7.52 9.24 12.97
## r <= 1 | 21.64 13.75 15.67 20.20
## r = 0 | 87.77 19.77 22.00 26.81
##
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
##
## GDP.l4 CPI.l4 M3.l4 constant
## GDP.l4 1.0000000 1.000000 1.0000000 1.000000000
## CPI.l4 -1.9652971 -3.401060 -2.3478809 -1.258575716
## M3.l4 0.1534219 -5.703423 0.1823729 -0.004795708
## constant -4.2100503 15.387818 -4.6126235 -9.216460807
##
## Weights W:
## (This is the loading matrix)
##
## GDP.l4 CPI.l4 M3.l4 constant
## GDP.d 0.027782440 -4.455686e-05 -0.01509218 -4.204658e-13
## CPI.d 0.001718154 5.843056e-04 0.01124142 -5.526204e-13
## M3.d -0.022303210 5.927883e-02 -0.28911043 7.595893e-12
r = 0 <- 87.77 es mayor a 22.00 por lo tanto, se rechaza la hipotesis nula y existe cointegración
r = 1 <- 21.64 es mayor a 15.67 por lo tanto, se rechaza la hipotesis nula y existe cointegración
r = 2 <- 7.89 es menor a 9.24 por lo tanto no se rechaza la hipotesis nula
Se concluye que hay 2 relaciones de cointegración en el modelo, al igual que en la prueba de la traza.
3. Casualidad en el sentido de Granger
Propósito de la prueba, es decir ¿Para qué se usa?
Es un test que consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal X predice la conducta de una serie temporal Y. Si ocurre el hecho, se dice que “el resultado X” causa en el sentido de Granger “el resultado Y”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado Y” predice “el resultado X,” el comportamiento es bidireccional, entonces “el resultado X” causa “el resultado Y,” y “el resultado Y” causa “el resultado X.”
De modo más general, como el futuro no puede predecir el pasado, si la variable X (a la manera de Granger) causa la variable Y, los cambios en X deben preceder a los cambios en Y. Por consiguiente, en una regresión de Y sobre otras variables (con sus propios valores pasados), si incluimos valores pasados o rezagados de X y esto mejora significativamente la predicción de Y, podemos decir que X (a la manera de Granger) causa Y. (Gujarati and Porter 2010).
Granger Plantea dos ecuaciones:
\[X_t=\alpha_0+\alpha_1X_{t-1}+\alpha_2X_{t-2}+\ldots+\alpha_iX_{t-i}+\beta_1Y_{t-1}+\beta_2Y_{t-2}+\ldots+\beta_iY_{t-i}+U_{1t}\] \[Y_t=\delta_0+\delta_1X_{t-1}+\delta_2X_{t-2}+\ldots+\delta_iX_{t-i}+\theta_1Y_{t-1}+\theta_2Y_{t-2}+\ldots+\theta_iY_{t-i}+U_{2t}\]
Las variables x y y deben ser estacionarias. Entonces, para probar que x no está Granger causando a Y, se debe examinar si los valores rezagados de X en la regresión de Y sobre los valores rezagados de x e y reduce significativamente el error de varianza.
Asúmase que se tiene un proceso autorregresivo de orden p, tanto en x como en y.
Para poder usar los métodos de mínimos cuadrados ordinarios (MCO), la siguiente ecuación debe ser estimada:
\[X_t=\alpha_0+\alpha_1X_{t-1}+\alpha_2X_{t-2}+\ldots+\alpha_iX_{t-i}+\beta_1Y_{t-1}+\beta_2Y_{t-2}+\ldots+\beta_iY_{t-i}+U_{1t}\]
Usualmente esta ecuación recibe el nombre de regresión no restringida.
La ecuacion anterior es un modelo que plantea que la variable Y causa en el sentido de Granger a la variable X
Hipótesis de la prueba. (explique el porqué de las hipótesis Nula y Alternativa)
Esta prueba genera una estadística de prueba F junto con un valor p.
La Hipotesis Nula \(H_0\)
Si la serie de tiempo Y no causa en el sentido de granger a la serie de tiempo X, entonces \(\ \beta_1,\ \beta_2,\beta_i\) serán cero: \[H_0:\ \beta_1=\beta_2=\ldots=\beta_i=0\]
La hipótesis alternativa \(H_1\)
Si la serie de tiempo Y causa en el sentido de granger a la serie de tiempo X, entonces \(\ \beta_1,\ \beta_2,\beta_i\) serán distintos de cero: \[H_1:\ \beta_1\neq\beta_2=\ldots\neq\beta_i\neq0\]
Sintaxis de implementación en R, explicando cada uno de los argumentos.
En R, podemos usar la función grangertest () del paquete lmtest para realizar una prueba Granger-Causality, que tiene la siguiente sintaxis:
\[grangertest( X, Y, orden = 1 )\]
Dónde:
X: Esta es la primera serie temporal.
Y: el segundo conjunto de la serie temporal
Orden: en la primera serie de tiempo, el número de retrasos a utilizar. El valor predeterminado es 1.
Estadístico de prueba (haga referencia en la salida que genera R)
Una forma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresión no restringida (URSS, por sus siglas en inglés).
\[URSS\ =\ \sum_{t=1}^{n}{\hat{u}}_t^2\]
y compararla con la suma de residuales al cuadrado de una autorregresión univariada no restringida para X_t , (RRSS, por sus siglas en inglés)
\[RRSS\ =\ \sum_{t=1}^{n}{\hat{e}}_t^2\] Que surge de la ecuacion.
\[X_t=\gamma_0+\gamma_1X_{t-1}+\gamma_2X_{t-2}+\ldots+\gamma_iX_{t-i}+e_t\]
Usualmente la ecuación recibe el nombre de regresión restringida.
El Estadístico de prueba es el siguiente
\[F\equiv\frac{(RRSS-URSS/m)\ }{URSS/(n-k)}\]
Donde los grados de libertad son m : es el numero de términos rezagados de Y, y k es el número de parámetros estimados en la regresión no restringida.
La prueba de causalidad en el sentido de Granger se calcula con la función grangertest() en R. En la presentacion de resultados el Estadistico de Prueba tiene la notacion F .
Criterio de decisión (haga referencia en la salida que genera R)
Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico \[Rechazar\ Ho\ si\ F>\ F(i,\ n-k)\]
En la salida o presentacion de resultados de la prueba de causalidad de Granger en R no se presenta el valor critico, pero si el valor-p. El criterio de decision utilizando el valor-p es:
\[Rechazar\ Ho\ si\ valor\ p <\alpha\]
- El valor-p en la salida tiene la notacion Pr(>F)
Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba.
Si se rechaza Ho, existe evidencia suficiente para decir que La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger.
Implementación de un ejemplo.
H0: :“Conocer el numero de pollos no es util para predecir el numero futuro de huevos.”
H1: “Conocer el numero de huevos es util para predecir el numero futuro de pollos.”
## Time Series:
## Start = 1930
## End = 1935
## Frequency = 1
## chicken egg
## 1930 468491 3581
## 1931 449743 3532
## 1932 436815 3327
## 1933 444523 3255
## 1934 433937 3156
## 1935 389958 3081
Usando la función grangertest() para realizar una prueba de causalidad de Granger para ver si el número de huevos fabricados es predictivo del número futuro de pollos. Ejecutaremos la prueba usando tres retardos:
## Granger causality test
##
## Model 1: chicken ~ Lags(chicken, 1:3) + Lags(egg, 1:3)
## Model 2: chicken ~ Lags(chicken, 1:3)
## Res.Df Df F Pr(>F)
## 1 44
## 2 47 -3 5.405 0.002966 **
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
- Como 0.002966< 0.05 Se rechaza la H0, por lo tanto se concluye que conocer el numero de huevos es util para predecir el numero futuro de pollos.
Prueba de casualidad de Granger a la inversa.
Aunque rechazamos la hipótesis nula de la prueba, en realidad es posible que haya un caso de causalidad inversa. Es decir, es posible que el número de pollos esté haciendo que el número de huevos cambie.
Para descartar esta posibilidad, necesitamos realizar la prueba de Causalidad de Granger a la inversa, utilizando pollos como variable predictora y huevos como variable de respuesta:
## Granger causality test
##
## Model 1: egg ~ Lags(egg, 1:3) + Lags(chicken, 1:3)
## Model 2: egg ~ Lags(egg, 1:3)
## Res.Df Df F Pr(>F)
## 1 44
## 2 47 -3 0.5916 0.6238
- Como 0,6238 > 0.05, No se rechaza la H0, por lo que podemos decir que el número de pollos no es predictivo del número futuro de huevos.
Por lo tanto, podemos concluir que conocer el número de huevos es útil para predecir el número futuro de pollos.