Explique cómo realizar las siguientes pruebas en R:

1. Prueba de Raíz Unitaria de Dickey & Fuller

Propósito de la prueba, es decir ¿Para qué se usa?

La prueba Dickey-Fuller se usa para detectar estadísticamente la presencia de conducta tendencial estocástica en las series temporales de las variables mediante un contraste de hipótesis.

El punto de partida es el proceso (estocástico) de raíz unitaria se inicia con:

\[Yt={\rho Y}_{t-1}+\ u_t\]

Donde

\[-1\le\rho\le1\]

Donde ut es un término de error de ruido blanco. Sabemos que si ρ = 1, es decir, en el caso de la raíz unitaria, se convierte en un modelo de caminata aleatoria sin deriva, del cual sabemos también que es un proceso estocástico no estacionario. Por consiguiente, ¿por qué no simplemente hacer la regresión de Yt sobre su valor rezagado (de un periodo) Yt−1 y se averigua si la ρ estimada es estadísticamente igual a 1? De ser así, Yt es no estacionaria. Ésta es la idea general de la prueba de raíz unitaria para la estacionariedad.

En la ecuación del inicio de raíz unitaria no podemos estimar la por MCO y probar la hipótesis de que ρ = 1 por medio de la prueba t acostumbrada, porque esa prueba tiene un sesgo muy marcado en el caso de una raíz unitaria. Por tanto, se tiene que manipular de la siguiente forma: restamos Yt−1 de ambos miembros de la ecuación para obtener:

\[Y_t-Y_{t-1}=\ {\rho Y}_{t-1\ }-Y_{t-1}+\ u_t\] \[={\left(\rho-1\right)Y}_{t-1\ }+\ u_t\]

La cuál también se expresa como:

\[∆Yt= δYt-1+Ut\] Donde δ = (ρ − 1) y Δ, como siempre, es el operador de primeras diferencias. Por tanto, en la práctica, en vez de estimar la ecuación inicial, calculamos (1) y probamos la hipótesis (nula) de que δ = 0, y la hipótesis alternativa es que δ < 0. Si δ = 0, entonces ρ = 1; es decir, tenemos una raíz unitaria, lo cual significa que la serie de tiempo en consideración es no estacionaria. Antes de proceder con la estimación de (1) debemos observar que si δ = 0, entonces (1) se convertirá en:

\[∆Yt=Yt-Yt-1=Ut 2\] Como ut es un término de error de ruido blanco, entonces es estacionario, lo cual significa que las primeras diferencias de una serie de tiempo de caminata aleatoria son estacionarias, una observación que ya habíamos hecho. Ahora reconsideremos la estimación de (1). Esto es muy simple: sólo hay que tomar las primeras diferencias de Yt y hacer la regresión sobre Yt−1, a fin de ver si el coeficiente estimado de la pendiente en esta regresión (=) es o no cero. Si es cero, concluimos que Yt es no estacionaria; pero si es negativa, se infiere que Yt es estacionaria.

Hipótesis de la prueba. (explique el porqué de las hipótesis Nula y Alternativa)

Los contrastes de hipótesis, simplemente establecemos como hipótesis nula la presencia de tendencia estocástica en las observaciones. En el caso de la hipótesis alternativa, establecemos no tendencia estocástica (Que no está sometido al azar y que es objeto de análisis estadístico) en las observaciones. El procedimiento real para aplicar la prueba DF supone diversas decisiones. Al analizar la naturaleza del proceso de raíz unitaria en las secciones inicial de la Raíz unitaria observamos que un proceso de caminata aleatoria tal vez no tiene deriva, o quizá sí, o posiblemente tiene tendencia determinista y estocástica. A fin de permitir las distintas posibilidades, la prueba DF se estima en tres diferentes formas, es decir, conforme a tres hipótesis nulas:

Yt es una caminata aleatoria:

\[∆Yt= δYt-1+Ut(1)\]

Yt es una caminata aleatoria con deriva:

\[∆Yt=β1+δYt-1+Ut2\]

Yt es una caminata aleatoria con deriva alrededor de una tendencia determinista:

\[∆Yt= β1++ β2t+δYt-1+Ut(3)\]

Donde t es la variable de tiempo o de tendencia. En cada caso, las hipótesis son: Hipótesis nula: H0: δ = 0 (es decir, existe una raíz unitaria, la serie de tiempo es no estacionaria o tiene tendencia estocástica). Hipótesis alternativa: H1: δ < 0 (es decir, la serie de tiempo es estacionaria, posiblemente alrededor de una tendencia determinista).

La ADF es un número negativo. Mientras más negativo sea el estadístico ADF, más fuerte es el rechazo de la hipótesis nula sobre la existencia de una Raíz Unitaria o no estacionariedad. Si rechazamos la hipótesis nula, esto significa que 1) Yt es estacionaria con media cero en el caso de la ecuación (1) o que 2) Yt es estacionaria con una media distinta de cero en el caso de (2). En el caso de la ecuación (3), podemos probar que δ < 0 (es decir, no hay tendencia estocástica) y α ≠0 (es decir, la existencia de una tendencia determinista) simultáneamente, mediante la prueba F pero con los valores críticos tabulados por Dickey y Fuller. Cabe señalar que una serie de tiempo puede contener tanto una tendencia estocástica como una determinista.

Sintaxis de implementación en R, explicando cada uno de los argumentos.

Cálculo del test de Dickey-Fuller Ampliado (Test ADF) para estacionariedad: adf.test(serie temporal) paquete tseries siempre elimina la tendencia de la serie evaluada

adfTest(serie temporal, type) *paquete urca*

    type: tipo de regresión de raíz unitaria empleada. "nc" sin intercepto ni tendencia, "c" sin tendencia con intercept, "ct" con intercepto y tendencia
    

Estadístico de prueba (haga referencia en la salida que genera R)

Dickey-Fuller Ampliado (Test ADF). La hipótesis nula en este test es que la serie no es estacionaria, luego si el valor resultante, p-value, es menor de 0.05 (ya que el p-value representa la probabilidad de la hipótesis tomada) indica que la serie es estacionaria con un nivel de confianza del 95% (en caso contrario no habría evidencia para rechazar la hipótesis de no estacionariedad).

Criterio de decisión (haga referencia en la salida que genera R)

Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca, con los siguientes comandos df = ur.df(x, type = “none,” lags = 0), para mostrar el test de regresiones.

Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba.

El contraste será el siguiente:

\(H0\delta=0\) → Existe raíz unitaria, \(x_t\) entonces la serie no es estacionaria.

\(H0\delta\neq0\) → No existe raíz unitaria,\(x_t\) entonces la serie es estacionaria.

Si:

\(\tau\) − calculado en valor absoluto \(>\ \tau-crítico\) en valor absoluto: Se rechaza la \(H0\).

\(\tau\) − calculado en valor absoluto \(<\ \tau-crítico\)en valor absoluto: Se acepta la \(H0\).

Implementación de un ejemplo.

Cálculo del test de Dickey-Fuller Ampliado (Test ADF) para estacionariedad:

Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca.

set.seed(10)
x = rnorm(100)
w = rnorm(100)
for (i in 2:100) {
  x[i] <- x[i - 1] + w[i]
}

El gráfico de la serie es el siguiente:

plot(x, type = "l")

Se hará el análisis de raíz unitaria:

library(urca)
df = ur.df(x, type = "none", lags = 0)

Los resultados podrán verse haciendo un summary:

summary(df)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.31407 -0.86346  0.07963  0.66540  2.03542 
## 
## Coefficients:
##          Estimate Std. Error t value Pr(>|t|)
## z.lag.1 -0.009083   0.031521  -0.288    0.774
## 
## Residual standard error: 0.9757 on 98 degrees of freedom
## Multiple R-squared:  0.0008466,  Adjusted R-squared:  -0.009349 
## F-statistic: 0.08304 on 1 and 98 DF,  p-value: 0.7738
## 
## 
## Value of test-statistic is: -0.2882 
## 
## Critical values for test statistics: 
##      1pct  5pct 10pct
## tau1 -2.6 -1.95 -1.61

Ya que el valor calculado de 0.288 es menor en términos absolutos a lo valores de tau, la hipótesis nula es aceptada, por lo tanto, existe raíz unitaria y la serie no es estacionaria. Otra forma es haciendo uso de la función adf.test() de la librería tseries.

library(tseries)
adf.test(x, k = 0)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  x
## Dickey-Fuller = -1.9334, Lag order = 0, p-value = 0.6042
## alternative hypothesis: stationary

El p-valor es 0.6042, lo que nos dice que la hipótesis nula es aceptada y por lo tanto la serie no es estacionaria.

Dickey Fuller Aumentado

En esta prueba se puede excluir la constante e incluir una tendencia lineal. La prueba ADF consiste en la estimación del siguiente modelo:

\[\triangle\ x_t=\beta0+\beta_1t+\delta\ x_{t-1}+\alpha_i\sum_{i=1}^{i=m}\triangle\ x_{t-i}+w_t\]

El contraste es similar al caso de la prueba Dickey-Fuller:

\(H0: \delta=0\)→ Existe raíz unitaria, 𝑥𝑡 no es estacionaria.

\(Hz: \delta\neq0\) → No existe raíz unitaria, 𝑥𝑡 es estacionaria.

Si:

\(\tau\) calculado en valor absoluto \(<\ \tau-crítico\) en valor absoluto: Se rechaza \(H0\).

\(\tau\) calculado en valor absoluto \(>\ \tau-crítico\) en valor absoluto: Se acepta \(H0\).

Para hacer la estimación de dicho test en R se usan las mismas funciones que para el Dickey-Fuller simple, pero especificando en el número de rezagos igual a 1. Se puede observar que en ambos casos la hipótesis nula es aceptada y esto da razón de la existencia de raíz unitaria en la serie, por lo tanto, esta es estacionaria.

adf = ur.df(x, type = "none", lags = 1)
summary(adf)
## 
## ############################################### 
## # Augmented Dickey-Fuller Test Unit Root Test # 
## ############################################### 
## 
## Test regression none 
## 
## 
## Call:
## lm(formula = z.diff ~ z.lag.1 - 1 + z.diff.lag)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.25453 -0.90101  0.02681  0.70255  1.97744 
## 
## Coefficients:
##            Estimate Std. Error t value Pr(>|t|)
## z.lag.1    -0.01413    0.03282  -0.430    0.668
## z.diff.lag  0.06424    0.10583   0.607    0.545
## 
## Residual standard error: 0.983 on 96 degrees of freedom
## Multiple R-squared:  0.00467,    Adjusted R-squared:  -0.01607 
## F-statistic: 0.2252 on 2 and 96 DF,  p-value: 0.7988
## 
## 
## Value of test-statistic is: -0.4304 
## 
## Critical values for test statistics: 
##      1pct  5pct 10pct
## tau1 -2.6 -1.95 -1.61

Ejemplo tomado de [Modelos multivariados 2021, url = https://rstudio-pubs-static.s3.amazonaws.com/763875_1d26d4bc7c564169ade1d49118a47163.html#proceso-de-ra%C3%ADz-unitaria]

2. Cointegración en el enfoque de Soren Johansen.

##Propósito de la prueba, es decir ¿Para qué se usa?

El procedimiento multivariado de S. Johansen (1988 y 1991), se usa para a probar la existencia de cointegración en la variables I(1) y I(0), en donde I(1) y I(0) indican integración de primer y cero orden, respectivamente. En la tecnología de S. Johansen, es necesario analizar las series previamente con el fin de conocer si presentan o no raíces unitarias. Las series que presenten raíces unitarias se colocan en un vector autorregresivo a partir del cual se puede probar la existencia de una o más combinaciones lineales J(U) o vectores de cointegración.

Metodología de S. Johansen

  • Determinar el orden de integración a cada una de las series incluídas en el modelo.

  • Especificar un Vector AutoRegresivo (VAR) con las series que resulten integradas de orden I(1). Seleccionar las Variables del Modelo Seleccionar las transformaciones de las variables, si las hubieren Determinar el retardo óptimo del VAR para asegurar que los residuos sean ruido blanco (white noise) Especificar las variables determinísticas (variables dummy, tendencias, etc) Diagnóstico del VAR estimado

-Aplicar el procedimiento de Máxima Verosimilitud al vector autorregresivo con el fin de determinar el rango (r) de cointegración del sistema: Prueba de la Traza Prueba del Eigenvalue Máximo (valor propio) . Estimar el modelo Vector de Corrección de Errores.

  • Determinar la relación causal entre las variables del modelo

Hipótesis de la prueba. (explique el porqué de las hipótesis Nula y Alternativa)

En este caso las hipótesis son útiles para probar si una sola serie ´Xt es I (0) o I (1), pero en muchas aplicaciones puede haber más de una relación de cointegración potencial (r>1) por lo que es útil tener pruebas de hipótesis que postulen diferentes valores de r. Es decir, es útil considerar hipótesis de la forma Hj: r =j por j = 0, 1, y, n…….1. La hipótesis r =0 significa que no hay cointegración, r = 1 significa que hay un solo vector de cointegración, y así sucesivamente, estas pruebas se formulan y llevan a cabo fácilmente utilizando el modelo VECM. Recuerde que el modelo VECM tiene la forma:

\[ɸLXt=βα´ Xt-1+εt\] Considere las hipótesis nula y alternativa. Ho: r=ro vs: Ha: r =ra dónde ra>ro y escriba el VECM como:

\[ɸLXt=β0α0 Xt-1+βα´Xt-1+εt\]

Dónde \(\alpha\ o\) contiene la ro vector de cointegrando bajo el nulo y ἀ contiene los vectores de cointegración adicionales bajo la alternativa. Bajo la hipótesis nula, las variables \(ἀ´Xt-1\) no ingrese al VECM, mientras que bajo la alternativa estas variables ingresan al VECM. Por lo tanto, el nulo y la alternativa se pueden escribir como H:0 Ḃ : contra Ha : Ḃ ≠0. Como en el caso de r=1, las pruebas dependen de si los vectores cointegrantes son conocidos o desconocidos. Cuando se conocen los vectores cointegrantes, los regresoresao \(ἀ´0Xt-1\) y \(ἀ´Xt-1\) puede construirse a partir de los datos, y la prueba de Wald para Ḃ= 0 se puede construir usando el habitual fórmula de regresión. Cuando se desconocen los vectores de cointegración, el problema de prueba es más difícil, pero Johansen (1988) proporciona una fórmula simple para el estadístico de prueba de razón de verosimilitud. En cualquier caso, los valores críticos para la prueba son ‘no estándar,’ es decir, no se basan en la X2 o F distribuciones. Los valores críticos para las pruebas dependen de los valores de ra - ro, el número de vectores cointegrantes conocidos y desconocidos, y la presencia o ausencia de constantes y tendencias temporales en el modelo.

Sintaxis de implementación en R, explicando cada uno de los argumentos.

ca.jo #(serie tempotal, type, K)

    #- type: test empleado, "eigen" o "trace"
    #- K: lag de la serie VAR 
    
#Ajuste y estimación de los parámetros de cointegración:
cajorls#(serie temporal, r)

    #- r: rango de cointegración
    

Estadístico de prueba (haga referencia en la salida que genera R)

Valores de Probabilidad - P-values Use estos valores para decidir la significación o no de las pruebas estadísticas Aparecen en el análisis de regresión con el título [Prob]. P es la abreviatura de Probabilidad \([Prob]\). Especifica el nivel de significación más bajo al cual se puede rechazar la hipótesis nula

Prueba de hipótesis con el p-value y/o \((Prob)\)

  1. Definan previamente el nivel de significación

  2. Regla de decisión:

• Rechace Ho si \(p\ \le\ \alpha\)

• No rechace a Ho si \(p\ >\ \alpha\)

En estadística es convencional rechazar la hipótesis nula con un nivel de significación \(\alpha\ =\ 0.05\) Cuando se rechaza la hipótesis nula se dice que los resultados del estudio son estadísticamente significativos al nivel \(\alpha\)

Criterio de decisión (haga referencia en la salida que genera R)

los criterios de deción de los p-values o los valores de las probabilidades son:

\(P<.10\) No significativo \(0.05<p<0.10\) marginalmente significativo \(0.01<p<0.01\) Significativo \(0.001<p<0.01\) altamente significativo \(p<0.01\) fuertemente significativo

Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba.

Se rechaza la no cointegración (r=0)

Si somos capaces de rechazar la hipótesis nula de no cointegración, proceda a estimar un modelo de corrección de equilibrio ya sea por: Modelo de ecuación única: ECM o ARDL VECM multivariante Si no se puede rechazar el nulo de no cointegración, proceda a estimar el modelo en primeras diferencias

Implementación de un ejemplo.

Pruebas de cointegración de Johansen:

Se cargan los datos:

library(urca)
data(denmark)
sjd <- denmark[, c("LRM", "LRY", "IBO", "IDE")]
sjd.vecm <- ca.jo(sjd, ecdet = "const", type="eigen", K=2, spec="longrun",
                  season=4)
summary(sjd.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration 
## 
## Eigenvalues (lambda):
## [1] 4.331654e-01 1.775836e-01 1.127905e-01 4.341130e-02 6.927550e-16
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  2.35  7.52  9.24 12.97
## r <= 2 |  6.34 13.75 15.67 20.20
## r <= 1 | 10.36 19.77 22.00 26.81
## r = 0  | 30.09 25.56 28.14 33.24
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##             LRM.l2     LRY.l2     IBO.l2     IDE.l2   constant
## LRM.l2    1.000000  1.0000000  1.0000000   1.000000  1.0000000
## LRY.l2   -1.032949 -1.3681031 -3.2266580  -1.883625 -0.6336946
## IBO.l2    5.206919  0.2429825  0.5382847  24.399487  1.6965828
## IDE.l2   -4.215879  6.8411103 -5.6473903 -14.298037 -1.8951589
## constant -6.059932 -4.2708474  7.8963696  -2.263224 -8.0330127
## 
## Weights W:
## (This is the loading matrix)
## 
##            LRM.l2      LRY.l2       IBO.l2        IDE.l2      constant
## LRM.d -0.21295494 -0.00481498  0.035011128  2.028908e-03 -1.726523e-13
## LRY.d  0.11502204  0.01975028  0.049938460  1.108654e-03  9.428195e-14
## IBO.d  0.02317724 -0.01059605  0.003480357 -1.573742e-03  4.143714e-14
## IDE.d  0.02941109 -0.03022917 -0.002811506 -4.767627e-05  7.781415e-14
data(finland)
sjf <- finland
sjf.vecm <- ca.jo(sjf, ecdet = "none", type="trace", K=2,
                  spec="longrun", season=4)
summary(sjf.vecm)
## 
## ###################### 
## # Johansen-Procedure # 
## ###################### 
## 
## Test type: trace statistic , with linear trend 
## 
## Eigenvalues (lambda):
## [1] 0.30932660 0.22599561 0.07308056 0.02946699
## 
## Values of teststatistic and critical values of test:
## 
##           test 10pct  5pct  1pct
## r <= 3 |  3.11  6.50  8.18 11.65
## r <= 2 | 11.00 15.66 17.95 23.52
## r <= 1 | 37.65 28.71 31.52 37.22
## r = 0  | 76.13 45.23 48.28 55.43
## 
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
## 
##            lrm1.l2    lny.l2    lnmr.l2    difp.l2
## lrm1.l2  1.0000000  1.000000  1.0000000   1.000000
## lny.l2  -0.9763252 -1.323191 -0.9199865   1.608739
## lnmr.l2 -7.0910749 -2.016033  0.2691516  -1.375342
## difp.l2 -7.0191097 22.740851 -1.8223931 -15.686927
## 
## Weights W:
## (This is the loading matrix)
## 
##            lrm1.l2       lny.l2      lnmr.l2      difp.l2
## lrm1.d 0.033342108 -0.020280528 -0.129947614 -0.002561906
## lny.d  0.022544782 -0.005717446  0.012949130 -0.006265406
## lnmr.d 0.053505000  0.046876449 -0.007367715  0.002173242
## difp.d 0.005554849 -0.017353903  0.014561151  0.001531004

Para la hipotesis nula de r=0 el estadistico de prueba es mayor que el valor critico correspondiente a 95% , se rechaza la hipotesis nula de no cointegración y se asume que hay al menos 1 vector de cointegración, de igual forma hasta llegar a la hipotesis nula de r<=2 , el estadístico de prueba es menor de el valor critico correspondiente al 95%, es decir no se rechaza esta hipotesis nula y se asume que existen al menos 2 vectores de cointegración.

Ejemplo tomado de [Sandova, url = https://rpubs.com/wilsonsr/828582]

3. Causalidad en el sentido de Granger.

Propósito de la prueba, es decir ¿Para qué se usa?

La causalidad de Granger-Sims se basa en el axioma fundamental de que “el pasado y el presente puede causar el futuro, pero el futuro no puede causar el pasado”(Granger, 1980, p. 330). A, es decir que la prueba de causalidad de Granger se usa para examinar si una serie de tiempo puede usarse para pronosticar otra.

La prueba de causalidad de Granger supone que la información relevante para la predicción de las variables respectivas, por ejemplo “X” y “Y,” está contenida únicamente en la información de series de tiempo sobre estas variables.

Para ilustrar los conceptos básicos consideraremos la causalidad de Granger entre dos variables (X e Y) que son ambas estacionarias. A caso no estacionario, donde X e Y tienen raíces unitarias pero están cointegradas, se mencionará a continuación. Dado que X e Y son ambos estacionarios, una ADL el modelo es apropiado. Suponga que la siguiente ADL simple (solo se retrasa en el lado derecho!) modelo sostiene:

\[Y_t=\ \propto+\phi{Y_{t-1}}+\beta_1x_{t-1}+\epsilon_t\]

Este modelo implica que el valor de X del último período tiene poder explicativo para el valor actual de Y. El coeficiente β1 es una medida de la influencia de \(x_{t-1}\) sobre Yt. Si \(\beta_1=0\), los valores pasados de X no tienen efecto en Y y no hay forma de que X pueda causar Y Granger.

En otras palabras, si β1 = 0, entonces X no causa Granger a Y.

Hipótesis de la prueba. (explique el porqué de las hipótesis Nula y Alternativa)

Estimar las AVD y realizar pruebas de hipótesis, es simple probar la causalidad de Granger o, en otras palabras, probar

\[H_0:\beta_1=0:\ si\ {\hat{\beta}}_1\ \]

Es estadísticamente significativo (es decir, su valor p <0,05), luego concluimos que X Granger causa Y. Nótese que la hipótesis nula Se está probando aquí la hipótesis de que la causalidad de Granger no ocurre. Nos referiremos a este procedimiento como prueba de causalidad de Granger.

Es decir que:

Hipótesis nula (\(H_0\)):

La serie de tiempo X no causa que la serie de tiempo Y sea la causa de Granger en sí misma.

Hipótesis alternativa (\(H_1\)):

La serie de tiempo X causa la serie de tiempo Y a la propia causa de Granger.

Conocer el valor de una serie de tiempo X en un rezago dado es valioso para pronosticar el valor de una serie de tiempo Y en un período de tiempo posterior que se conoce como “causas de Granger.”

Sintaxis de implementación en R, explicando cada uno de los argumentos.

Esta prueba genera una estadística de prueba F junto con un valor p.

Podemos rechazar la hipótesis nula e inferir que la serie de tiempo X Granger causa la serie de tiempo Y si el valor p es menor que un nivel de significancia particular (por ejemplo, = .05).

En R, podemos usar la función grangertest () del paquete lmtest para realizar una prueba Granger-Causality, que tiene la siguiente sintaxis

grangertest(X, Y, order = 1)

dónde:

X: Esta es la primera serie temporal.

Y: el segundo conjunto de la serie temporal

orden: en la primera serie de tiempo, el número de retrasos a utilizar. El valor predeterminado es 1.

Estadístico de prueba (haga referencia en la salida que genera R)

Esta prueba genera una estadística de prueba F junto con un valor p.

El estadístico de prueba F se denota con la letra F igual y el valor p que corresponde al estadístico de prueba F es Pr (> F).

Si la hipótesis nula de la prueba tiene un valor p menor que 0.05, se rechaza la prueba y se puede inferir que conocer los valores de SMI es valioso para pronosticar los valores futuros de DAX.

Para ello se utiliza los siguientes comandos grangertest(name , order = number, data = name)

Criterio de decisión (haga referencia en la salida que genera R.)

Podemos rechazar la hipótesis nula e inferir que la serie de tiempo X Granger causa la serie de tiempo Y si el valor p es menor que un nivel de significancia particular (por ejemplo, = 0.05).y se acepta si es mayor.

Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba.

Esta prueba produce un estadístico de prueba F con un valor p correspondiente. Si el valor p es menor que un cierto nivel de significancia (es decir, α = .05), entonces podemos rechazar la hipótesis nula y concluir que tenemos evidencia suficiente para decir que las series de tiempo x Granger-causan las series de tiempo y.

Si el valor p es mayor que el nivel de significancia, la hipotesis nula se acepta. y concluir que no hay evidencia suficiente para decir que las variables de tiempo x granger-causan la serie de tiempo y. es decir es tal caso no se estaria prediciendo el modelo.

Implementación de un ejemplo.

Paso 1: definir la serie de dos tiempos Para este ejemplo, usaremos el conjunto de datos ChickEgg que viene precargado en el paquete lmtest. Este conjunto de datos contiene valores para la cantidad de huevos fabricados junto con la cantidad de pollos en los EE. UU. Desde 1930 hasta 1983:

cargar datos:

library(lmtest)
data(ChickEgg)
#ver las primeras seis filas del conjunto de datos
head(ChickEgg)
##      chicken  egg
## [1,]  468491 3581
## [2,]  449743 3532
## [3,]  436815 3327
## [4,]  444523 3255
## [5,]  433937 3156
## [6,]  389958 3081

Paso 2: Realice la prueba de causalidad de Granger A continuación, usaremos la función grangertest () para realizar una prueba de causalidad de Granger para ver si el número de huevos fabricados es predictivo del número futuro de pollos. Ejecutaremos la prueba usando tres retrasos:

# realizar la prueba de causalidad de Granger
grangertest(chicken ~ egg, order = 3, data = ChickEgg)
## Granger causality test
## 
## Model 1: chicken ~ Lags(chicken, 1:3) + Lags(egg, 1:3)
## Model 2: chicken ~ Lags(chicken, 1:3)
##   Res.Df Df     F   Pr(>F)   
## 1     44                     
## 2     47 -3 5.405 0.002966 **
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

interpretación de resultado:

Modelo 1: Este modelo intenta predecir el número de pollos utilizando el número de pollos en los tres años anteriores y el número de huevos en los tres años anteriores como variables predictoras.

Modelo 2: Este modelo intenta predecir el número de pollos utilizando solo el número de pollos en los tres años anteriores como variables predictoras.

F: Esta es la estadística de prueba F. Resulta ser 5.405. Pr (> F): este es el valor p que corresponde al estadístico de prueba F. Resulta ser .002966.

Dado que el valor p es menor que .05, podemos rechazar la hipótesis nula de la prueba y concluir que conocer el número de huevos es útil para predecir el número futuro de pollos.

Paso 3: Realice la prueba de causalidad de Granger a la inversa Aunque rechazamos la hipótesis nula de la prueba, en realidad es posible que exista un caso de causalidad inversa. Es decir, es posible que la cantidad de pollos esté provocando que la cantidad de huevos cambie.

Para descartar esta posibilidad, debemos realizar la prueba de Causalidad de Granger a la inversa, utilizando pollos como variable predictora y huevos como variable de respuesta:

# realizar la prueba de causalidad de Granger a la inversa
grangertest(egg ~ chicken, order = 3, data = ChickEgg)
## Granger causality test
## 
## Model 1: egg ~ Lags(egg, 1:3) + Lags(chicken, 1:3)
## Model 2: egg ~ Lags(egg, 1:3)
##   Res.Df Df      F Pr(>F)
## 1     44                 
## 2     47 -3 0.5916 0.6238

El valor p de la prueba es 0,6238. Dado que no es inferior a 0,05, no podemos rechazar la hipótesis nula. Es decir, la cantidad de pollos no predice la cantidad futura de huevos.

Por tanto, podemos concluir que conocer el número de huevos es útil para predecir el número futuro de pollos.

Ejemplo extraido de Zach [url = {https://www.statology.org/granger-causality-test-in-r/},]

4. Causalidad en el sentido de Sims.

Propósito de la prueba, es decir ¿Para qué se usa?

Este modelo nos muestra como cada variable afecta y es afectada por las demás variables del modelo. Esto nos permite analizar los efectos de cualquier variable sobre otra variable, y medir el tiempo en que se tarda en estabilizar la variable después del choque.

Esta metodología econométrica fue desarrolla por Christopher Sims criticando a los modelos de sistemas ecuaciones y sus principales aplicaciones como son los modelos macroeconométricos o de gran escala. Ha sido una herramienta muy útil para el análisis empírico de las series de tiempo, ya que tiene las siguientes propiedades: 1) parte de un enfoque ateórico 2) es capaz de separar los efectos pasados que explican al vector de las variables endógenas a través de su pasado o mediante variables autorregresivas.

Hipótesis de la prueba. (explique el porqué de las hipótesis Nula y Alternativa)

En una prueba de causalidad de Granger, Christopher Sims explota el hecho de que el futuro no puede causar el presente. Para decidir si una variable Y causa una variable X, Sims propone estimar el siguiente par de ecuaciones:

  1. \[Y_t=\alpha_1+\sum_{i=1}^{i=n}{\beta_iX_{t-i}}+\sum_{i=1}^{i=m}{\gamma_iY_{t-i}}+\sum_{i=1}^{i=p}{\lambda_iX_{t+i}}\ +\ u_{1t}\]

  2. \[X_t=\alpha_2+\sum_{i=1}^{i=n}{\delta_iX_{t-i}}+\sum_{i=1}^{i=m}{\theta_iY_{t-i}}+\sum_{i=1}^{i=p}{\omega_iX_{t+i}}\ +\ u_{2t}\]

Estas regresiones incluyen valores rezagados, actuales y futuros, o adelantados, de las regresoras; los términos como \(x_{t+1}+,\ x_{t+2\ }\), se llaman términos adelantados. Si Y es causa según Granger de X, debe haber alguna relación entre Y y los valores adelantados, o futuros, de X. Por tanto, en lugar de probar que \(\mathrm{\Sigma}\beta_i=0\), debemos probar que \(\mathrm{\Sigma}\lambda_i=0\) en la ecuación (1). Si rechazamos esta hipótesis, la causalidad va de Y a X, y no de X a Y, porque el futuro no puede causar el presente. Los mismos comentarios aplican a la ecuación (2).

Estadístico de prueba (haga referencia en la salida que genera R)

El estadistico F, mide la diferencia entre el poder explicativo entre las regresiones. La prueba F se realiza bajo la hipótesis nula de que la variable independiente no causa la dependiente. Para ello es necesario comparar la variación no explica la cual es la suma de los residuos elevados al cuadrado de la regresión \[I_t=\ a\ +\sum_{i=1}^{6}{b_iI_{t-1}+\ \sum_{j=1}^{6}{C_iY_{t-j}+e_i}}\] La variación no explicado cuando hacemos \(c_j=0\), para j en la misma ecuación anterior, de igual forma para la siguiente ecuación:

\[Y_t=\ d\ +\sum_{i=1}^{6}{f_iI_{t-1}+\ \sum_{j=1}^{6}{g_iY_{t-j}+u_i}}\], para lo cuál se corre sin restricciones donde \[f_i=0\] para todo i.

Criterio de decisión (haga referencia en la salida que genera R)

La pruebva F requiere, para su validez que los residuos no contenga autocrelación, para provar esta independencia lineal se puede utilizar la prueba del estadistico Q donde: \[Q=n(n+2)\sum_{k=0}^{p}{(n-\tau)^{-1}}r_t\],

La cual bajo la hipotesis nula de que la serie del reisuo tiene una distribución chi-cuadrado con p grados de libertad, con un grado de significancia del 5%.

Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba.

Un valor significativamente aldo de Q llevaria rechazar la Hipotesis nula, ya que la serie de ruido blanco o de autocorrelación , a cual llevaria a sospechar la validez de la prueba.

 # knitr::write_bib(c("base",
 #                     "urca","tseries","lmtest"), width =
 #                   60,file = "citations.bib")

Bibliografía:

::: {#refs}

Durlauf, Steven, and Lawrence Blume. 2016. Macroeconometrics and Time Series Analysis. Springer.
Gujarati, Damodar N. 2021. Essentials of Econometrics. SAGE Publications.
Hothorn, Torsten, Achim Zeileis, Richard W. Farebrother, and Clint Cummins. 2021. Lmtest: Testing Linear Regression Models. https://CRAN.R-project.org/package=lmtest.
Pfaff, B. 2008. Analysis of Integrated and Cointegrated Time Series with r. Second. New York: Springer. http://www.pfaffikus.de.
Pfaff, Bernhard. 2016. Urca: Unit Root and Cointegration Tests for Time Series Data. https://CRAN.R-project.org/package=urca.
R Core Team. 2021. R: A Language and Environment for Statistical Computing. Vienna, Austria: R Foundation for Statistical Computing. https://www.R-project.org/.
Trapletti, Adrian, and Kurt Hornik. 2021. Tseries: Time Series Analysis and Computational Finance. https://CRAN.R-project.org/package=tseries.
Zeileis, Achim, and Torsten Hothorn. 2002. “Diagnostic Checking in Regression Relationships.” R News 2 (3): 7–10. https://CRAN.R-project.org/doc/Rnews/.