UNIVERSIDAD DE EL SALVADOR
FACULTAD DE CIENCIAS ECONÓMICAS
ESCUELA DE ECONOMÍA
“LABORATORIO 3”
DOCENTE: MSF. CARLOS ADEMIR PÉREZ
MATERIA: MÉTODOS PARA EL ANÁLISIS ECONÓMICO
GT: 02
PRESENTADO POR:
| NOMBRE | CARNET |
| LUIS DANIEL QUIJANO VÁSQUEZ | QV13001 |
| CARLOS ROBERTO GARCÍA RAMÍREZ | GR16051 |
Ejercicio 1
Prueba de Raíz Unitaria de Dickey & Fuller, en R.
Llamada de esta forma por los estadísticos estadounidenses David Dickey y Wayne Fuller. Esta prueba de raíz única, detecta estadísticamente la presencia de conducta tendencial que estocástica en las series temporales de las variables a través de contrastar las hipótesis. En otras palabras, la prueba se utiliza para determinar si una raíz unitaria se encuentra presente en un modelo autorregresivo.
Una variable simple autorregresiva tiene la forma xt=α x(t−1)+εt Si sustraemos x(t−1) de ambos lados el resultado es:
Δxt=(α−1)x(t−1)+εt La cual es la base de la prueba Dickey-Fuller, el cual es el modelo más simple para evaluar la presencia de raíz unitaria.
Como hipótesis nula se plantea la presencia de tendencia estocástica en las observaciones, para la hipótesis alternativa, se establece no tendencia estocástica en las observaciones.
Ho: α=1; proceso no estacionario H1: α<1;proceso estacionario
Estadistico de Prueba El estadístico de prueba es el estadístico t sobre la variable dependiente rezagada. Si α>1 el coeficiente de la variable dependiente rezagada será positivo. Si α es igual a la unidad, (α−1). En ambos casos xt será no estacionaria.
Cuando existe tendencia en una serie temporal en un modelo AR(1), el primer regresor tenderá a ser 1 o muy cercano a 1. Esto se debe a la propiedad de reversión a la media de un proceso estocástico estacionario, es decir, cuanto más cerca esté el primer coeficiente de un modelo AR(1) de 1, más tardarán las observaciones a volver al valor medio.
Criterio de Desición Ho: α=0 , Si no puede rechazarse la hipótesis nula, significa que (p-value > 0.05), por tanto la serie es no estacionaria y tiene raíz 1 (I(1)). La serie es Random walk = no estacionaria.
H1: α≠0, si se rechaza la nula (p-valor<0.05) la serie es estacionaria y tiene una raíz 0 (I(0)). La serie es White noise = estacionaria
Para realizar la prueba de Dickey-Fuller en R se hace uso de la función ur.df() de la librería urca.
Analizando raíz unitaria
library(urca) df = ur.df(x, type=“none”, lags = 0) summary(df)
Augmented Dickey-Fuller Test Unit Root Test
Test regression none
Call: lm(formula = z.diff ~ z.lag.1 - 1)
Residuals: Min 1Q Median 3Q Max -2.31407 -0.86346 0.07963 0.66540 2.03542
Coefficients: Estimate Std. Error t value Pr(>|t|) z.lag.1 -0.009083 0.031521 -0.288 0.774
Residual standard error: 0.9757 on 98 degrees of freedom Multiple R-squared: 0.0008466, Adjusted R-squared: -0.009349 F-statistic: 0.08304 on 1 and 98 DF, p-value: 0.7738
Value of test-statistic is: -0.2882
Critical values for test statistics: 1pct 5pct 10pct tau1 -2.6 -1.95 -1.61
Interpretación: El valor calculado “t-value” es de 0.288 (menor) en términos absolutos a lo valores del estadístico tau, se llega a la conclusión en favor de no rechazar hipótesis nula, por lo tanto, existe raíz unitaria y la serie no es estacionaria.
Ejercicio 2
Cointegración en el enfoque de Soren Johansen, en R.
La metodología de Johansen se basa en la idea de que estimar el rango de nos da información sobre pi si hay cointegración y el número de estas relaciones de cointegración. Por definición, el rango de pi es el número máximo de vectores independientes dentro de esta matriz. Si tenemos tres variables endógenas, solo podemos tener tres vectores independientes y no más que eso. El rango podría ser cero o como máximo tres o en cualquier lugar de ese rango. Es decir, el rango no puede exceder el número de variables endógenas del sistema.
Dicho con sus palabras: «Para que haya cointegración, dos series integradas, o suaves, han de tener la propiedad de que una combinación lineal de ellas sea estacionaria. Muchos pares de series integradas no cumplen dicha propiedad y, consecuentemente, cuando ocurre, la cointegración debe ser considerada como una sorpresa».
Hipotesis de la prueba Eigenvalor Esta prueba está basada en la razón de máxima verosimilitud l n[LMV(r)LMV(r+1)], y se efectua secuencialmente para
Hipotesis Nula: HO=r=0,1,…,n−1 No existe Cointegración
Hipotesis Alternativa: HA=r=m+1 Existe Cointegración
Sintaxis de Impletmentacion en R En R, podemos usar la función ca.jo () de la libreria urca para realizar una prueba Cointegración, que tiene la siguiente sintaxis:
ca.jo(sjd, ecdet = “const,” type = “eigen,” K = 2, spec = “longrun,” season = 4)
dónde:
sjd: es la combinacion de las variables en un solo objeto
type: hace referencia al método que usaremos
El estadístico de prueba l∗r+1 − l∗r= −T2 ln(1−λ^r+1) ## Criterio de Decision
Se rechaza la Hipótesis Nula si el nivel de significancia es mayor al Estadistico de Prueba
Interpretacion del Rechazo o no rechazo Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.
Hipotesis de la prueba de traza Esta prueba se basa en la razón de máxima verosimilitud l n[LMV(r)LMV(n)] y es efectuada secuencialmente para
Hipotesis
HO:r=0 No existe Cointegración
HA:r=m Existe Cointegración
Esta prueba comprueba la hipótesis nula de que el rango de cointegración es r frente a la alternativa que el rango de cointegración es n.
El estadístico de prueba l∗A − l∗0= −T2 ∑i=r+1nlog (1−λ^i)
Sintaxis de Impletmentacion en R En R, podemos usar la función ca.jo () de la libreria urca para realizar una prueba Cointegración, que tiene la siguiente sintaxis:
ca.jo(sjd, ecdet = “const,” type = “trace,” K = 2, spec = “longrun,” season = 4)
dónde:
sjd: es la combinacion de las variables en un solo objeto
type: hace referencia al método que usaremos
El estadístico de prueba l∗r+1 − l∗r= −T2 ln(1−λ^r+1)
Criterio de Decision Se rechaza la Hipótesis Nula si el nivel de significancia es mayor al Estadistico de Prueba
Interpretacion del Rechazo o no rechazo Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.
Ejercicio 3
Causalidad en el sentido de Granger, en R.
Es un test consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal X predice la conducta de una serie temporal Y. Si ocurre el hecho, se dice que “el resultado X” causa en el sentido de Granger “el resultado Y”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado Y” predice “el resultado X,” el comportamiento es bidireccional, entonces “el resultado X” causa “el resultado Y,” y “el resultado Y” causa “el resultado X.”
Cuando un serie temporal X causa otra Y, los modelos de Y en los que se emplean datos retrasados de X e Y deben funcionar mejor que los basados únicamente en datos retrasados de Y. Permitiendo identificar en series temporales en las que se observa una correlación que variable antecede a la otra. El concepto de causalidad que mide el test de Granger se puede relacionar con el concepto de causa-efecto, aunque no es lo mismo. El test solamente identifica si una variable antecede a otra en una serie temporal. Lo que la convierte en una buena predictora para la serie temporal. Es decir, si en unos datos se observa causalidad de Granger, no existe necesariamente un vínculo causal en el verdadero sentido de la palabra. (Rodriguez, 2019)
Granger Plantea dos ecuaciones:
Xt=α0+α1Xt−1+α2Xt−2+…+αiXt−i+β1Yt−1+β2Yt−2+…+βiYt−i+U1t Yt=δ0+δ1Xt−1+δ2Xt−2+…+δiXt−i+θ1Yt−1+θ2Yt−2+…+θiYt−i+U2t
Las variables x y y deben ser estacionarias. Entonces, para probar que x no está Granger causando a y, se debe examinar si los valores rezagados de x en la regresión de y sobre los valores rezagados de x e y reduce significativamente el error de varianza.
Asúmase que se tiene un proceso autorregresivo de orden p, tanto en x como en y.
Para poder usar los métodos de mínimos cuadrados ordinarios (MCO), la siguiente ecuación debe ser estimada:
Xt=α0+α1Xt−1+α2Xt−2+…+αiXt−i+β1Yt−1+β2Yt−2+…+βiYt−i+U1t
Usualmente esta ecuación recibe el nombre de regresión no restringida.
La ecuacion anterior es un modelo que plantea que la variable Y causa en el sentido de Granger a la variable X
Hipotesis Esta prueba genera una estadística de prueba F junto con un valor p.
La Hipotesis Nula
Si la serie de tiempo Y no causa en el sentido de granger a la serie de tiempo X, entonces β1, β2,βi serán cero:
H0: β1=β2=…=βi=0
La hipótesis alternativa
Si la serie de tiempo Y causa en el sentido de granger a la serie de tiempo X, entonces β1, β2,βi serán distintos de cero:
H1: β1≠β2=…≠βi≠0
Sintaxis de Implementacion en R En R, podemos usar la función grangertest () del paquete lmtest para realizar una prueba Granger-Causality, que tiene la siguiente sintaxis:
grangertest(X,Y,orden=1)
dónde:
X: Esta es la primera serie temporal.
Y: el segundo conjunto de la serie temporal
orden: en la primera serie de tiempo, el número de retrasos a utilizar. El valor predeterminado es 1.
Estadistico de Prueba Una forma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresión no restringida (URSS, por sus siglas en inglés),
URSS = ∑t=1nu^2t y compararla con la suma de residuales al cuadrado de una autorregresión univariada no restringida para X_t , (RRSS, por sus siglas en inglés)
RRSS = ∑t=1ne^2t
que surge de la ecuacion
Xt=γ0+γ1Xt−1+γ2Xt−2+…+γiXt−i+et
Usualmente la ecuación recibe el nombre de regresión restringida.
El Estadístico de prueba es el siguiente:
F≡(RRSS−URSS/m) URSS/(n−k)
Donde los grados de libertad son m : es el numero de términos rezagados de Y, y k es el número de parámetros estimados en la regresión no restringida.
La prueba de causalidad en el sentido de Granger se calcula con la función grangertest() en R. En la presentacion de resultados el Estadistico de Prueba tiene la notacion F
Criterio de Decision Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico
Rechazar Ho si F> F(i, n−k) En la salida o presentacion de resultados de la prueba de causalidad de Granger en R no se presenta el valor critico, pero si el valor-p. El criterio de decision utilizando el valor-p es:
Rechazar Ho si valor p<α El valor-p en la salida tiene la notacion Pr(>F)
Interpretacion del Rechazo o no rechazo Si se rechaza Ho, existe evidencia suficiente para decir que La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger.
Cointegración en el enfoque de Soren Johansen
Proposito de la prueba
El procedimiento multivariado de S. Johansen (1988 y 1991), se ha convertido en un método muy popular para probar la existencia de cointegración en la variables I(1) y I(0), en donde I(1) y I(0) indican integración de primer y cero orden, respectivamente.
En la mayoría de los casos, cuando las variables y1,t e y2,t son no estacionarias I(1) variables, una combinación lineal de estas variables también será no estacionaria. Sin embargo, en algunos casos la combinación lineal de estas variables puede ser estacionaria. Esto sucede cuando las variables comparten las mismas tendencias estocásticas, que se cancelan cuando se combinan. En estos casos, decimos que las variables están cointegradas.
Considere dos variables, y1,t e y2,t, que están integrados de primer orden, I(1).
Al retroceder estas variables entre sí, podríamos reorganizar el modelo de regresión lineal, de modo que
\[ut=y1,t−β1y2,t\]
Ahora si el término de error,ut es estacionario I(0), entonces, por definición, la combinación lineal y1,t−β1y2,t también debe ser estacionario, ya que las propiedades del lado izquierdo deben ser iguales a las propiedades del lado derecho. Por lo tanto, mientras ambos y1,t,y2,t tienen tendencias estocásticas, decimos que las variables y1,t y y2,t están cointegrados, como la combinación lineal y1,t−β1y2,t y tienen las mismas propiedades estadísticas que una I(0) variable.
Hipotesis de la prueba
Para la hipótesis de la prueba tenemos los siguientes planteamientos
Hipótesis nula (H0) : El rango de cointegración es \[(r=0)\]
Hipótesis Alternativa (H1) : El rango de cointegración es \[(r>0)\]
Dando por resultado que:
(H0) =No existe cointegración (H1) = Existe cointegración de 1 o más series.
Sintaxis de implementación en R
#library(urca)
#ca.jo(x,
#type = c ("eigen", "trace"),
#ecdet = c ("none", "const", "trend"),
#K = 2,
#spec = c ("largo plazo", "transitorio"),
#temporada = NULL,
#dumvar = NULL)
Donde
x: Matriz de datos a investigar para la cointegración.
type: La prueba a realizar, ya sea eigen o trace.
ecdet: Carácter, none para no interceptar en la cointegración, const por término constante en cointegración y trend para la variable de tendencia en cointegración
k: El orden de retraso de la serie (niveles) en el VAR.
spec: Determina la especificación del VECM de la serie,largo plazo o trasnsitorio, se refiere a la especificación del VECM.
temporada: Si se deben incluir variables ficticias estacionales, la frecuencia de los datos debe establecerse en consecuencia, es decir 4 para datos trimestrales.
dumvar: Matriz de variables estacionales, si se incluyen
Estadistico de prueba
El estadístico de prueba en la salida R se muestra como “Values of teststatistic and critical values of test:” los estadisticos de estas se ubicaran en la columna test del resumen de estadisticas de pruebas y valores criticos.
Criterio de decisión
El criterio de decisión se basa en comparar el valor del estadístico r mostrado en la columna test de la prueba realizada por la función ca.jo() con los niveles de significancia que estan en las otras columnas mostradas como 10pct, 5pct, 1pct.
Entre las cuales se decide si se rechaza o no la hipotesis nula, con su criterio de decisión para rechazar la hipótesis nula consiste el comparar el valor del estadistico de prueba y un valor critico para un determinado nivel de significancia, si el estadistico es mayor se rechaza la hipótesis nula, caso contrario no se rechaza la hipótesis nula.
Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba
Si se rechaza Ho, existe evidencia suficiente para decir que la serie esta cointegrada.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo no esta cointegrada.
Implementación de un ejemplo
library(urca)
data(denmark)
prueba <- denmark[, c("LRM", "LRY", "IBO", "IDE")]
#Se ejecuta la prueba de eigenvalue
prueba.vecm <-
ca.jo(
prueba,
ecdet = "const",
type = "eigen",
K = 2,
spec = "longrun",
season = 4
)
summary(prueba.vecm)
##
## ######################
## # Johansen-Procedure #
## ######################
##
## Test type: maximal eigenvalue statistic (lambda max) , without linear trend and constant in cointegration
##
## Eigenvalues (lambda):
## [1] 4.331654e-01 1.775836e-01 1.127905e-01 4.341130e-02 6.927550e-16
##
## Values of teststatistic and critical values of test:
##
## test 10pct 5pct 1pct
## r <= 3 | 2.35 7.52 9.24 12.97
## r <= 2 | 6.34 13.75 15.67 20.20
## r <= 1 | 10.36 19.77 22.00 26.81
## r = 0 | 30.09 25.56 28.14 33.24
##
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
##
## LRM.l2 LRY.l2 IBO.l2 IDE.l2 constant
## LRM.l2 1.000000 1.0000000 1.0000000 1.000000 1.0000000
## LRY.l2 -1.032949 -1.3681031 -3.2266580 -1.883625 -0.6336946
## IBO.l2 5.206919 0.2429825 0.5382847 24.399487 1.6965828
## IDE.l2 -4.215879 6.8411103 -5.6473903 -14.298037 -1.8951589
## constant -6.059932 -4.2708474 7.8963696 -2.263224 -8.0330127
##
## Weights W:
## (This is the loading matrix)
##
## LRM.l2 LRY.l2 IBO.l2 IDE.l2 constant
## LRM.d -0.21295494 -0.00481498 0.035011128 2.028908e-03 -1.726523e-13
## LRY.d 0.11502204 0.01975028 0.049938460 1.108654e-03 9.428195e-14
## IBO.d 0.02317724 -0.01059605 0.003480357 -1.573742e-03 4.143714e-14
## IDE.d 0.02941109 -0.03022917 -0.002811506 -4.767627e-05 7.781415e-14
Los resultados arrojan que en la primera hipotesis r=0, se rechaza la hipotesis nula de cointegración debido a que el estadistico de prueba (30.09) es mayor que los valores criticos del 10%, 5% y 1%; es decir, que existe cointegracion entre las variables. Para las hipotesis r <= 3, r <= 2, r <= 1, no se rechaza la hipotesis nula, es decir que no hay evidencia de conintregracion entre las variables.
Causalidad en el sentido de Granger
Propósito de la prueba
La noción de causalidad de C.W.J. Granger (1969) es una prueba estadística empleada para determinar si una serie temporal puede predecir a otra. Permitiendo identificar en series temporales en las que se observa una correlación que variable antecede a la otra.
Es un test consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal X predice la conducta de una serie temporal Y. Si ocurre el hecho, se dice que “el resultado X” causa en el sentido de Granger “el resultado Y”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado Y” predice “el resultado X,” el comportamiento es bidireccional, entonces “el resultado X” causa “el resultado Y,” y “el resultado Y” causa “el resultado X.”
Cuando un serie temporal X causa otra Y, los modelos de Y en los que se emplean datos retrasados de X e Y deben funcionar mejor que los basados únicamente en datos retrasados de Y. Permitiendo identificar en series temporales en las que se observa una correlación que variable antecede a la otra. El concepto de causalidad que mide el test de Granger se puede relacionar con el concepto de causa-efecto, aunque no es lo mismo. El test solamente identifica si una variable antecede a otra en una serie temporal. Lo que la convierte en una buena predictora para la serie temporal. Es decir, si en unos datos se observa causalidad de Granger, no existe necesariamente un vínculo causal en el verdadero sentido de la palabra. (Rodriguez, 2019)
Granger Plantea dos ecuaciones:
\[Xt=α0+α1Xt−1+α2Xt−2+…+αiXt−i+β1Yt−1+β2Yt−2+…+βiYt−i+U1t\]
\[Yt=δ0+δ1Xt−1+δ2Xt−2+…+δiXt−i+θ1Yt−1+θ2Yt−2+…+θiYt−i+U2t\]
Las variables x y y deben ser estacionarias. Entonces, para probar que x no está Granger causando a y, se debe examinar si los valores rezagados de x en la regresión de y sobre los valores rezagados de x e y reduce significativamente el error de varianza.
Hipotesis de la prueba
Hipótesis Nula: es que no hay causalidad en el sentido de Granger: \[(H0: βyx1=βyx2=βyx3= ... =βyxp=0)\]
La serie temporal X no causa que Y se cause a sí misma
Hipótesis Alternativa: hay causalidad en el sentido de Granger:\[(H0: βyx1=βyx2=βyx3= ... =βyxp≠0)\] #### La serie temporal X hace que la serie temporal Y se cause a si misma con causa-Granger
Sintaxis de implementación en R
En R, dentro de la libreria lmtest podemos usar la función grangertest() para realizar una prueba de causalidad de Granger.
#library(IMTest)
#grangertest(X, Y, order = 1)
en donde:
X: Es la primera serie temporal.
Y: Es la segunda serie temporal.
Order: Es el numero de retardos a utilizar en la primera serie de tiempo. El valor predeterminado es 1.
Estadístico de prueba
Una forma de implementar esta prueba es calcular la suma de residuales al cuadrado de la regresión no restringida (URSS, por sus siglas en inglés),
RSS = ∑t=1nu^2t
y compararla con la suma de residuales al cuadrado de una autorregresión univariada no restringida para X_t , (RRSS, por sus siglas en inglés)
\[RRSS = ∑t=1ne^2t\]
que surge de la ecuacion
\[Xt=γ0+γ1Xt−1+γ2Xt−2+…+γiXt−i+et\]
Usualmente la ecuación recibe el nombre de regresión restringida.
El Estadístico de prueba es el siguiente
\[F≡(RRSS−URSS/m) URSS/(n−k)\]
Donde los grados de libertad son m : es el numero de términos rezagados de Y, y k es el número de parámetros estimados en la regresión no restringida.
La prueba de causalidad en el sentido de Granger se calcula con la función grangertest() en R. En la presentacion de resultados el Estadistico de Prueba tiene la notacion F
Criterio de decisión
Se rechaza la Hipótesis Nula si el Estadistico de Prueba F es mayor a valor Critico
Rechazar Ho si \[F> F(i, n−k)\] #### En la salida o presentacion de resultados de la prueba de causalidad de Granger en R no se presenta el valor critico, pero si el valor-p. El criterio de decision utilizando el valor-p es:
Rechazar Ho si valor \[p<α\]
El valor-p en la salida tiene la notacion \[Pr(>F)\]
Interpretación del rechazo, o no rechazo de la Hipótesis Nula de la prueba
Si se rechaza Ho, existe evidencia suficiente para decir que La serie de tiempo Y causa la serie de tiempo X a la propia causa de Granger.
Si no se rechaza Ho, existe evidencia de que La serie de tiempo Y no causa la serie de tiempo X a la propia causa de Granger.
Implementación de un ejemplo
library(lmtest)
#cargar datos
Data_Eu <- EuStockMarkets[,1:2]
#prueba
prueba_granger <-grangertest(DAX~SMI,order=3,data = Data_Eu)
print(prueba_granger)
## Granger causality test
##
## Model 1: DAX ~ Lags(DAX, 1:3) + Lags(SMI, 1:3)
## Model 2: DAX ~ Lags(DAX, 1:3)
## Res.Df Df F Pr(>F)
## 1 1850
## 2 1853 -3 8.4968 1.322e-05 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
El estadístico de prueba F se denota con la letra F y es igual a 8.4968 y el valor p que corresponde al estadístico de prueba F es \[Pr (> F) 1.322e-05\]