S&P 500 VIX Short-Term Futures ETN (vxx)
El iPath S&P 500 VIX Short-Term Futures (VXX) es una nota cotizada en bolsa (ETN) diseñada para proporcionar a los inversores exposición a la volatilidad del mercado de valores. Las acciones de un ETN, que está estructurado como un instrumento de deuda, se pueden comprar y vender como acciones. Durante tiempos de alta volatilidad en el mercado de valores, el valor de las acciones de VXX generalmente aumentará. Por otro lado, los períodos tranquilos para el mercado probablemente mantendrán la tendencia a la baja de las acciones. El ETN de futuros a corto plazo de iPath S&P 500 VIX está estructurado legalmente como una nota cotizada en bolsa (ETN), que es de naturaleza similar a un fondo cotizado en bolsa (ETF)[1]
Administrado por Barclays Capital Incorporated, el ETN de futuros a corto plazo de iPath S&P 500 VIX está vinculado a los cambios diarios de precios en el Índice de volatilidad CBOE , pero de una manera complicada. El VIX a veces se denomina “indicador del miedo” del mercado porque tiende a aumentar durante el período de incertidumbre del mercado y aumenta en momentos de pánico. El índice rastrea los cambios en la volatilidad esperada que se cotiza en las opciones del índice S&P 500 y se calcula utilizando una fórmula de precios de opciones.[1]
Comportamiento del precio de cierre de VXX: 25 de Enero de 2018 al 15 de enero de 2021
En la figura 1 se presenta el comportamiento de VXX a partir del 25 de enero de 2018 al 15 de enero de 2021. La tendencia que presenta vxx en este periodo de tiempo es bajista llegando a registrar un mínimo de 13.56 USD por ETN, sin embargo, en 2018 se convirtió en el mejor año para VXX llegando a registrar su precio máximo el 18 de marzo de 2020 con un precio de 69 USD; este comportamiento se le atribuye principalmente a que los ETN están diseñados para brindar exposición al S&P 500 ® VIX.Durante este periodo positivo S&P 500 VIX Futures registro ascensos del 9,73%. El S&P 500 VIX Futures anotó un volumen máximo de 51,75 puntos y un volumen mínimo de 47,45 puntos.[2]
En el momento en que hay alta volatilidad, el VIX alcanza una cifra elevada y se correlacionan con caídas del S&P 500, indicándonos que en el mercado hay miedo y pesimismo y suele coincidir con mínimos en el índice de referencia, es en estos momentos donde se producen fuertes movimientos en los mercados bursátiles, mientras que cuando el VIX está en mínimos, hay alegría y confianza.
Actualmente para el año 2021 los niveles de VXX muestran una tendencia a la baja ,estas bajas pronunciadas son el resultado de una menor volatilidad del mercado, ya que los inversores parecen tener menos aversión al riesgo a pesar del aumento de las valoraciones de las acciones.
La principal diferencia entre un ETF y un ETN es que, mientras que el fondo cotizado en bolsa representa la propiedad de una cesta de valores (acciones, bonos o materias primas) dentro de la cartera del fondo, la nota cotizada en bolsa es un instrumento de deuda sin garantía y tiene bonos. características similares: los inversores pueden tener acciones hasta el vencimiento (que es el 23 de enero de 2048 para el ETN VXX lanzado el 19 de enero de 2018) y comprar y vender antes del vencimiento.[1]
Serie en rendimientos
En la figura 2 se muestran los rendimientos de VXX de enero de 2018 a enero de 2021 , se pueden observar dos clusters de volatilidad ( mas pronunciados)en el periodo de abril de 2018 a abril de 2020, sin embargo en este lapso de tiempo tambien se presentan otros clusters de volatilidad menos pronunciados, cabe mencionar que VXX es un instrumento que invariablemente presenta volatilidad.
En cuanto al cluster de volatilidad de abril de 2018 ; se debe a que VIX y VXX tienen una relación inversa, VIX en 2018 se encontró por debajo de los ocho puntos debido a la bonanza económica en EE.UU.
El cluster de volatilidad de marzo –abril de 2020 se debe a la crisis sanitaria que actualmente vivimos (2021);En 2020, durante marzo y abril, el índice VIX se mantuvo por encima de los 40 puntos, llegando incluso a superar los 80 puntos el, 18 de marzo, nivel histórico, principalmente por todas las noticias relativas al coronavirus, y el consiguiente desplome de los mercados, esto conlleva a registros de volatilidad el cual podemos observar en la gráfica, cabe mencionar que los demás clusters de volatidad que se presentan después de esta fecha son consecuencia de las elecciones presidenciales de Estados Unidos que se llevarón a cabo el 3 de noviembre de 2020 ,son un elemento más de incertidumbre que puede reflejarse también en el indicador del miedo.Gráfico Q-Q e Histogramas a niveles en rendimientos
En el siguiente grafico se muestra el histograma a niveles de VXX,(un histograma es un gráfico que muestra la distribución de frecuencia o forma de un conjunto de datos continuos) .Esto nos permite analizar la distribución subyacente de una variable así como sus valores atípicos, asimetría.En esta figura 3 se presenta un mayor número de repeticiones en 43 para el precio de 29 USD mientras que los valores más extremos y con pocas repeticiones se sitúan en más de los 40 USD.
Los gráficos Cuantil-Cuantil (también referidos como Q-Q plots) es la representación gráfica de la distribución de un conjunto de datos a alguna distribución ideal o a priori que se asume como dada. La finalidad de estos gráficos es comparar la distribución teórica (la que suponemos o queremos como se comporte) contra la distribución empírica (la que realmente presenta la variable). Es decir los gráficos Q-Q Plots representan dos cuantiles: uno contra otro.El propósitode los Q-Q plots es averiguar si dos conjuntos de datos provienen de la misma distribucion.Si los dos conjuntos de datos provienen de una misma distribución común,los puntos caerán en esa línea de referencia.
En la figura 5 se observa que la mayor parte de la distribución se se apega a la linea recta, sin embargo, presenta dispersión en sus niveles. En la figura 6 se observa que los datos estan muy cercanos a la recta esto tiene que ver con la propiedad que cumplen los rendimientos.Lo que supone que nuestra serie se parece a una distribucion normal, sin embargo, en ambas figuras,esto no indica una normalidad en los datos ya que VXX es un instrumento volatil razón por la cual se presentan rendimientos fuera de su media provocando dispersion en sus datos (puntos negros).
Pruebas de raíces unitarias
La prueba de una raíz unitaria en series de tiempo fue hecho por Dickey y Fuller (1979). El objetivo de la prueba es examinar la hipotesis nula de \(\beta = 1\) \(Y_t =\betaY_{t-1} + ut\)
H0:La serie tiene raíz unitaria.
Ha:La serie es estacionaria.
En prueba de Dicker Fuller Aumentada (DFA) permite incorporar p rezagos a la variable dependiente: \[\Delta Y_t=\psi Y_{t-1}+\sum_{i=1}^{p}\alpha \Delta Y_{t-1}+ut\]
Los rezagos de \(Y_t\) ahora absorben cualquier estructura dinamica presente en el variable dependiente \(Y_t\) , para garantizar que ut no este autocorrelacionado.
Prueba Dickey Fuller Aumentada de VXX a niveles
Augmented Dickey-Fuller Test
data: VXX
Dickey-Fuller = -3.1551, Lag order = 9, p-value = 0.09567
alternative hypothesis: stationary
Al realizar la prueba Dickey Fuller Aumentada se obtiene como resultado en el valor p-value 0.09, por lo tanto no se rechaza la hipotesis nula ya que este valor es mayor a 0.05, aceptamos que la serie a niveles tiene raiz unitaria o no es una serie estacionaria.
Prueba Dickey Fuller Aumentada de VXX a rendimientos
Augmented Dickey-Fuller Test
data: VXX_R
Dickey-Fuller = -8.5637, Lag order = 9, p-value = 0.01
alternative hypothesis: stationary
Al realizar la prueba Dickey Fuller Aumentada para los rendimientos se obtiene como resultado en el valor p-value 0.01, por lo tanto se rechaza la hipotesis nula ya que este valor es menor a 0.05, rechazamos que la serie a niveles tiene raiz unitaria o dicho de otra manera es una serie estacionaria.
Prueba Phillips-Perron
Phillips y Perron (1988) incorporaron una correccion al procedimiento de la prueba DFA para permitir residuos autocorrelacionados, es decir, para ver si hay presencia de raíces unitarias en los errores. La prueba Phillips y Perron (PP) parte de la regresion utilizada en DFA \(\Delta Y_t=\psi Y_{t-1}+\sum_{i=1}^{p}\alpha \Delta Y_{t-1}+ut\).
La prueba PP incorpora la existencia de raíces unitarias en el proceso de Media Movil (MA). Esta prueba se puede aplicar con intercepto, con intercepto y tendencia o sin ninguno de los anteriores componentes. La Prueba PP originalmente esta diseñada para encontrar rompimientos o cambios estructurales en las series. La hipotesis de esta prueba es la misma que DFA.
H0:La serie tiene raíz unitaria.
Ha:La serie es estacionaria.
Prueba Phillips-Perron de VXX a niveles
Phillips-Perron Unit Root Test
data: VXX
Dickey-Fuller = -3.2592, Truncation lag parameter = 6, p-value =
0.07772
Al realizar la prueba Phillips-Perron se obtiene como resultado en el valor p-value es 0.07, por lo tanto no se rechaza la hipotesis nula ya que este valor es mayor a 0.05, aceptamos que la serie a niveles tiene raiz unitaria o no es una serie estacionaria.
Prueba Phillips-Perron de VXX a rendimientos
Phillips-Perron Unit Root Test
data: VXX_R
Dickey-Fuller = -28.843, Truncation lag parameter = 6, p-value = 0.01
Al realizar la prueba Phillips-Perron para los rendimientos se obtiene como resultado en el valor p-value 0.01, por lo tanto se rechaza la hipotesis nula ya que este valor es menor a 0.05, rechazamos que la serie a niveles tiene raiz unitaria o dicho de otra manera es una serie estacionaria.
Prueba Kwiatkowski - Phillips - Schmidt - Shin (KPSS
La prueba propuesta por Kwiatkowski - Phillips - Schmidt - Shin (KPSS)prueba directamente la estacionariedad de la variable,descomponiendo la serie en: tendecia deterministica, caminata aleatoria y error estacionario:
\[Y_t =\xi t + rt +\epsilon t\] La prueba KPSS se considera una prueba de mayor potencia y robustez que DFA y PP. La hipotesis de esta prueba KPSS es. H0:La serie es estacionaria. Ha:La serie no es estacionaria.
Prueba KPSS de VXX a niveles
KPSS Test for Level Stationarity
data: VXX
KPSS Level = 2.9332, Truncation lag parameter = 6, p-value = 0.01
Al realizar la KPSS se obtiene como resultado en el valor p-value 0.01, por lo tanto se rechaza la hipotesis nula ya que este valor es menor a 0.05, rechazamos que la serie a niveles es estacionaria.
Prueba KPSS de VXX a rendimientos
KPSS Test for Level Stationarity
data: VXX_R
KPSS Level = 0.078748, Truncation lag parameter = 6, p-value = 0.1
Al realizar la prueba KPSS para los rendimientos se obtiene como resultado en el valor p-value 0.01,por lo tanto se rechaza la hipotesis nula ya que este valor es menor a 0.05, rechazamos que la serie a niveles es estacionaria.
Arima-2 pronosticos
AUTOARIMA
A continuacion se utilizara la metodología de Box & Jenkins para calcular los modelos ARIMA. Se obtiene la Función de Autocorrelación (MA) y Función de Autocorrelación parcial (AR). Ambas series requieren ser integrada de orden I, es decir, se les tiene que aplicar una primera diferencia para que al menos puedan ser estacionarias en media. La aplicación de la primera diferencia es congruente con los resultados de las pruebas unitarias, en donde es necesario que las series se transformen en rendimientos. Asociados a la metodologia de Box yJenkins para especificar una modelo adecuado se debe partir de su enfoque practico y prágmatico que consta de 3 pasos.
1 Identicacion (determinar el orden del modelo).
2 Estimacion (estimar los parametros).
3 Diagnostico (evaluar ajuste del modelo y validacion de supuestos).
Series: VXX
ARIMA(1,1,3)
Coefficients:
ar1 ma1 ma2 ma3
-0.8945 0.7925 0.0600 0.1991
s.e. 0.0691 0.0748 0.0459 0.0376
sigma^2 estimated as 3.15: log likelihood=-1488.58
AIC=2987.16 AICc=2987.24 BIC=3010.24
Ljung-Box test
data: Residuals from ARIMA(1,1,3)
Q* = 8.9157, df = 6, p-value = 0.1784
Model df: 4. Total lags used: 10
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
750 16.58271 14.308231 18.85720 13.104192 20.06123
751 16.56863 13.511571 19.62569 11.893261 21.24400
752 16.62449 12.746233 20.50275 10.693206 22.55578
753 16.57453 11.942981 21.20607 9.491189 23.65786
754 16.61922 11.401944 21.83650 8.640085 24.59835
755 16.57924 10.786060 22.37243 7.719334 25.43915
756 16.61500 10.338947 22.89105 7.016605 26.21340
757 16.58302 9.824713 23.34132 6.247082 26.91895
758 16.61163 9.431788 23.79146 5.631011 27.59224
759 16.58604 8.983936 24.18814 4.959628 28.21245
760 16.60892 8.627354 24.59049 4.402166 28.81568
761 16.58845 8.227097 24.94981 3.800863 29.37604
Propuesta 1
Call:
arima(x = VXX, order = c(2, 1, 1))
Coefficients:
ar1 ar2 ma1
0.1479 0.1656 -0.2555
s.e. 0.1616 0.0383 0.1614
sigma^2 estimated as 3.186: log likelihood = -1494.83, aic = 2997.65
Ljung-Box test
data: Residuals from ARIMA(2,1,1)
Q* = 23.407, df = 7, p-value = 0.001447
Model df: 3. Total lags used: 10
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
750 16.61078 14.323121 18.89843 13.112110 20.10944
751 16.63200 13.565950 19.69805 11.942882 21.32111
752 16.62367 12.740010 20.50734 10.684123 22.56323
753 16.62596 12.063931 21.18798 9.648940 23.60297
754 16.62492 11.445824 21.80401 8.704178 24.54566
755 16.62514 10.890668 22.35961 7.855022 25.39526
756 16.62500 10.379979 22.87002 7.074064 26.17594
757 16.62502 9.906911 23.34313 6.350560 26.89948
758 16.62500 9.464187 23.78581 5.673483 27.57651
759 16.62500 9.047009 24.20299 5.035464 28.21453
760 16.62499 8.651463 24.59852 4.430531 28.81946
761 16.62499 8.274569 24.97542 3.854121 29.39587
Propuesta 2
Call:
arima(x = VXX, order = c(2, 1, 3))
Coefficients:
ar1 ar2 ma1 ma2 ma3
0.8382 -0.3710 -0.9516 0.6288 -0.1400
s.e. 0.3707 0.1803 0.3705 0.1914 0.0782
sigma^2 estimated as 3.159: log likelihood = -1491.64, aic = 2995.29
Ljung-Box test
data: Residuals from ARIMA(2,1,3)
Q* = 16.854, df = 5, p-value = 0.004786
Model df: 5. Total lags used: 10
Point Forecast Lo 80 Hi 80 Lo 95 Hi 95
750 16.57025 14.292357 18.84813 13.086516 20.05397
751 16.53679 13.492559 19.58101 11.881043 21.19253
752 16.53745 12.666964 20.40794 10.618052 22.45685
753 16.55042 11.954657 21.14618 9.521807 23.57903
754 16.56104 11.369872 21.75222 8.621831 24.50026
755 16.56514 10.875957 22.25432 7.864286 25.26599
756 16.56463 10.435858 22.69340 7.191482 25.93778
757 16.56268 10.026829 23.09854 6.566956 26.55841
758 16.56124 9.638687 23.48380 5.974109 27.14837
759 16.56075 9.268159 23.85335 5.407693 27.71382
760 16.56088 8.914257 24.20751 4.866379 28.25538
761 16.56117 8.575991 24.54635 4.348893 28.77344
Tabla de resultados 1
| ARIMA | JUNG BOX | AIC | DATO REAL | DATO PRONÓSTICADO | DIFERENCIAL |
|---|---|---|---|---|---|
| (1,1,3) | 0.1784 | 2987.16 | $16.63 USD | $16.58 USD | $0.05 |
| (2,1,1) | 0.001447 | 2997.65 | $16.63 USD | $16.61 USD | $0.02 |
| (2,1,3) | 0.004786 | 2995.29 | $16.63 USD | $16.57 USD | $0.06 |
De acuerdo a los resultados presentados en la tabla anterior podemos observar que el pronostico de Autoarima(1,1,3), arroja un valor de JUNK-BOX de 0.1784 lo que representa un resultado positivo, ya que este es mayor a 0.05, es decir sus residuales se distribuyen normalmente o los residuales del Autoarima no están correlacionados.En cuanto al criterio de AIC, representa el valor mínimo en comparación a los demás, por lo que se concluye que este es el mejor modelo.
Respecto a los modelos pronosticados representan un resultado negativo por lo cual no se pueden tomar como buenos modelos, ya que el valo p-value de la prueba JUNK-BOX es menor a 0.05, es decir sus residuales no se distribuyen de manera correcta,otro resultado que nos indica resultados negativos, es, el criterio de AIC ya que sus valores son elevados, sin embargo, el diferencial es menor en contraste con el modelo Autoarima 0.03 y 0.01 respectivamente, en conjunto tomando en cuenta los criterios que hay que seguir para seleccionar el mejor modelomuestran que no se han terminado de corregir los problemas de autocorrelación.
Si bien,los problemas de una mala especificación o el no corregir los problemas de autocorrelación del modelo, implica que no se obtengan resultados confiables.
Mejor modelo ARIMA para VXX
Funcion de Autocorrelacion (ACF) La funcion de Autocorrelacion permite identicar si existe dependencia en el componente MA. ACF muestra, a traves de un correlograma, la correlacion serial en q rezagos del componente de error
\[\rho _s=\frac{\gamma _s}{\gamma _0}\] \[s=0,1,2....\] Donde \(\gamma _s\) es la covarianza de \(\gamma\) con sus valores pasados, en este caso, de los errores pasados. El identificar los rezagos en donde se presenta correlacion, permite identificar el orden del componente MA para definir el modelo.
Funcion de Autocorrelacion Parcial (PACF) La funcion de Autocorrelacion Parcial permite identicar si existe dependencia en el componente AR. PACF muestra, a traves de un correlograma, la correlacion serial en p rezagos del componente autorregresivo.
\[\rho _s=\frac{\gamma _s}{\gamma _0}\]
\[s=0,1,2....\] Donde \(\gamma _s\) es la covarianza de \(\gamma\) con sus valores pasados, en este caso, de los valores pasados de la variable. El identicar los rezagos en donde se presenta correlacion, permite identificar el orden del componente AR para definir el modelo.
Series: VXX
ARIMA(1,1,3)
Coefficients:
ar1 ma1 ma2 ma3
-0.8945 0.7925 0.0600 0.1991
s.e. 0.0691 0.0748 0.0459 0.0376
sigma^2 estimated as 3.15: log likelihood=-1488.58
AIC=2987.16 AICc=2987.24 BIC=3010.24
Training set error measures:
ME RMSE MAE MPE MAPE MASE
Training set -0.01364195 1.768855 1.103333 -0.168083 3.388286 1.002333
ACF1
Training set 0.0009598513
En las gráficas anteriores se presenta: en la figura 7 podemos observar los correlogramas ACF Y PACF para el mejor modelo ARIMA, en estos correlogramas podemos observar que en el correlograma (ACF)Función de Autocorrelación media móvil,en proceso el primer rezago muestra un poco de correlacion, pareciera que la mayoria de los demás rezagos se contienen de mejor manera a excepcion de algunos rezagos. Como este es el mejor modelo ARIMA,podemos observar que ya no tiene problema de raíz unitaria,puesto que el proceso tiene reversion a la media, sin embargo,prsenta algunos clusters de volatilidad por lo cual la varianza no es tan constante, (como deberia ser), pero si cumple con parte de los supuestos, razon por la que este modelo ARIMA es el adecuado, cuenta con parte de las especificaciones, arroja un valor de JUNK-BOX de 0.1784 lo que representa un resultado positivo, ya que este es mayor a 0.05, es decir sus residuales se distribuyen normalmente o los residuales del Autoarima no están correlacionados, el criterio de AIC, representa el valor mínimo en comparación a los demás, por lo que se concluye que este es el mejor modelo y por último el diferencial no es significativo.
En la figura 8 podemos observar la estabilidad del modelo a partir del gráfico de raices invertidas tanto en el proceso AR como en el de MA., las raíces asociadas a los rezagos son estables ya que se encuentran dentro del circulo , por lo que este es un modelo estable.
El dato pronosticado fue para el dia 19 de enero ya que el 18 de enero no cotizo en bolsa, de acuerdo al mejor modelo ARIMA el pronostico es de $ 16.63 USD contra el dato real de $26, asi obteniendo un diferencial de $0.05, por lo que ARIMA (1,1,3) es un buen modelo.
Modelos de Volatilidad
Modelos ARCH
Los modelos Autorregresivos Condicionales Heterocedásticos (ARCH) propuestos por Engle sirven para modelar la volatilidad de una serie. Los modelos como los ARMA y los ARIMA se asumen lineales, por ejemplo, considera un modelo ARMA (1,0):
\[y_t=\beta _0+\beta _1 y_{t-1} +u_t\]
Donde \(y_t\) representa el precio de cierre de VXX; la acción en este ejemplo se explica por un autorregresivo de orden 1, o bien, se puede interpretar que \(y_t\) es explicada por el precio del periodo anterior (suponiendo que estamos modelando cotizaciones con frecuencia diaria, la interpretación sería que el comportamiento del precio de cierre se ve explicado por el precio del día anterior y ese peso nos lo indicaría el parámetro β).
Asimismo, se asume que \(u_t\sim N(0,\sigma^{2} )\), es decir, que el término de error de distribuye como una normal con media cero y varianza constante. Sin embargo, las series financieras se caracterizan por ser series no lineales.
Entonces ¿cómo podemos modelar una serie de tiempo no lineal? Un modelo particularmente no lineal y que se utiliza ampliamente en las finanzas son los Modelos Autorregresivos Condicionalmente Heterocedásticos (ARCH).
Varianza condicional
Uno de los supuestos que se asumen en un modelo clásico de regresión lineal es que \(u_t\sim (N,\sigma ^{2})\), es decir, la varianza de los errores es constante, o también se puede decir que es homocedástico. En este sentido, los modelos ARCH asumen que la varianza no es constante, además, dichos modelos permiten modelar la aglomeración o clúster de volatilidad que se presentan en los rendimientos de los activos financieros.
La varianza condicional de \(u_t\) se puede expresar como \(\sigma _{t}^{2}\):
\[\sigma {t}^{2}= var(u_t\mid u_{t-1}u_{t-2}.....,u_{t-q})= E[(u_t - E(u_t)^2)\mid u_{t-1}u_{t-2}.....,u_{t-q} ])\]
Sin embargo, se asume que \(E(u_t)=0\) , por lo tanto:
\[\sigma {t}^{2}= var(u_t\mid u_{t-1},u_{t-2},.....,u_{t-q})= E[u_{t}^{2}\mid u_{t-1},u_{t-2},.....,u_{t-q}]\] La ecuación anterior indica que la varianza condicional de una variable aleatoria (que se distribuye normalmente y que tiene media cero) es igual a la varianza condicional del residuo al cuadrado. En los modelos ARCH,la autocorrelación en la volatilidad es modelada permitiendo que la varianza condicional del término de error, \(\sigma _{t}^{2}\), dependa del valor anterior del error al cuadrado:
\[\sigma {t}^{2}=\omega +\alpha _1 u_{t-1}^{2}\] El modelo anterior se conoce como ARCH(1) ya que la varianza condicional depende solo de un rezago del error al cuadrado. El modelo propuesto en la ecuación anterior se puede extender al caso general, donde la varianza del error depende de q rezagos de los errores al cuadrado. Esto se conoce como el modelo ARCH \((q)\).
\[\sigma {t}^{2}=\omega +\alpha _1 u_{t-1}^{2} +\alpha_ 2 u_{t-2}^{2}+....+\alpha_q u_{t-q}^{2}\] En la literatura, por lo general se utiliza la letra griega Eta \((\eta)\) para denotar la varianza condicional \(\sigma _{t}^{2}=\eta _t\). Considerando la ecuación del modelo ARMA(1,0) y la ecuación del ARCH(1), se tiene:
\[y_t=\beta 1+\beta _1 y{t-1}+ut\] \[u_t=\sim N(0,\eta )\] \[\eta t=\omega +\alpha _1u_{t-1}^{2}\]
Condiciones que deben satisfacer los modelos ARCH
No negatividad: Dado que \(\eta _t\)es la varianza condicional, su valor siempre debe ser estrictamente positivo (recuerde que la varianza condicional es el cuadrado de los errores). Se debe satisfacer que \(\omega \geq 0\) y $ _10$ Para el caso general ARCH \((q)\) se debe cumplir que \(\alpha _i\geq 0\forall i=1,2,...q\)
Confirmar que hay efectos ARCH en las series: En esta prueba, la hipótesis nula es que hay efectos ARCH, es decir, que los \((q)\) rezagos de los errores al cuadrado son significativos (o que son distintos de 0) en la serie, de esta forma se justifica que se puede modelar con un modelo de varianza condicional.
La sumatoria de los parámetros no puede ser mayor a 1: si la suma de los valores que reportan los parámetros del modelo es mayor uno, la volatilidad de la serie explota con el tiempo, en otras palabras, el modelo es inestable.
Limitaciones de los modelos ARCH
No hay una forma precisa de calcular el número de rezagos óptimos \((q)\) para el modelo ARCH.
El valor de \((q)\), es decir, el número de rezagos del error al cuadrado que es requerido para capturar toda la dependencia en la varianza condicional, puede llegar a ser muy largo, esto resultaría en un modelo de varianza condicional que no es parsimonioso.
Lo anterior (tener muchos rezagos \((q)\) puede llegar a ocasionar que uno de los coeficientes se vuelva negativo, lo cual no tendría sentido en la interpretación.
Modelos GARCH
Los modelos Generalizados Autorregresivos Condicionales Heterocedásticos (GARCH) son una extensión del modelo ARCH con la diferencia de que \(\sigma _{t}^{2}\) se vuelve recursivo.
El modelo GARCH se desarrolló, en trabajos independientes, por Tim Bollerslev (1986) y Stephen Taylor (1986). El modelo GARCH permite que la varianza condicional sea dependiente de sus propios rezagos. La ecuación de la varianza condicional es: \[\sigma {t}^{2}=\omega +\alpha _1 u{t-1}^{2}+\beta \sigma _{p-1}^{2} (1)\]
Este es el modelo GARCH (1,1), \(\sigma _{t}^{2}\)es conocida como la varianza condicional ya que es una estimación anticipada de la varianza calculada. El uso de los modelos GARCH permite interpretar:
la varianza ajustada (recordar que: \(\eta _t=\sigma _{t}^{2}\))
ω como una función ponderada de un promedio de largo plazo
la información de la volatilidad previa representada por \(\alpha_1u _{p-1}^{2}\)
y la varianza ajustada del modelo del periodo anterior \(\beta _1\sigma _{p-1}^{2}\)
De hecho, el modelo GARCH se puede expresar de tal manera que representa un modelo ARMA para modelar la varianza condicional. Para demostrar esto, considera que los residuales al cuadrado \(u _{t-1}^{2}\) en relación a su varianza condicional \(\sigma _{t}^{2}\) está dado por:
\[\varepsilon _t=u_{t}^{2}-\sigma _{t}^{2}\]
Despejamos la varianza condicional \[\sigma _{t}^{2}\]
\[\sigma _{t}^{2}=u_{t}^{2}-\epsilon _t (2)\]
Sustituimos ecuación (2) en (1)
\[u_{t}^{2}-\epsilon _t=\omega +\alpha _1 u_{t-1}^{2}+\beta (u_{t-1}^{2}-\varepsilon _{t-1})\]
Ordenamos:
\[u_{t}^{2}=\omega +\alpha _1 u_{t-1}^{2}+\beta u_{t-1}^{2}-\beta \varepsilon _{t-1}+\epsilon _t\]
Sacamos factor común \(u_{t}\)
\[u_{t}^{2}=\omega +(\alpha _1+\beta ) u_{t-1}^{2}-\beta \varepsilon _{t-1} +\epsilon _t\]
La ecuación (3) representa un proceso ARMA (1,1) sobre los errores al cuadrado.
¿Por qué los modelos GARCH se consideran mejores y son más utilizados que los ARCH?
En concreto, los modelos GARCH son más parsimoniosos y evitan el sobreajuste. En consecuencia, es menos probable que el modelo quebrante las restricciones de no negatividad.
Así, el modelo GARCH (1,1), contiene solo tres parámetros en la ecuación de varianza condicional y permite incluir un número infinito de errores al cuadrado rezagados para influir en la varianza condicional actual.
El modelo GARCH (1,1) se puede extender a un modelo GARCH (p,q) donde la varianza condicional actual se parametriza para depender de q rezagos del error al cuadrado y los p rezagos de la varianza condicional:
\[\sigma_{t}^{2}=\omega +\alpha_1 u_{t-1}^{2}+\alpha_2 u_{t-2}^{2}+...+\alpha_q u_{t-1}^{2}+\beta _1 \sigma _{t-1}^{2}+\beta _2 \sigma _{t-2}^{2}+....+\beta _p \sigma _{t-p}^{2}\]
De manera general, un GARCH(q,p) se denota como:
\[\sigma_{t}^{2}=\omega +\sum _{i=1}^{q}\alpha_1 u_{i-1}^{2}+\sum _{i=1}^{q} \beta _1 \sigma _{j-1}^{2}\]
Aunque, usualmente un modelo GARCH (1,1) será suficiente para capturar los clústeres o concentraciones de volatilidad en los datos.
Prueba ARCH para analizar si los residuales al cuadrado son homocedásticos.
ARCH LM-test; Null hypothesis: no ARCH effects
data: VXX_R
Chi-squared = 110.97, df = 12, p-value < 2.2e-16
| PRUEBA | P-VALUE | Ho | RESULTADO |
|---|---|---|---|
| ARCH-test | 2.2e-16 | La serie NO tiene efectos ARCH | Rechazo Ho |
Para asegurarse de que un modelo de volatilidad es pertinente, se prueba si hay efectos ARCH. La prueba de efectos ARCH se basa en multiplicadores de Lagrange para descomponer la varianza de la serie e identificar si sus rezagos son significativos. Si esto es así, entonces la aplicación de modelos de volatilidad es apropiada y justificada.Por lo que en la tabla anterior podemos observar que se rechaza la Ho, el valor p-value es de (0.00000000000000022) , por lo tanto, la serie tiene efectos ARCH ó los residuos no son homocedásticos.
ARCH 1
El primer modelo a implementar es un ARCH 1
\[\sigma _{t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH1}\]
El resultado obtenido es:
\[\sigma _{t}^{2}=0.000062 +0.692363\alpha _1u_{t-1}^{2}\] La volatilidad de VXX se explica en un 69.24% por la volatilidad de un día anterior, en el caso de ω que representa básicamente el intercepto de la ecuación de la varianza.
*---------------------------------*
* GARCH Model Fit *
*---------------------------------*
Conditional Variance Dynamics
-----------------------------------
GARCH Model : sGARCH(1,0)
Mean Model : ARFIMA(0,0,0)
Distribution : norm
Optimal Parameters
------------------------------------
Estimate Std. Error t value Pr(>|t|)
omega 0.000062 0.000000 2084.0 0
alpha1 0.692363 0.000331 2092.1 0
Robust Standard Errors:
Estimate Std. Error t value Pr(>|t|)
omega 0.000062 0.0e+00 18168 0
alpha1 0.692363 3.1e-05 22248 0
LogLikelihood : -396.8714
Information Criteria
------------------------------------
Akaike 1.0665
Bayes 1.0788
Shibata 1.0665
Hannan-Quinn 1.0713
Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
statistic p-value
Lag[1] 0.001038 0.9743
Lag[2*(p+q)+(p+q)-1][2] 0.417901 0.7334
Lag[4*(p+q)+(p+q)-1][5] 2.286471 0.5524
d.o.f=0
H0 : No serial correlation
Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
statistic p-value
Lag[1] 0.3006 0.5835
Lag[2*(p+q)+(p+q)-1][2] 0.3127 0.7887
Lag[4*(p+q)+(p+q)-1][5] 0.3421 0.9791
d.o.f=1
Weighted ARCH LM Tests
------------------------------------
Statistic Shape Scale P-Value
ARCH Lag[2] 0.02405 0.500 2.000 0.8768
ARCH Lag[4] 0.04929 1.397 1.611 0.9939
ARCH Lag[6] 0.08124 2.222 1.500 0.9994
Nyblom stability test
------------------------------------
Joint Statistic: 1868883
Individual Statistics:
omega 0.2019
alpha1 0.6495
Asymptotic Critical Values (10% 5% 1%)
Joint Statistic: 0.61 0.749 1.07
Individual Statistic: 0.35 0.47 0.75
Sign Bias Test
------------------------------------
t-value prob sig
Sign Bias 1.288 0.198317
Negative Sign Bias 2.761 0.005912 ***
Positive Sign Bias 1.350 0.177369
Joint Effect 9.584 0.022450 **
Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
group statistic p-value(g-1)
1 20 456.0 9.139e-85
2 30 654.8 2.657e-119
3 40 877.2 9.206e-159
4 50 1063.8 9.602e-191
Elapsed time : 1.105224
ARCH 2
El siguiente modelo a implementar es un ARCH 2
\[\sigma _{t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH1}+\underbrace{\alpha _1u_{t-2}^{2}}_{ARCH2}\]
El resultado obtenido es:
\[\sigma _{t}^{2}=0.001186 +0.299483\alpha _1u_{t-1}^{2}+0.369597\alpha _1u_{t-1}^{2}\]
La volatilidad de VXX se explica en un 29.94% por la volatilidad (o rendimientos) de un día anterior y en un 36.95% por la volatilidad de hace dos días. De manera conjunta, el modelo ARCH(2) captura aproximadamnete mas del 66 % de la volatilidad de VXX.
*---------------------------------*
* GARCH Model Fit *
*---------------------------------*
Conditional Variance Dynamics
-----------------------------------
GARCH Model : sGARCH(2,0)
Mean Model : ARFIMA(0,0,0)
Distribution : norm
Optimal Parameters
------------------------------------
Estimate Std. Error t value Pr(>|t|)
omega 0.001186 0.000119 9.9908 0.0e+00
alpha1 0.299483 0.072751 4.1165 3.8e-05
alpha2 0.369597 0.079734 4.6354 4.0e-06
Robust Standard Errors:
Estimate Std. Error t value Pr(>|t|)
omega 0.001186 0.000247 4.8041 0.000002
alpha1 0.299483 0.148004 2.0235 0.043024
alpha2 0.369597 0.184197 2.0065 0.044799
LogLikelihood : 1233.095
Information Criteria
------------------------------------
Akaike -3.2890
Bayes -3.2705
Shibata -3.2891
Hannan-Quinn -3.2819
Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
statistic p-value
Lag[1] 0.06529 0.7983
Lag[2*(p+q)+(p+q)-1][2] 0.48711 0.6997
Lag[4*(p+q)+(p+q)-1][5] 1.10820 0.8347
d.o.f=0
H0 : No serial correlation
Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
statistic p-value
Lag[1] 0.1656 0.68405
Lag[2*(p+q)+(p+q)-1][5] 6.1541 0.08272
Lag[4*(p+q)+(p+q)-1][9] 8.9586 0.08289
d.o.f=2
Weighted ARCH LM Tests
------------------------------------
Statistic Shape Scale P-Value
ARCH Lag[3] 4.631 0.500 2.000 0.031397
ARCH Lag[5] 9.744 1.440 1.667 0.007587
ARCH Lag[7] 10.269 2.315 1.543 0.015935
Nyblom stability test
------------------------------------
Joint Statistic: 1.2963
Individual Statistics:
omega 0.3115
alpha1 0.3476
alpha2 0.2510
Asymptotic Critical Values (10% 5% 1%)
Joint Statistic: 0.846 1.01 1.35
Individual Statistic: 0.35 0.47 0.75
Sign Bias Test
------------------------------------
t-value prob sig
Sign Bias 0.1562 0.8759
Negative Sign Bias 0.6823 0.4953
Positive Sign Bias 0.1225 0.9025
Joint Effect 0.5543 0.9068
Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
group statistic p-value(g-1)
1 20 127.7 3.929e-18
2 30 148.3 5.808e-18
3 40 171.9 1.312e-18
4 50 185.4 9.732e-18
Elapsed time : 0.4574101
*------------------------------------*
* GARCH Model Forecast *
*------------------------------------*
Model: sGARCH
Horizon: 1
Roll Steps: 0
Out of Sample: 0
0-roll forecast [T0=2021-01-14]:
Series Sigma
T+1 0 0.03626
Al aplicar los modelos ARCH anteriores nos podemos dar cuenta que el modelo ARCH 2 cumplen con todas las condiciones: la sumatoria de los parámetros es menor a 1, son significativos y no son negativos, sin embargo el modelo ARCH 1 solo cuanta con dos de los parámetros(la sumatoria de los parámetros es menor a 1 y no son negativos),y no son significativos sus valores \((p)\) debido a que el valor de este debe a que los q rezagos de los errores al cuadrado no son significativos ,no son distintos de 0. En las graficas conditional SD podemos observar que los modelos ARCH realizados captan correctamente la volatilidad de VXX.
GARCH 1,1
Ahora, se hace el ajuste con un GARCH(1,1):
\[\sigma {t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH (1)}+\underbrace{\beta _1 \sigma _{t-1}^{2}}_{GARCH (1)}\]
El resultado obtenido es:
\[\sigma {t}^{2}=0.000336 +\underbrace{0.308627u_{t-1}^{2}}+\underbrace{0.598549 \sigma _{t-1}^{2}}\]
Para uso de este trbajo nombraremos a la volatilidad de VXX como varianza condicional,[3] se explica en un 30.86% la volatilidad de vxx de un día anterior y en un 59.95% la varianza ajustada de un periodo.
*---------------------------------*
* GARCH Model Fit *
*---------------------------------*
Conditional Variance Dynamics
-----------------------------------
GARCH Model : sGARCH(1,1)
Mean Model : ARFIMA(0,0,0)
Distribution : norm
Optimal Parameters
------------------------------------
Estimate Std. Error t value Pr(>|t|)
omega 0.000336 0.000076 4.4258 1e-05
alpha1 0.308627 0.056876 5.4263 0e+00
beta1 0.598549 0.054198 11.0437 0e+00
Robust Standard Errors:
Estimate Std. Error t value Pr(>|t|)
omega 0.000336 0.000112 2.9879 0.002809
alpha1 0.308627 0.089159 3.4615 0.000537
beta1 0.598549 0.056714 10.5539 0.000000
LogLikelihood : 1254.504
Information Criteria
------------------------------------
Akaike -3.3463
Bayes -3.3277
Shibata -3.3463
Hannan-Quinn -3.3391
Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
statistic p-value
Lag[1] 0.0001155 0.9914
Lag[2*(p+q)+(p+q)-1][2] 0.5731903 0.6602
Lag[4*(p+q)+(p+q)-1][5] 0.9795381 0.8643
d.o.f=0
H0 : No serial correlation
Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
statistic p-value
Lag[1] 0.1692 0.6809
Lag[2*(p+q)+(p+q)-1][5] 0.3989 0.9721
Lag[4*(p+q)+(p+q)-1][9] 0.7196 0.9950
d.o.f=2
Weighted ARCH LM Tests
------------------------------------
Statistic Shape Scale P-Value
ARCH Lag[3] 0.1667 0.500 2.000 0.6830
ARCH Lag[5] 0.4105 1.440 1.667 0.9097
ARCH Lag[7] 0.4976 2.315 1.543 0.9786
Nyblom stability test
------------------------------------
Joint Statistic: 0.2897
Individual Statistics:
omega 0.08927
alpha1 0.08579
beta1 0.07903
Asymptotic Critical Values (10% 5% 1%)
Joint Statistic: 0.846 1.01 1.35
Individual Statistic: 0.35 0.47 0.75
Sign Bias Test
------------------------------------
t-value prob sig
Sign Bias 0.4986 0.6182
Negative Sign Bias 1.1416 0.2540
Positive Sign Bias 0.2758 0.7828
Joint Effect 1.3839 0.7093
Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
group statistic p-value(g-1)
1 20 133.7 2.884e-19
2 30 148.4 5.620e-18
3 40 151.0 4.202e-15
4 50 175.3 4.243e-16
Elapsed time : 0.346169
*------------------------------------*
* GARCH Model Forecast *
*------------------------------------*
Model: sGARCH
Horizon: 1
Roll Steps: 0
Out of Sample: 0
0-roll forecast [T0=2021-01-14]:
Series Sigma
T+1 0 0.03787
GARCH 1,2
Ahora, se hace el ajuste con un GARCH(1,2):
\[\sigma {t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH (1)}+\underbrace{\beta _1 \sigma _{t-1}^{2}}_{GARCH (1)}+\underbrace{\beta _2 \sigma _{t-2}^{2}}_{GARCH (2)}\]
El resultado obtenido es:
\[\sigma {t}^{2}=0.000333 +\underbrace{0.307191u_{t-1}^{2}}+\underbrace{0.600221 \sigma _{t-1}^{2}}+\underbrace{0.000000 \sigma _{t-2}^{2}}\]
La volatilidad de VXX como varianza condicional,[3] se explica en un 30.71% por la volatilidad de un día anterior, en un 60% la varianza ajustada de un periodo.Sin embargo, el componente GARCH(2) no es significativo.
*---------------------------------*
* GARCH Model Fit *
*---------------------------------*
Conditional Variance Dynamics
-----------------------------------
GARCH Model : sGARCH(1,2)
Mean Model : ARFIMA(0,0,0)
Distribution : norm
Optimal Parameters
------------------------------------
Estimate Std. Error t value Pr(>|t|)
omega 0.000333 0.000079 4.2210 0.000024
alpha1 0.307191 0.058991 5.2074 0.000000
beta1 0.600221 0.182864 3.2823 0.001030
beta2 0.000000 0.149665 0.0000 1.000000
Robust Standard Errors:
Estimate Std. Error t value Pr(>|t|)
omega 0.000333 0.000115 2.8977 0.003759
alpha1 0.307191 0.090822 3.3823 0.000719
beta1 0.600221 0.374751 1.6017 0.109232
beta2 0.000000 0.310121 0.0000 1.000000
LogLikelihood : 1254.803
Information Criteria
------------------------------------
Akaike -3.3444
Bayes -3.3197
Shibata -3.3445
Hannan-Quinn -3.3349
Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
statistic p-value
Lag[1] 0.0003686 0.9847
Lag[2*(p+q)+(p+q)-1][2] 0.5865422 0.6543
Lag[4*(p+q)+(p+q)-1][5] 0.9907162 0.8618
d.o.f=0
H0 : No serial correlation
Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
statistic p-value
Lag[1] 0.1825 0.6693
Lag[2*(p+q)+(p+q)-1][8] 0.6498 0.9921
Lag[4*(p+q)+(p+q)-1][14] 1.1564 0.9993
d.o.f=3
Weighted ARCH LM Tests
------------------------------------
Statistic Shape Scale P-Value
ARCH Lag[4] 0.09303 0.500 2.000 0.7604
ARCH Lag[6] 0.39548 1.461 1.711 0.9206
ARCH Lag[8] 0.65765 2.368 1.583 0.9675
Nyblom stability test
------------------------------------
Joint Statistic: 0.5675
Individual Statistics:
omega 0.08825
alpha1 0.08640
beta1 0.07885
beta2 0.08150
Asymptotic Critical Values (10% 5% 1%)
Joint Statistic: 1.07 1.24 1.6
Individual Statistic: 0.35 0.47 0.75
Sign Bias Test
------------------------------------
t-value prob sig
Sign Bias 0.5107 0.6097
Negative Sign Bias 1.1468 0.2518
Positive Sign Bias 0.2669 0.7896
Joint Effect 1.3900 0.7079
Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
group statistic p-value(g-1)
1 20 132.9 4.096e-19
2 30 148.5 5.438e-18
3 40 149.2 8.368e-15
4 50 174.2 6.286e-16
Elapsed time : 0.4424899
*------------------------------------*
* GARCH Model Forecast *
*------------------------------------*
Model: sGARCH
Horizon: 1
Roll Steps: 0
Out of Sample: 0
0-roll forecast [T0=2021-01-14]:
Series Sigma
T+1 0 0.03786
GARCH 2,1
Ahora, se hace el ajuste con un GARCH(2,1):
\[\sigma {t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH (1)}+\underbrace{\alpha _2u_{t-2}^{2}}_{ARCH (1)}+\underbrace{\beta _1 \sigma _{t-1}^{2}}_{GARCH (1)}\]
El resultado obtenido es:
\[\sigma {t}^{2}=0.000468+{0.238189u_{t-1}^{2}}+{0.200464u_{t-2}^{2}}+{0.440747 \sigma _{t-1}^{2}}\]
La volatilidad de VXX como varianza condicional,[3] se explica en un 23.81% por la volatilidad de un día anterior , en un 20% por la varianza ajustada rezagada de un periodo y en un 44% por la varianza ajustada de un periodo.
*---------------------------------*
* GARCH Model Fit *
*---------------------------------*
Conditional Variance Dynamics
-----------------------------------
GARCH Model : sGARCH(2,1)
Mean Model : ARFIMA(0,0,0)
Distribution : norm
Optimal Parameters
------------------------------------
Estimate Std. Error t value Pr(>|t|)
omega 0.000468 0.000126 3.7275 0.000193
alpha1 0.238189 0.059930 3.9745 0.000071
alpha2 0.200464 0.099432 2.0161 0.043791
beta1 0.440747 0.105493 4.1780 0.000029
Robust Standard Errors:
Estimate Std. Error t value Pr(>|t|)
omega 0.000468 0.000251 1.86943 0.061563
alpha1 0.238189 0.125261 1.90154 0.057231
alpha2 0.200464 0.262521 0.76361 0.445099
beta1 0.440747 0.200762 2.19537 0.028137
LogLikelihood : 1257.159
Information Criteria
------------------------------------
Akaike -3.3507
Bayes -3.3260
Shibata -3.3508
Hannan-Quinn -3.3412
Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
statistic p-value
Lag[1] 0.0003076 0.9860
Lag[2*(p+q)+(p+q)-1][2] 0.4344860 0.7252
Lag[4*(p+q)+(p+q)-1][5] 0.7834141 0.9064
d.o.f=0
H0 : No serial correlation
Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
statistic p-value
Lag[1] 0.005178 0.9426
Lag[2*(p+q)+(p+q)-1][8] 0.901033 0.9804
Lag[4*(p+q)+(p+q)-1][14] 1.535063 0.9972
d.o.f=3
Weighted ARCH LM Tests
------------------------------------
Statistic Shape Scale P-Value
ARCH Lag[4] 0.08869 0.500 2.000 0.7659
ARCH Lag[6] 0.44952 1.461 1.711 0.9060
ARCH Lag[8] 0.68404 2.368 1.583 0.9648
Nyblom stability test
------------------------------------
Joint Statistic: 0.9432
Individual Statistics:
omega 0.10872
alpha1 0.09017
alpha2 0.13298
beta1 0.07864
Asymptotic Critical Values (10% 5% 1%)
Joint Statistic: 1.07 1.24 1.6
Individual Statistic: 0.35 0.47 0.75
Sign Bias Test
------------------------------------
t-value prob sig
Sign Bias 0.49213 0.6228
Negative Sign Bias 1.02623 0.3051
Positive Sign Bias 0.02394 0.9809
Joint Effect 1.07223 0.7838
Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
group statistic p-value(g-1)
1 20 130.4 1.227e-18
2 30 140.1 1.635e-16
3 40 148.7 1.024e-14
4 50 184.1 1.606e-17
Elapsed time : 0.466677
*------------------------------------*
* GARCH Model Forecast *
*------------------------------------*
Model: sGARCH
Horizon: 20
Roll Steps: 0
Out of Sample: 0
0-roll forecast [T0=2021-01-14]:
Series Sigma
T+1 0 0.03701
T+2 0 0.03775
T+3 0 0.04136
T+4 0 0.04377
T+5 0 0.04595
T+6 0 0.04781
T+7 0 0.04944
T+8 0 0.05085
T+9 0 0.05210
T+10 0 0.05319
T+11 0 0.05416
T+12 0 0.05502
T+13 0 0.05578
T+14 0 0.05646
T+15 0 0.05707
T+16 0 0.05760
T+17 0 0.05809
T+18 0 0.05852
T+19 0 0.05890
T+20 0 0.05925
GARCH 2,2
Ahora, se hace el ajuste con un GARCH(2,2):
\[\sigma {t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH (1)}+\underbrace{\alpha _2u_{t-2}^{2}}_{ARCH (1)}+\underbrace{\beta_1 \sigma _{t-1}^{2}}_{GARCH (1)}+\underbrace{\beta _2 \sigma _{t-2}^{2}}_{GARCH (1)}\]
El resultado obtenido es:
\[\sigma {t}^{2}=0.000536+{0.232218u_{t-1}^{2}}+{0.356390u_{t-2}^{2}}+{0.000000 \sigma _{t-1}^{2}}+{0.295931 \sigma _{t-2}^{2}}\]
La volatilidad de VXX como varianza condicional,[3] se explica en un 23.22% por la volatilidad de un día anterior y en un 35.63% por la volatilidad de dos días ; el componente GARCH(1) no es significativo, también en un 29.59% por la varianza ajustada de dos periodos.
*---------------------------------*
* GARCH Model Fit *
*---------------------------------*
Conditional Variance Dynamics
-----------------------------------
GARCH Model : sGARCH(2,2)
Mean Model : ARFIMA(0,0,0)
Distribution : norm
Optimal Parameters
------------------------------------
Estimate Std. Error t value Pr(>|t|)
omega 0.000536 0.000103 5.189245 0.000000
alpha1 0.232218 0.058380 3.977718 0.000070
alpha2 0.356390 0.074368 4.792223 0.000002
beta1 0.000000 0.112168 0.000002 0.999999
beta2 0.295931 0.097016 3.050338 0.002286
Robust Standard Errors:
Estimate Std. Error t value Pr(>|t|)
omega 0.000536 0.000152 3.517014 0.000436
alpha1 0.232218 0.117228 1.980916 0.047601
alpha2 0.356390 0.188964 1.886024 0.059292
beta1 0.000000 0.129206 0.000001 0.999999
beta2 0.295931 0.104245 2.838800 0.004528
LogLikelihood : 1259.512
Information Criteria
------------------------------------
Akaike -3.3543
Bayes -3.3234
Shibata -3.3544
Hannan-Quinn -3.3424
Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
statistic p-value
Lag[1] 0.004331 0.9475
Lag[2*(p+q)+(p+q)-1][2] 0.511062 0.6884
Lag[4*(p+q)+(p+q)-1][5] 0.920907 0.8773
d.o.f=0
H0 : No serial correlation
Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
statistic p-value
Lag[1] 0.005097 0.9431
Lag[2*(p+q)+(p+q)-1][11] 1.359443 0.9893
Lag[4*(p+q)+(p+q)-1][19] 2.450180 0.9984
d.o.f=4
Weighted ARCH LM Tests
------------------------------------
Statistic Shape Scale P-Value
ARCH Lag[5] 0.3969 0.500 2.000 0.5287
ARCH Lag[7] 0.5425 1.473 1.746 0.8857
ARCH Lag[9] 1.2582 2.402 1.619 0.8929
Nyblom stability test
------------------------------------
Joint Statistic: 1.5665
Individual Statistics:
omega 0.1132
alpha1 0.2420
alpha2 0.1099
beta1 0.1091
beta2 0.1215
Asymptotic Critical Values (10% 5% 1%)
Joint Statistic: 1.28 1.47 1.88
Individual Statistic: 0.35 0.47 0.75
Sign Bias Test
------------------------------------
t-value prob sig
Sign Bias 0.49250 0.6225
Negative Sign Bias 1.12022 0.2630
Positive Sign Bias 0.02057 0.9836
Joint Effect 1.30219 0.7286
Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
group statistic p-value(g-1)
1 20 123.4 2.510e-17
2 30 145.3 1.958e-17
3 40 147.0 1.952e-14
4 50 165.5 1.483e-14
Elapsed time : 0.6787341
*------------------------------------*
* GARCH Model Forecast *
*------------------------------------*
Model: sGARCH
Horizon: 20
Roll Steps: 0
Out of Sample: 0
0-roll forecast [T0=2021-01-14]:
Series Sigma
T+1 0 0.03853
T+2 0 0.03762
T+3 0 0.04282
T+4 0 0.04342
T+5 0 0.04658
T+6 0 0.04765
T+7 0 0.04979
T+8 0 0.05092
T+9 0 0.05249
T+10 0 0.05355
T+11 0 0.05477
T+12 0 0.05571
T+13 0 0.05669
T+14 0 0.05751
T+15 0 0.05832
T+16 0 0.05902
T+17 0 0.05970
T+18 0 0.06030
T+19 0 0.06087
T+20 0 0.06139
Tabla de resultados 2. ARCH-GARCH y selección del modelo
| MODELO | \(\omega\) | \(\alpha _1\) | \(\alpha _2\) | \(\beta_1\) | \(\beta_2\) | AKAIKE | BAYES |
|---|---|---|---|---|---|---|---|
| ARCH(1) | 0,000062 | 0,692363 | 1.0665 | 1.0788 | |||
| ARCH (2) | 0,001186 | 0.299483 | 0.369597 | -3.2890 | -3.2705 | ||
| GARCH (1,1) | 0,000336 | 0.308627 | 0.598549 | -3.3463 | -3.3277 | ||
| GARCH (1,2) | 0.000333 | 0.307191 | 0,600221 | 0,000000 | -3.3444 | -3.3197 | |
| GARCH (2,1) | 0,000468 | 0.238189 | 0.200464 | 0.440747 | -3.3507 | -3.3260 | |
| GARCH (2,2 | 0,000536 | 0.232218 | 0.356390 | 0,000000 | 0.295931 | -3.3543 | -3.3234 |
En la tabla anterior se presentan los resultados de los parámetros obtenidos de todas las especificaciones ARCH y GARCH, así como el criterio de información de Akaike y el criterio bayesiano de Schwarz de los mismos.Por lo cual concluimos que el mejor modelo de acuerdo a los criterios de informacion y de los parámetros obtenidos es, GARCH(2,1)
Mejor modelo
GARCH 2,1
Conforme a los parámetros obtenidos de todas las especificaciones GARCH (2,1), así como el criterio de información de Akaike , el criterio bayesiano de Schwarz y las condiciones que deben satisfacer los modelos,se concluye que este es el mejor modelo.
Varianza condicional
En el gráfico anterior podemos observar los rendimientos que tiene vxx (color gris) que se encuentra en el modelo , la ecuación GARCH(2,1) representa la línea azul esta línea modela la volatilidad que tiene VXX,por lo que podemos observar que esta ecuacion capta la volatilidad de vxx.
Acorde con el modelo GARCH(2,1), el rendimiento pronosticado para el dia 19 de enero de 2021 es de 3.701%.
CONCLUSION
En base a los modelos realizados, se concluye que los modelos ARCH-GARCH son muy utiles para explicar adecuadamente la volatilidad de una serie financiera,estos modelos pemiten tener resultados más certeros,ya que de acuerdo a las caracteristicas de nuestra serie debemos implemtar el modelo que mas se apegue a las caracteristicas del mismo.
Ahora bien,debemos tener en cuenta que VXX es una serie volatil, como podemos observar en el la figura 1 , el precio de cierre de vxx va a la baja debido a la alta volatilidad que presenta este instrumento financiero ,pero,¿A qué se debe esta volatilidad?
Actualmente para el año 2021 los niveles de VXX muestran una tendencia a la baja ya que estas “se vinculan con el VIX”, pero en realidad estas no operan con VXX directamente, mas bien estas operan con futuros de VIX.La razón por la que esto es tan importante ,es que, si bien los futuros de VIX finalmente vencen y liquidan los valores de VIX, en el tiempo anterior al vencimiento, los futuros de VIX tienden a cotizar por encima del nivel al contado del VIX. Lo importante que hay que entender sobre los futuros es que, en última instancia, convergen al precio al contado. Este fenómeno es bien conocido como“roll yield”. Roll yield, es el rendimiento que obtiene al mantener un contrato de futuros mientras converge hacia el mercado al contado. Si los precios de los futuros están por encima del spot, esto significa que los futuros están cayendo hacia el mercado al contado y, por lo tanto, el rendimiento del roll es negativo.El rendimiento en rollo es la razón por la que VXX pierde dinero casi todo el tiempo: mantiene futuros con precios superiores al nivel al contado del VIX y, con el tiempo, estos futuros convergen esto a raíz de que VXX tiene futuros de VIX y los futuros de VIX solo están correlacionados con los cambios en el VIX hasta cierto punto.Este es el problema con VXX en pocas palabras. Su estrategia solo se correlaciona con los movimientos de corto plazo del VIX. Cuanto más tiempo tenga VXX, más dinero tiende a perder debido al bajo rendimiento frente al VIX.
Referencias
[3] ¿Por qué varianza condicional? Porque la volatilidad o los rendimientos de TESLA dependen (están condicionados) de la varianza rezagada, es decir, depende del tiempo.
https://spa.coin-group.com/volatility-etn-to-face-1-10-reverse-split-29458
https://admiralmarkets.com/es/education/articles/trading-instruments/indice-vix-1
NOTA PARA RECORDAR:
Si valor p mayor a 0.05 No rechazo (acepto) H0.
Si valor p menor a 0.05 Rechazo H0.