S&P 500 VIX Short-Term Futures ETN (vxx)

What is VXX & How Does it Work?

El iPath S&P 500 VIX Short-Term Futures (VXX) es una nota cotizada en bolsa (ETN) diseñada para proporcionar a los inversores exposición a la volatilidad del mercado de valores. Las acciones de un ETN, que está estructurado como un instrumento de deuda, se pueden comprar y vender como acciones. Durante tiempos de alta volatilidad en el mercado de valores, el valor de las acciones de VXX generalmente aumentará. Por otro lado, los períodos tranquilos para el mercado probablemente mantendrán la tendencia a la baja de las acciones. El ETN de futuros a corto plazo de iPath S&P 500 VIX está estructurado legalmente como una nota cotizada en bolsa (ETN), que es de naturaleza similar a un fondo cotizado en bolsa (ETF)[1]

Administrado por Barclays Capital Incorporated, el ETN de futuros a corto plazo de iPath S&P 500 VIX está vinculado a los cambios diarios de precios en el Índice de volatilidad CBOE , pero de una manera complicada. El VIX a veces se denomina “indicador del miedo” del mercado porque tiende a aumentar durante el período de incertidumbre del mercado y aumenta en momentos de pánico. El índice rastrea los cambios en la volatilidad esperada que se cotiza en las opciones del índice S&P 500 y se calcula utilizando una fórmula de precios de opciones.[1]

Comportamiento del precio de cierre de VXX: 25 de Enero de 2018 al 15 de enero de 2021

En la figura 1 se presenta el comportamiento de VXX a partir del 25 de enero de 2018 al 15 de enero de 2021. La tendencia que presenta vxx en este periodo de tiempo es bajista llegando a registrar un mínimo de 13.56 USD por ETN, sin embargo, en 2018 se convirtió en el mejor año para VXX llegando a registrar su precio máximo el 18 de marzo de 2020 con un precio de 69 USD; este comportamiento se le atribuye principalmente a que los ETN están diseñados para brindar exposición al S&P 500 ® VIX.Durante este periodo positivo S&P 500 VIX Futures registro ascensos del 9,73%. El S&P 500 VIX Futures anotó un volumen máximo de 51,75 puntos y un volumen mínimo de 47,45 puntos.[2]

En el momento en que hay alta volatilidad, el VIX alcanza una cifra elevada y se correlacionan con caídas del S&P 500, indicándonos que en el mercado hay miedo y pesimismo y suele coincidir con mínimos en el índice de referencia, es en estos momentos donde se producen fuertes movimientos en los mercados bursátiles, mientras que cuando el VIX está en mínimos, hay alegría y confianza.

Actualmente para el año 2021 los niveles de VXX muestran una tendencia a la baja ,estas bajas pronunciadas son el resultado de una menor volatilidad del mercado, ya que los inversores parecen tener menos aversión al riesgo a pesar del aumento de las valoraciones de las acciones.

Figura 1. Precio de cierre de VXX

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

La principal diferencia entre un ETF y un ETN es que, mientras que el fondo cotizado en bolsa representa la propiedad de una cesta de valores (acciones, bonos o materias primas) dentro de la cartera del fondo, la nota cotizada en bolsa es un instrumento de deuda sin garantía y tiene bonos. características similares: los inversores pueden tener acciones hasta el vencimiento (que es el 23 de enero de 2048 para el ETN VXX lanzado el 19 de enero de 2018) y comprar y vender antes del vencimiento.[1]

Serie en rendimientos

En la figura 2 se muestran los rendimientos de VXX de enero de 2018 a enero de 2021 , se pueden observar dos clusters de volatilidad ( mas pronunciados)en el periodo de abril de 2018 a abril de 2020, sin embargo en este lapso de tiempo tambien se presentan otros clusters de volatilidad menos pronunciados, cabe mencionar que VXX es un instrumento que invariablemente presenta volatilidad.

En cuanto al cluster de volatilidad de abril de 2018 ; se debe a que VIX y VXX tienen una relación inversa, VIX en 2018 se encontró por debajo de los ocho puntos debido a la bonanza económica en EE.UU.

El cluster de volatilidad de marzo –abril de 2020 se debe a la crisis sanitaria que actualmente vivimos (2021);En 2020, durante marzo y abril, el índice VIX se mantuvo por encima de los 40 puntos, llegando incluso a superar los 80 puntos el, 18 de marzo, nivel histórico, principalmente por todas las noticias relativas al coronavirus, y el consiguiente desplome de los mercados, esto conlleva a registros de volatilidad el cual podemos observar en la gráfica, cabe mencionar que los demás clusters de volatidad que se presentan después de esta fecha son consecuencia de las elecciones presidenciales de Estados Unidos que se llevarón a cabo el 3 de noviembre de 2020 ,son un elemento más de incertidumbre que puede reflejarse también en el indicador del miedo.

Figura 2. Rendimientos de VXX

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Gráfico Q-Q e Histogramas a niveles en rendimientos

En el siguiente grafico se muestra el histograma a niveles de VXX,(un histograma es un gráfico que muestra la distribución de frecuencia o forma de un conjunto de datos continuos) .Esto nos permite analizar la distribución subyacente de una variable así como sus valores atípicos, asimetría.En esta figura 3 se presenta un mayor número de repeticiones en 43 para el precio de 29 USD mientras que los valores más extremos y con pocas repeticiones se sitúan en más de los 40 USD.

Figura 3. Histograma en niveles de VXX

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

En el siguiente grafico se muestra el histograma en rendimientos de VXX,en esta figura 4 tuvo mayor número de repeticiones en un intervalo de -0.3 a 0.00 es decir 25 veces.

Figura 4. Histograma en rendimientos de VXX

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Los gráficos Cuantil-Cuantil (también referidos como Q-Q plots) es la representación gráfica de la distribución de un conjunto de datos a alguna distribución ideal o a priori que se asume como dada. La finalidad de estos gráficos es comparar la distribución teórica (la que suponemos o queremos como se comporte) contra la distribución empírica (la que realmente presenta la variable). Es decir los gráficos Q-Q Plots representan dos cuantiles: uno contra otro.El propósitode los Q-Q plots es averiguar si dos conjuntos de datos provienen de la misma distribucion.Si los dos conjuntos de datos provienen de una misma distribución común,los puntos caerán en esa línea de referencia.

Figura 5. Grafico Q-Q en niveles de VXX

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Figura 6. Grafico Q-Q en rendimientos de VXX

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

En la figura 5 se observa que la mayor parte de la distribución se se apega a la linea recta, sin embargo, presenta dispersión en sus niveles. En la figura 6 se observa que los datos estan muy cercanos a la recta esto tiene que ver con la propiedad que cumplen los rendimientos.Lo que supone que nuestra serie se parece a una distribucion normal, sin embargo, en ambas figuras,esto no indica una normalidad en los datos ya que VXX es un instrumento volatil razón por la cual se presentan rendimientos fuera de su media provocando dispersion en sus datos (puntos negros).

Pruebas de raíces unitarias

La prueba de una raíz unitaria en series de tiempo fue hecho por Dickey y Fuller (1979). El objetivo de la prueba es examinar la hipotesis nula de \(\beta = 1\) \(Y_t =\beta Y_{t-1} + ut\)

En prueba de Dicker Fuller Aumentada (DFA) permite incorporar p rezagos a la variable dependiente: \[\Delta Y_t=\psi Y_{t-1}+\sum_{i=1}^{p}\alpha \Delta Y_{t-1}+ut\]

Los rezagos de \(Y_t\) ahora absorben cualquier estructura dinamica presente en el variable dependiente \(Y_t\) , para garantizar que ut no este autocorrelacionado.

Prueba Dickey Fuller Aumentada de VXX a niveles


    Augmented Dickey-Fuller Test

data:  VXX
Dickey-Fuller = -3.1551, Lag order = 9, p-value = 0.09567
alternative hypothesis: stationary

Al realizar la prueba Dickey Fuller Aumentada se obtiene como resultado en el valor p-value 0.09, por lo tanto no se rechaza la hipotesis nula ya que este valor es mayor a 0.05, aceptamos que la serie a niveles tiene raiz unitaria o no es una serie estacionaria.

Prueba Dickey Fuller Aumentada de VXX a rendimientos


    Augmented Dickey-Fuller Test

data:  VXX_R
Dickey-Fuller = -8.5637, Lag order = 9, p-value = 0.01
alternative hypothesis: stationary

Al realizar la prueba Dickey Fuller Aumentada para los rendimientos se obtiene como resultado en el valor p-value 0.01, por lo tanto se rechaza la hipotesis nula ya que este valor es menor a 0.05, rechazamos que la serie a niveles tiene raiz unitaria o dicho de otra manera es una serie estacionaria.

Prueba Phillips-Perron

Phillips y Perron (1988) incorporaron una correccion al procedimiento de la prueba DFA para permitir residuos autocorrelacionados, es decir, para ver si hay presencia de raíces unitarias en los errores. La prueba Phillips y Perron (PP) parte de la regresion utilizada en DFA \(\Delta Y_t=\psi Y_{t-1}+\sum_{i=1}^{p}\alpha \Delta Y_{t-1}+ut\).

La prueba PP incorpora la existencia de raíces unitarias en el proceso de Media Movil (MA). Esta prueba se puede aplicar con intercepto, con intercepto y tendencia o sin ninguno de los anteriores componentes. La Prueba PP originalmente esta diseñada para encontrar rompimientos o cambios estructurales en las series. La hipotesis de esta prueba es la misma que DFA.

Prueba Phillips-Perron de VXX a niveles


    Phillips-Perron Unit Root Test

data:  VXX
Dickey-Fuller = -3.2592, Truncation lag parameter = 6, p-value =
0.07772

Al realizar la prueba Phillips-Perron se obtiene como resultado en el valor p-value es 0.07, por lo tanto no se rechaza la hipotesis nula ya que este valor es mayor a 0.05, aceptamos que la serie a niveles tiene raiz unitaria o no es una serie estacionaria.

Prueba Phillips-Perron de VXX a rendimientos


    Phillips-Perron Unit Root Test

data:  VXX_R
Dickey-Fuller = -28.843, Truncation lag parameter = 6, p-value = 0.01

Al realizar la prueba Phillips-Perron para los rendimientos se obtiene como resultado en el valor p-value 0.01, por lo tanto se rechaza la hipotesis nula ya que este valor es menor a 0.05, rechazamos que la serie a niveles tiene raiz unitaria o dicho de otra manera es una serie estacionaria.

Prueba Kwiatkowski - Phillips - Schmidt - Shin (KPSS

La prueba propuesta por Kwiatkowski - Phillips - Schmidt - Shin (KPSS)prueba directamente la estacionariedad de la variable,descomponiendo la serie en: tendecia deterministica, caminata aleatoria y error estacionario:

\[Y_t =\xi t + rt +\epsilon t\] La prueba KPSS se considera una prueba de mayor potencia y robustez que DFA y PP. La hipotesis de esta prueba KPSS es. H0:La serie es estacionaria. Ha:La serie no es estacionaria.

Prueba KPSS de VXX a niveles


    KPSS Test for Level Stationarity

data:  VXX
KPSS Level = 2.9332, Truncation lag parameter = 6, p-value = 0.01

Al realizar la KPSS se obtiene como resultado en el valor p-value 0.01, por lo tanto se rechaza la hipotesis nula ya que este valor es menor a 0.05, rechazamos que la serie a niveles es estacionaria.

Prueba KPSS de VXX a rendimientos


    KPSS Test for Level Stationarity

data:  VXX_R
KPSS Level = 0.078748, Truncation lag parameter = 6, p-value = 0.1

Al realizar la prueba KPSS para los rendimientos se obtiene como resultado en el valor p-value 0.01,por lo tanto se rechaza la hipotesis nula ya que este valor es menor a 0.05, rechazamos que la serie a niveles es estacionaria.

Arima-2 pronosticos

AUTOARIMA

A continuacion se utilizara la metodología de Box & Jenkins para calcular los modelos ARIMA. Se obtiene la Función de Autocorrelación (MA) y Función de Autocorrelación parcial (AR). Ambas series requieren ser integrada de orden I, es decir, se les tiene que aplicar una primera diferencia para que al menos puedan ser estacionarias en media. La aplicación de la primera diferencia es congruente con los resultados de las pruebas unitarias, en donde es necesario que las series se transformen en rendimientos. Asociados a la metodologia de Box yJenkins para especificar una modelo adecuado se debe partir de su enfoque practico y prágmatico que consta de 3 pasos.

Series: VXX 
ARIMA(1,1,3) 

Coefficients:
          ar1     ma1     ma2     ma3
      -0.8945  0.7925  0.0600  0.1991
s.e.   0.0691  0.0748  0.0459  0.0376

sigma^2 estimated as 3.15:  log likelihood=-1488.58
AIC=2987.16   AICc=2987.24   BIC=3010.24


    Ljung-Box test

data:  Residuals from ARIMA(1,1,3)
Q* = 8.9157, df = 6, p-value = 0.1784

Model df: 4.   Total lags used: 10

    Point Forecast     Lo 80    Hi 80     Lo 95    Hi 95
750       16.58271 14.308231 18.85720 13.104192 20.06123
751       16.56863 13.511571 19.62569 11.893261 21.24400
752       16.62449 12.746233 20.50275 10.693206 22.55578
753       16.57453 11.942981 21.20607  9.491189 23.65786
754       16.61922 11.401944 21.83650  8.640085 24.59835
755       16.57924 10.786060 22.37243  7.719334 25.43915
756       16.61500 10.338947 22.89105  7.016605 26.21340
757       16.58302  9.824713 23.34132  6.247082 26.91895
758       16.61163  9.431788 23.79146  5.631011 27.59224
759       16.58604  8.983936 24.18814  4.959628 28.21245
760       16.60892  8.627354 24.59049  4.402166 28.81568
761       16.58845  8.227097 24.94981  3.800863 29.37604

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Propuesta 1


Call:
arima(x = VXX, order = c(2, 1, 1))

Coefficients:
         ar1     ar2      ma1
      0.1479  0.1656  -0.2555
s.e.  0.1616  0.0383   0.1614

sigma^2 estimated as 3.186:  log likelihood = -1494.83,  aic = 2997.65


    Ljung-Box test

data:  Residuals from ARIMA(2,1,1)
Q* = 23.407, df = 7, p-value = 0.001447

Model df: 3.   Total lags used: 10

    Point Forecast     Lo 80    Hi 80     Lo 95    Hi 95
750       16.61078 14.323121 18.89843 13.112110 20.10944
751       16.63200 13.565950 19.69805 11.942882 21.32111
752       16.62367 12.740010 20.50734 10.684123 22.56323
753       16.62596 12.063931 21.18798  9.648940 23.60297
754       16.62492 11.445824 21.80401  8.704178 24.54566
755       16.62514 10.890668 22.35961  7.855022 25.39526
756       16.62500 10.379979 22.87002  7.074064 26.17594
757       16.62502  9.906911 23.34313  6.350560 26.89948
758       16.62500  9.464187 23.78581  5.673483 27.57651
759       16.62500  9.047009 24.20299  5.035464 28.21453
760       16.62499  8.651463 24.59852  4.430531 28.81946
761       16.62499  8.274569 24.97542  3.854121 29.39587

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Propuesta 2


Call:
arima(x = VXX, order = c(2, 1, 3))

Coefficients:
         ar1      ar2      ma1     ma2      ma3
      0.8382  -0.3710  -0.9516  0.6288  -0.1400
s.e.  0.3707   0.1803   0.3705  0.1914   0.0782

sigma^2 estimated as 3.159:  log likelihood = -1491.64,  aic = 2995.29


    Ljung-Box test

data:  Residuals from ARIMA(2,1,3)
Q* = 16.854, df = 5, p-value = 0.004786

Model df: 5.   Total lags used: 10

    Point Forecast     Lo 80    Hi 80     Lo 95    Hi 95
750       16.57025 14.292357 18.84813 13.086516 20.05397
751       16.53679 13.492559 19.58101 11.881043 21.19253
752       16.53745 12.666964 20.40794 10.618052 22.45685
753       16.55042 11.954657 21.14618  9.521807 23.57903
754       16.56104 11.369872 21.75222  8.621831 24.50026
755       16.56514 10.875957 22.25432  7.864286 25.26599
756       16.56463 10.435858 22.69340  7.191482 25.93778
757       16.56268 10.026829 23.09854  6.566956 26.55841
758       16.56124  9.638687 23.48380  5.974109 27.14837
759       16.56075  9.268159 23.85335  5.407693 27.71382
760       16.56088  8.914257 24.20751  4.866379 28.25538
761       16.56117  8.575991 24.54635  4.348893 28.77344

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Tabla de resultados 1

ARIMA JUNG BOX AIC DATO REAL DATO PRONÓSTICADO DIFERENCIAL
(1,1,3) 0.1784 2987.16 $16.63 USD $16.58 USD $0.05
(2,1,1) 0.001447 2997.65 $16.63 USD $16.61 USD $0.02
(2,1,3) 0.004786 2995.29 $16.63 USD $16.57 USD $0.06

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

De acuerdo a los resultados presentados en la tabla anterior podemos observar que el pronostico de Autoarima(1,1,3), arroja un valor de JUNK-BOX de 0.1784 lo que representa un resultado positivo, ya que este es mayor a 0.05, es decir sus residuales se distribuyen normalmente o los residuales del Autoarima no están correlacionados.En cuanto al criterio de AIC, representa el valor mínimo en comparación a los demás, por lo que se concluye que este es el mejor modelo.

Respecto a los modelos pronosticados representan un resultado negativo por lo cual no se pueden tomar como buenos modelos, ya que el valo p-value de la prueba JUNK-BOX es menor a 0.05, es decir sus residuales no se distribuyen de manera correcta,otro resultado que nos indica resultados negativos, es, el criterio de AIC ya que sus valores son elevados, sin embargo, el diferencial es menor en contraste con el modelo Autoarima 0.03 y 0.01 respectivamente, en conjunto tomando en cuenta los criterios que hay que seguir para seleccionar el mejor modelomuestran que no se han terminado de corregir los problemas de autocorrelación.

Si bien,los problemas de una mala especificación o el no corregir los problemas de autocorrelación del modelo, implica que no se obtengan resultados confiables.

Mejor modelo ARIMA para VXX

Funcion de Autocorrelacion (ACF) La funcion de Autocorrelacion permite identicar si existe dependencia en el componente MA. ACF muestra, a traves de un correlograma, la correlacion serial en q rezagos del componente de error

\[\rho _s=\frac{\gamma _s}{\gamma _0}\] \[s=0,1,2....\] Donde \(\gamma _s\) es la covarianza de \(\gamma\) con sus valores pasados, en este caso, de los errores pasados. El identificar los rezagos en donde se presenta correlacion, permite identificar el orden del componente MA para definir el modelo.

Funcion de Autocorrelacion Parcial (PACF) La funcion de Autocorrelacion Parcial permite identicar si existe dependencia en el componente AR. PACF muestra, a traves de un correlograma, la correlacion serial en p rezagos del componente autorregresivo.

\[\rho _s=\frac{\gamma _s}{\gamma _0}\]

\[s=0,1,2....\] Donde \(\gamma _s\) es la covarianza de \(\gamma\) con sus valores pasados, en este caso, de los valores pasados de la variable. El identicar los rezagos en donde se presenta correlacion, permite identificar el orden del componente AR para definir el modelo.

Figura 7. Correlogramas ACF y PACF para el mejor modelo ARIMA (1, 1, 3)

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Figura 8. Raices invertidas sobre AR y MA

Series: VXX 
ARIMA(1,1,3) 

Coefficients:
          ar1     ma1     ma2     ma3
      -0.8945  0.7925  0.0600  0.1991
s.e.   0.0691  0.0748  0.0459  0.0376

sigma^2 estimated as 3.15:  log likelihood=-1488.58
AIC=2987.16   AICc=2987.24   BIC=3010.24

Training set error measures:
                      ME     RMSE      MAE       MPE     MAPE     MASE
Training set -0.01364195 1.768855 1.103333 -0.168083 3.388286 1.002333
                     ACF1
Training set 0.0009598513

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

En las gráficas anteriores se presenta: en la figura 7 podemos observar los correlogramas ACF Y PACF para el mejor modelo ARIMA, en estos correlogramas podemos observar que en el correlograma (ACF)Función de Autocorrelación media móvil,en proceso el primer rezago muestra un poco de correlacion, pareciera que la mayoria de los demás rezagos se contienen de mejor manera a excepcion de algunos rezagos. Como este es el mejor modelo ARIMA,podemos observar que ya no tiene problema de raíz unitaria,puesto que el proceso tiene reversion a la media, sin embargo,prsenta algunos clusters de volatilidad por lo cual la varianza no es tan constante, (como deberia ser), pero si cumple con parte de los supuestos, razon por la que este modelo ARIMA es el adecuado, cuenta con parte de las especificaciones, arroja un valor de JUNK-BOX de 0.1784 lo que representa un resultado positivo, ya que este es mayor a 0.05, es decir sus residuales se distribuyen normalmente o los residuales del Autoarima no están correlacionados, el criterio de AIC, representa el valor mínimo en comparación a los demás, por lo que se concluye que este es el mejor modelo y por último el diferencial no es significativo.

En la figura 8 podemos observar la estabilidad del modelo a partir del gráfico de raices invertidas tanto en el proceso AR como en el de MA., las raíces asociadas a los rezagos son estables ya que se encuentran dentro del circulo , por lo que este es un modelo estable.

El dato pronosticado fue para el dia 19 de enero ya que el 18 de enero no cotizo en bolsa, de acuerdo al mejor modelo ARIMA el pronostico es de $ 16.63 USD contra el dato real de $26, asi obteniendo un diferencial de $0.05, por lo que ARIMA (1,1,3) es un buen modelo.

Modelos de Volatilidad

Modelos ARCH

Los modelos Autorregresivos Condicionales Heterocedásticos (ARCH) propuestos por Engle sirven para modelar la volatilidad de una serie. Los modelos como los ARMA y los ARIMA se asumen lineales, por ejemplo, considera un modelo ARMA (1,0):

\[y_t=\beta _0+\beta _1 y_{t-1} +u_t\]

Donde \(y_t\) representa el precio de cierre de VXX; la acción en este ejemplo se explica por un autorregresivo de orden 1, o bien, se puede interpretar que \(y_t\) es explicada por el precio del periodo anterior (suponiendo que estamos modelando cotizaciones con frecuencia diaria, la interpretación sería que el comportamiento del precio de cierre se ve explicado por el precio del día anterior y ese peso nos lo indicaría el parámetro β).

Asimismo, se asume que \(u_t\sim N(0,\sigma^{2} )\), es decir, que el término de error de distribuye como una normal con media cero y varianza constante. Sin embargo, las series financieras se caracterizan por ser series no lineales.

Entonces ¿cómo podemos modelar una serie de tiempo no lineal? Un modelo particularmente no lineal y que se utiliza ampliamente en las finanzas son los Modelos Autorregresivos Condicionalmente Heterocedásticos (ARCH).

Varianza condicional

Uno de los supuestos que se asumen en un modelo clásico de regresión lineal es que \(u_t\sim (N,\sigma ^{2})\), es decir, la varianza de los errores es constante, o también se puede decir que es homocedástico. En este sentido, los modelos ARCH asumen que la varianza no es constante, además, dichos modelos permiten modelar la aglomeración o clúster de volatilidad que se presentan en los rendimientos de los activos financieros.

La varianza condicional de \(u_t\) se puede expresar como \(\sigma _{t}^{2}\):

\[\sigma {t}^{2}= var(u_t\mid u_{t-1}u_{t-2}.....,u_{t-q})= E[(u_t - E(u_t)^2)\mid u_{t-1}u_{t-2}.....,u_{t-q} ])\]

Sin embargo, se asume que \(E(u_t)=0\) , por lo tanto:

\[\sigma {t}^{2}= var(u_t\mid u_{t-1},u_{t-2},.....,u_{t-q})= E[u_{t}^{2}\mid u_{t-1},u_{t-2},.....,u_{t-q}]\] La ecuación anterior indica que la varianza condicional de una variable aleatoria (que se distribuye normalmente y que tiene media cero) es igual a la varianza condicional del residuo al cuadrado. En los modelos ARCH,la autocorrelación en la volatilidad es modelada permitiendo que la varianza condicional del término de error, \(\sigma _{t}^{2}\), dependa del valor anterior del error al cuadrado:

\[\sigma {t}^{2}=\omega +\alpha _1 u_{t-1}^{2}\] El modelo anterior se conoce como ARCH(1) ya que la varianza condicional depende solo de un rezago del error al cuadrado. El modelo propuesto en la ecuación anterior se puede extender al caso general, donde la varianza del error depende de q rezagos de los errores al cuadrado. Esto se conoce como el modelo ARCH \((q)\).

\[\sigma {t}^{2}=\omega +\alpha _1 u_{t-1}^{2} +\alpha_ 2 u_{t-2}^{2}+....+\alpha_q u_{t-q}^{2}\] En la literatura, por lo general se utiliza la letra griega Eta \((\eta)\) para denotar la varianza condicional \(\sigma _{t}^{2}=\eta _t\). Considerando la ecuación del modelo ARMA(1,0) y la ecuación del ARCH(1), se tiene:

\[y_t=\beta 1+\beta _1 y{t-1}+ut\] \[u_t=\sim N(0,\eta )\] \[\eta t=\omega +\alpha _1u_{t-1}^{2}\]

Condiciones que deben satisfacer los modelos ARCH

Limitaciones de los modelos ARCH

  1. No hay una forma precisa de calcular el número de rezagos óptimos \((q)\) para el modelo ARCH.

  2. El valor de \((q)\), es decir, el número de rezagos del error al cuadrado que es requerido para capturar toda la dependencia en la varianza condicional, puede llegar a ser muy largo, esto resultaría en un modelo de varianza condicional que no es parsimonioso.

  3. Lo anterior (tener muchos rezagos \((q)\) puede llegar a ocasionar que uno de los coeficientes se vuelva negativo, lo cual no tendría sentido en la interpretación.

Modelos GARCH

Los modelos Generalizados Autorregresivos Condicionales Heterocedásticos (GARCH) son una extensión del modelo ARCH con la diferencia de que \(\sigma _{t}^{2}\) se vuelve recursivo.

El modelo GARCH se desarrolló, en trabajos independientes, por Tim Bollerslev (1986) y Stephen Taylor (1986). El modelo GARCH permite que la varianza condicional sea dependiente de sus propios rezagos. La ecuación de la varianza condicional es: \[\sigma {t}^{2}=\omega +\alpha _1 u{t-1}^{2}+\beta \sigma _{p-1}^{2} (1)\]

Este es el modelo GARCH (1,1), \(\sigma _{t}^{2}\)es conocida como la varianza condicional ya que es una estimación anticipada de la varianza calculada. El uso de los modelos GARCH permite interpretar:

De hecho, el modelo GARCH se puede expresar de tal manera que representa un modelo ARMA para modelar la varianza condicional. Para demostrar esto, considera que los residuales al cuadrado \(u _{t-1}^{2}\) en relación a su varianza condicional \(\sigma _{t}^{2}\) está dado por:

\[\varepsilon _t=u_{t}^{2}-\sigma _{t}^{2}\]

Despejamos la varianza condicional \[\sigma _{t}^{2}\]

\[\sigma _{t}^{2}=u_{t}^{2}-\epsilon _t (2)\]

Sustituimos ecuación (2) en (1)

\[u_{t}^{2}-\epsilon _t=\omega +\alpha _1 u_{t-1}^{2}+\beta (u_{t-1}^{2}-\varepsilon _{t-1})\]

Ordenamos:

\[u_{t}^{2}=\omega +\alpha _1 u_{t-1}^{2}+\beta u_{t-1}^{2}-\beta \varepsilon _{t-1}+\epsilon _t\]

Sacamos factor común \(u_{t}\)

\[u_{t}^{2}=\omega +(\alpha _1+\beta ) u_{t-1}^{2}-\beta \varepsilon _{t-1} +\epsilon _t\]

La ecuación (3) representa un proceso ARMA (1,1) sobre los errores al cuadrado.

¿Por qué los modelos GARCH se consideran mejores y son más utilizados que los ARCH?

En concreto, los modelos GARCH son más parsimoniosos y evitan el sobreajuste. En consecuencia, es menos probable que el modelo quebrante las restricciones de no negatividad.

Así, el modelo GARCH (1,1), contiene solo tres parámetros en la ecuación de varianza condicional y permite incluir un número infinito de errores al cuadrado rezagados para influir en la varianza condicional actual.

El modelo GARCH (1,1) se puede extender a un modelo GARCH (p,q) donde la varianza condicional actual se parametriza para depender de q rezagos del error al cuadrado y los p rezagos de la varianza condicional:

\[\sigma_{t}^{2}=\omega +\alpha_1 u_{t-1}^{2}+\alpha_2 u_{t-2}^{2}+...+\alpha_q u_{t-1}^{2}+\beta _1 \sigma _{t-1}^{2}+\beta _2 \sigma _{t-2}^{2}+....+\beta _p \sigma _{t-p}^{2}\]

De manera general, un GARCH(q,p) se denota como:

\[\sigma_{t}^{2}=\omega +\sum _{i=1}^{q}\alpha_1 u_{i-1}^{2}+\sum _{i=1}^{q} \beta _1 \sigma _{j-1}^{2}\]

Aunque, usualmente un modelo GARCH (1,1) será suficiente para capturar los clústeres o concentraciones de volatilidad en los datos.

Prueba ARCH para analizar si los residuales al cuadrado son homocedásticos.


    ARCH LM-test; Null hypothesis: no ARCH effects

data:  VXX_R
Chi-squared = 110.97, df = 12, p-value < 2.2e-16
PRUEBA P-VALUE Ho RESULTADO
ARCH-test 2.2e-16 La serie NO tiene efectos ARCH Rechazo Ho

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Para asegurarse de que un modelo de volatilidad es pertinente, se prueba si hay efectos ARCH. La prueba de efectos ARCH se basa en multiplicadores de Lagrange para descomponer la varianza de la serie e identificar si sus rezagos son significativos. Si esto es así, entonces la aplicación de modelos de volatilidad es apropiada y justificada.Por lo que en la tabla anterior podemos observar que se rechaza la Ho, el valor p-value es de (0.00000000000000022) , por lo tanto, la serie tiene efectos ARCH ó los residuos no son homocedásticos.

ARCH 1

El primer modelo a implementar es un ARCH 1

\[\sigma _{t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH1}\]

El resultado obtenido es:

\[\sigma _{t}^{2}=0.000062 +0.692363\alpha _1u_{t-1}^{2}\] La volatilidad de VXX se explica en un 69.24% por la volatilidad de un día anterior, en el caso de ω que representa básicamente el intercepto de la ecuación de la varianza.


*---------------------------------*
*          GARCH Model Fit        *
*---------------------------------*

Conditional Variance Dynamics   
-----------------------------------
GARCH Model : sGARCH(1,0)
Mean Model  : ARFIMA(0,0,0)
Distribution    : norm 

Optimal Parameters
------------------------------------
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000062    0.000000   2084.0        0
alpha1  0.692363    0.000331   2092.1        0

Robust Standard Errors:
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000062     0.0e+00    18168        0
alpha1  0.692363     3.1e-05    22248        0

LogLikelihood : -396.8714 

Information Criteria
------------------------------------
                   
Akaike       1.0665
Bayes        1.0788
Shibata      1.0665
Hannan-Quinn 1.0713

Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
                        statistic p-value
Lag[1]                   0.001038  0.9743
Lag[2*(p+q)+(p+q)-1][2]  0.417901  0.7334
Lag[4*(p+q)+(p+q)-1][5]  2.286471  0.5524
d.o.f=0
H0 : No serial correlation

Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
                        statistic p-value
Lag[1]                     0.3006  0.5835
Lag[2*(p+q)+(p+q)-1][2]    0.3127  0.7887
Lag[4*(p+q)+(p+q)-1][5]    0.3421  0.9791
d.o.f=1

Weighted ARCH LM Tests
------------------------------------
            Statistic Shape Scale P-Value
ARCH Lag[2]   0.02405 0.500 2.000  0.8768
ARCH Lag[4]   0.04929 1.397 1.611  0.9939
ARCH Lag[6]   0.08124 2.222 1.500  0.9994

Nyblom stability test
------------------------------------
Joint Statistic:  1868883
Individual Statistics:             
omega  0.2019
alpha1 0.6495

Asymptotic Critical Values (10% 5% 1%)
Joint Statistic:         0.61 0.749 1.07
Individual Statistic:    0.35 0.47 0.75

Sign Bias Test
------------------------------------
                   t-value     prob sig
Sign Bias            1.288 0.198317    
Negative Sign Bias   2.761 0.005912 ***
Positive Sign Bias   1.350 0.177369    
Joint Effect         9.584 0.022450  **


Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
  group statistic p-value(g-1)
1    20     456.0    9.139e-85
2    30     654.8   2.657e-119
3    40     877.2   9.206e-159
4    50    1063.8   9.602e-191


Elapsed time : 1.105224 

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

ARCH 2

El siguiente modelo a implementar es un ARCH 2

\[\sigma _{t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH1}+\underbrace{\alpha _1u_{t-2}^{2}}_{ARCH2}\]

El resultado obtenido es:

\[\sigma _{t}^{2}=0.001186 +0.299483\alpha _1u_{t-1}^{2}+0.369597\alpha _1u_{t-1}^{2}\]

La volatilidad de VXX se explica en un 29.94% por la volatilidad (o rendimientos) de un día anterior y en un 36.95% por la volatilidad de hace dos días. De manera conjunta, el modelo ARCH(2) captura aproximadamnete mas del 66 % de la volatilidad de VXX.


*---------------------------------*
*          GARCH Model Fit        *
*---------------------------------*

Conditional Variance Dynamics   
-----------------------------------
GARCH Model : sGARCH(2,0)
Mean Model  : ARFIMA(0,0,0)
Distribution    : norm 

Optimal Parameters
------------------------------------
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.001186    0.000119   9.9908  0.0e+00
alpha1  0.299483    0.072751   4.1165  3.8e-05
alpha2  0.369597    0.079734   4.6354  4.0e-06

Robust Standard Errors:
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.001186    0.000247   4.8041 0.000002
alpha1  0.299483    0.148004   2.0235 0.043024
alpha2  0.369597    0.184197   2.0065 0.044799

LogLikelihood : 1233.095 

Information Criteria
------------------------------------
                    
Akaike       -3.2890
Bayes        -3.2705
Shibata      -3.2891
Hannan-Quinn -3.2819

Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
                        statistic p-value
Lag[1]                    0.06529  0.7983
Lag[2*(p+q)+(p+q)-1][2]   0.48711  0.6997
Lag[4*(p+q)+(p+q)-1][5]   1.10820  0.8347
d.o.f=0
H0 : No serial correlation

Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
                        statistic p-value
Lag[1]                     0.1656 0.68405
Lag[2*(p+q)+(p+q)-1][5]    6.1541 0.08272
Lag[4*(p+q)+(p+q)-1][9]    8.9586 0.08289
d.o.f=2

Weighted ARCH LM Tests
------------------------------------
            Statistic Shape Scale  P-Value
ARCH Lag[3]     4.631 0.500 2.000 0.031397
ARCH Lag[5]     9.744 1.440 1.667 0.007587
ARCH Lag[7]    10.269 2.315 1.543 0.015935

Nyblom stability test
------------------------------------
Joint Statistic:  1.2963
Individual Statistics:             
omega  0.3115
alpha1 0.3476
alpha2 0.2510

Asymptotic Critical Values (10% 5% 1%)
Joint Statistic:         0.846 1.01 1.35
Individual Statistic:    0.35 0.47 0.75

Sign Bias Test
------------------------------------
                   t-value   prob sig
Sign Bias           0.1562 0.8759    
Negative Sign Bias  0.6823 0.4953    
Positive Sign Bias  0.1225 0.9025    
Joint Effect        0.5543 0.9068    


Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
  group statistic p-value(g-1)
1    20     127.7    3.929e-18
2    30     148.3    5.808e-18
3    40     171.9    1.312e-18
4    50     185.4    9.732e-18


Elapsed time : 0.4574101 


*------------------------------------*
*       GARCH Model Forecast         *
*------------------------------------*
Model: sGARCH
Horizon: 1
Roll Steps: 0
Out of Sample: 0

0-roll forecast [T0=2021-01-14]:
    Series   Sigma
T+1      0 0.03626

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Al aplicar los modelos ARCH anteriores nos podemos dar cuenta que el modelo ARCH 2 cumplen con todas las condiciones: la sumatoria de los parámetros es menor a 1, son significativos y no son negativos, sin embargo el modelo ARCH 1 solo cuanta con dos de los parámetros(la sumatoria de los parámetros es menor a 1 y no son negativos),y no son significativos sus valores \((p)\) debido a que el valor de este debe a que los q rezagos de los errores al cuadrado no son significativos ,no son distintos de 0. En las graficas conditional SD podemos observar que los modelos ARCH realizados captan correctamente la volatilidad de VXX.

GARCH 1,1

Ahora, se hace el ajuste con un GARCH(1,1):

\[\sigma {t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH (1)}+\underbrace{\beta _1 \sigma _{t-1}^{2}}_{GARCH (1)}\]

El resultado obtenido es:

\[\sigma {t}^{2}=0.000336 +\underbrace{0.308627u_{t-1}^{2}}+\underbrace{0.598549 \sigma _{t-1}^{2}}\]

Para uso de este trbajo nombraremos a la volatilidad de VXX como varianza condicional,[3] se explica en un 30.86% la volatilidad de vxx de un día anterior y en un 59.95% la varianza ajustada de un periodo.


*---------------------------------*
*          GARCH Model Fit        *
*---------------------------------*

Conditional Variance Dynamics   
-----------------------------------
GARCH Model : sGARCH(1,1)
Mean Model  : ARFIMA(0,0,0)
Distribution    : norm 

Optimal Parameters
------------------------------------
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000336    0.000076   4.4258    1e-05
alpha1  0.308627    0.056876   5.4263    0e+00
beta1   0.598549    0.054198  11.0437    0e+00

Robust Standard Errors:
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000336    0.000112   2.9879 0.002809
alpha1  0.308627    0.089159   3.4615 0.000537
beta1   0.598549    0.056714  10.5539 0.000000

LogLikelihood : 1254.504 

Information Criteria
------------------------------------
                    
Akaike       -3.3463
Bayes        -3.3277
Shibata      -3.3463
Hannan-Quinn -3.3391

Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
                        statistic p-value
Lag[1]                  0.0001155  0.9914
Lag[2*(p+q)+(p+q)-1][2] 0.5731903  0.6602
Lag[4*(p+q)+(p+q)-1][5] 0.9795381  0.8643
d.o.f=0
H0 : No serial correlation

Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
                        statistic p-value
Lag[1]                     0.1692  0.6809
Lag[2*(p+q)+(p+q)-1][5]    0.3989  0.9721
Lag[4*(p+q)+(p+q)-1][9]    0.7196  0.9950
d.o.f=2

Weighted ARCH LM Tests
------------------------------------
            Statistic Shape Scale P-Value
ARCH Lag[3]    0.1667 0.500 2.000  0.6830
ARCH Lag[5]    0.4105 1.440 1.667  0.9097
ARCH Lag[7]    0.4976 2.315 1.543  0.9786

Nyblom stability test
------------------------------------
Joint Statistic:  0.2897
Individual Statistics:              
omega  0.08927
alpha1 0.08579
beta1  0.07903

Asymptotic Critical Values (10% 5% 1%)
Joint Statistic:         0.846 1.01 1.35
Individual Statistic:    0.35 0.47 0.75

Sign Bias Test
------------------------------------
                   t-value   prob sig
Sign Bias           0.4986 0.6182    
Negative Sign Bias  1.1416 0.2540    
Positive Sign Bias  0.2758 0.7828    
Joint Effect        1.3839 0.7093    


Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
  group statistic p-value(g-1)
1    20     133.7    2.884e-19
2    30     148.4    5.620e-18
3    40     151.0    4.202e-15
4    50     175.3    4.243e-16


Elapsed time : 0.346169 


*------------------------------------*
*       GARCH Model Forecast         *
*------------------------------------*
Model: sGARCH
Horizon: 1
Roll Steps: 0
Out of Sample: 0

0-roll forecast [T0=2021-01-14]:
    Series   Sigma
T+1      0 0.03787

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

GARCH 1,2

Ahora, se hace el ajuste con un GARCH(1,2):

\[\sigma {t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH (1)}+\underbrace{\beta _1 \sigma _{t-1}^{2}}_{GARCH (1)}+\underbrace{\beta _2 \sigma _{t-2}^{2}}_{GARCH (2)}\]

El resultado obtenido es:

\[\sigma {t}^{2}=0.000333 +\underbrace{0.307191u_{t-1}^{2}}+\underbrace{0.600221 \sigma _{t-1}^{2}}+\underbrace{0.000000 \sigma _{t-2}^{2}}\]

La volatilidad de VXX como varianza condicional,[3] se explica en un 30.71% por la volatilidad de un día anterior, en un 60% la varianza ajustada de un periodo.Sin embargo, el componente GARCH(2) no es significativo.


*---------------------------------*
*          GARCH Model Fit        *
*---------------------------------*

Conditional Variance Dynamics   
-----------------------------------
GARCH Model : sGARCH(1,2)
Mean Model  : ARFIMA(0,0,0)
Distribution    : norm 

Optimal Parameters
------------------------------------
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000333    0.000079   4.2210 0.000024
alpha1  0.307191    0.058991   5.2074 0.000000
beta1   0.600221    0.182864   3.2823 0.001030
beta2   0.000000    0.149665   0.0000 1.000000

Robust Standard Errors:
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000333    0.000115   2.8977 0.003759
alpha1  0.307191    0.090822   3.3823 0.000719
beta1   0.600221    0.374751   1.6017 0.109232
beta2   0.000000    0.310121   0.0000 1.000000

LogLikelihood : 1254.803 

Information Criteria
------------------------------------
                    
Akaike       -3.3444
Bayes        -3.3197
Shibata      -3.3445
Hannan-Quinn -3.3349

Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
                        statistic p-value
Lag[1]                  0.0003686  0.9847
Lag[2*(p+q)+(p+q)-1][2] 0.5865422  0.6543
Lag[4*(p+q)+(p+q)-1][5] 0.9907162  0.8618
d.o.f=0
H0 : No serial correlation

Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
                         statistic p-value
Lag[1]                      0.1825  0.6693
Lag[2*(p+q)+(p+q)-1][8]     0.6498  0.9921
Lag[4*(p+q)+(p+q)-1][14]    1.1564  0.9993
d.o.f=3

Weighted ARCH LM Tests
------------------------------------
            Statistic Shape Scale P-Value
ARCH Lag[4]   0.09303 0.500 2.000  0.7604
ARCH Lag[6]   0.39548 1.461 1.711  0.9206
ARCH Lag[8]   0.65765 2.368 1.583  0.9675

Nyblom stability test
------------------------------------
Joint Statistic:  0.5675
Individual Statistics:              
omega  0.08825
alpha1 0.08640
beta1  0.07885
beta2  0.08150

Asymptotic Critical Values (10% 5% 1%)
Joint Statistic:         1.07 1.24 1.6
Individual Statistic:    0.35 0.47 0.75

Sign Bias Test
------------------------------------
                   t-value   prob sig
Sign Bias           0.5107 0.6097    
Negative Sign Bias  1.1468 0.2518    
Positive Sign Bias  0.2669 0.7896    
Joint Effect        1.3900 0.7079    


Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
  group statistic p-value(g-1)
1    20     132.9    4.096e-19
2    30     148.5    5.438e-18
3    40     149.2    8.368e-15
4    50     174.2    6.286e-16


Elapsed time : 0.4424899 


*------------------------------------*
*       GARCH Model Forecast         *
*------------------------------------*
Model: sGARCH
Horizon: 1
Roll Steps: 0
Out of Sample: 0

0-roll forecast [T0=2021-01-14]:
    Series   Sigma
T+1      0 0.03786

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

GARCH 2,1

Ahora, se hace el ajuste con un GARCH(2,1):

\[\sigma {t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH (1)}+\underbrace{\alpha _2u_{t-2}^{2}}_{ARCH (1)}+\underbrace{\beta _1 \sigma _{t-1}^{2}}_{GARCH (1)}\]

El resultado obtenido es:

\[\sigma {t}^{2}=0.000468+{0.238189u_{t-1}^{2}}+{0.200464u_{t-2}^{2}}+{0.440747 \sigma _{t-1}^{2}}\]

La volatilidad de VXX como varianza condicional,[3] se explica en un 23.81% por la volatilidad de un día anterior , en un 20% por la varianza ajustada rezagada de un periodo y en un 44% por la varianza ajustada de un periodo.


*---------------------------------*
*          GARCH Model Fit        *
*---------------------------------*

Conditional Variance Dynamics   
-----------------------------------
GARCH Model : sGARCH(2,1)
Mean Model  : ARFIMA(0,0,0)
Distribution    : norm 

Optimal Parameters
------------------------------------
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000468    0.000126   3.7275 0.000193
alpha1  0.238189    0.059930   3.9745 0.000071
alpha2  0.200464    0.099432   2.0161 0.043791
beta1   0.440747    0.105493   4.1780 0.000029

Robust Standard Errors:
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000468    0.000251  1.86943 0.061563
alpha1  0.238189    0.125261  1.90154 0.057231
alpha2  0.200464    0.262521  0.76361 0.445099
beta1   0.440747    0.200762  2.19537 0.028137

LogLikelihood : 1257.159 

Information Criteria
------------------------------------
                    
Akaike       -3.3507
Bayes        -3.3260
Shibata      -3.3508
Hannan-Quinn -3.3412

Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
                        statistic p-value
Lag[1]                  0.0003076  0.9860
Lag[2*(p+q)+(p+q)-1][2] 0.4344860  0.7252
Lag[4*(p+q)+(p+q)-1][5] 0.7834141  0.9064
d.o.f=0
H0 : No serial correlation

Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
                         statistic p-value
Lag[1]                    0.005178  0.9426
Lag[2*(p+q)+(p+q)-1][8]   0.901033  0.9804
Lag[4*(p+q)+(p+q)-1][14]  1.535063  0.9972
d.o.f=3

Weighted ARCH LM Tests
------------------------------------
            Statistic Shape Scale P-Value
ARCH Lag[4]   0.08869 0.500 2.000  0.7659
ARCH Lag[6]   0.44952 1.461 1.711  0.9060
ARCH Lag[8]   0.68404 2.368 1.583  0.9648

Nyblom stability test
------------------------------------
Joint Statistic:  0.9432
Individual Statistics:              
omega  0.10872
alpha1 0.09017
alpha2 0.13298
beta1  0.07864

Asymptotic Critical Values (10% 5% 1%)
Joint Statistic:         1.07 1.24 1.6
Individual Statistic:    0.35 0.47 0.75

Sign Bias Test
------------------------------------
                   t-value   prob sig
Sign Bias          0.49213 0.6228    
Negative Sign Bias 1.02623 0.3051    
Positive Sign Bias 0.02394 0.9809    
Joint Effect       1.07223 0.7838    


Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
  group statistic p-value(g-1)
1    20     130.4    1.227e-18
2    30     140.1    1.635e-16
3    40     148.7    1.024e-14
4    50     184.1    1.606e-17


Elapsed time : 0.466677 


*------------------------------------*
*       GARCH Model Forecast         *
*------------------------------------*
Model: sGARCH
Horizon: 20
Roll Steps: 0
Out of Sample: 0

0-roll forecast [T0=2021-01-14]:
     Series   Sigma
T+1       0 0.03701
T+2       0 0.03775
T+3       0 0.04136
T+4       0 0.04377
T+5       0 0.04595
T+6       0 0.04781
T+7       0 0.04944
T+8       0 0.05085
T+9       0 0.05210
T+10      0 0.05319
T+11      0 0.05416
T+12      0 0.05502
T+13      0 0.05578
T+14      0 0.05646
T+15      0 0.05707
T+16      0 0.05760
T+17      0 0.05809
T+18      0 0.05852
T+19      0 0.05890
T+20      0 0.05925

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

GARCH 2,2

Ahora, se hace el ajuste con un GARCH(2,2):

\[\sigma {t}^{2}=\omega +\underbrace{\alpha _1u_{t-1}^{2}}_{ARCH (1)}+\underbrace{\alpha _2u_{t-2}^{2}}_{ARCH (1)}+\underbrace{\beta_1 \sigma _{t-1}^{2}}_{GARCH (1)}+\underbrace{\beta _2 \sigma _{t-2}^{2}}_{GARCH (1)}\]

El resultado obtenido es:

\[\sigma {t}^{2}=0.000536+{0.232218u_{t-1}^{2}}+{0.356390u_{t-2}^{2}}+{0.000000 \sigma _{t-1}^{2}}+{0.295931 \sigma _{t-2}^{2}}\]

La volatilidad de VXX como varianza condicional,[3] se explica en un 23.22% por la volatilidad de un día anterior y en un 35.63% por la volatilidad de dos días ; el componente GARCH(1) no es significativo, también en un 29.59% por la varianza ajustada de dos periodos.


*---------------------------------*
*          GARCH Model Fit        *
*---------------------------------*

Conditional Variance Dynamics   
-----------------------------------
GARCH Model : sGARCH(2,2)
Mean Model  : ARFIMA(0,0,0)
Distribution    : norm 

Optimal Parameters
------------------------------------
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000536    0.000103 5.189245 0.000000
alpha1  0.232218    0.058380 3.977718 0.000070
alpha2  0.356390    0.074368 4.792223 0.000002
beta1   0.000000    0.112168 0.000002 0.999999
beta2   0.295931    0.097016 3.050338 0.002286

Robust Standard Errors:
        Estimate  Std. Error  t value Pr(>|t|)
omega   0.000536    0.000152 3.517014 0.000436
alpha1  0.232218    0.117228 1.980916 0.047601
alpha2  0.356390    0.188964 1.886024 0.059292
beta1   0.000000    0.129206 0.000001 0.999999
beta2   0.295931    0.104245 2.838800 0.004528

LogLikelihood : 1259.512 

Information Criteria
------------------------------------
                    
Akaike       -3.3543
Bayes        -3.3234
Shibata      -3.3544
Hannan-Quinn -3.3424

Weighted Ljung-Box Test on Standardized Residuals
------------------------------------
                        statistic p-value
Lag[1]                   0.004331  0.9475
Lag[2*(p+q)+(p+q)-1][2]  0.511062  0.6884
Lag[4*(p+q)+(p+q)-1][5]  0.920907  0.8773
d.o.f=0
H0 : No serial correlation

Weighted Ljung-Box Test on Standardized Squared Residuals
------------------------------------
                         statistic p-value
Lag[1]                    0.005097  0.9431
Lag[2*(p+q)+(p+q)-1][11]  1.359443  0.9893
Lag[4*(p+q)+(p+q)-1][19]  2.450180  0.9984
d.o.f=4

Weighted ARCH LM Tests
------------------------------------
            Statistic Shape Scale P-Value
ARCH Lag[5]    0.3969 0.500 2.000  0.5287
ARCH Lag[7]    0.5425 1.473 1.746  0.8857
ARCH Lag[9]    1.2582 2.402 1.619  0.8929

Nyblom stability test
------------------------------------
Joint Statistic:  1.5665
Individual Statistics:             
omega  0.1132
alpha1 0.2420
alpha2 0.1099
beta1  0.1091
beta2  0.1215

Asymptotic Critical Values (10% 5% 1%)
Joint Statistic:         1.28 1.47 1.88
Individual Statistic:    0.35 0.47 0.75

Sign Bias Test
------------------------------------
                   t-value   prob sig
Sign Bias          0.49250 0.6225    
Negative Sign Bias 1.12022 0.2630    
Positive Sign Bias 0.02057 0.9836    
Joint Effect       1.30219 0.7286    


Adjusted Pearson Goodness-of-Fit Test:
------------------------------------
  group statistic p-value(g-1)
1    20     123.4    2.510e-17
2    30     145.3    1.958e-17
3    40     147.0    1.952e-14
4    50     165.5    1.483e-14


Elapsed time : 0.6787341 


*------------------------------------*
*       GARCH Model Forecast         *
*------------------------------------*
Model: sGARCH
Horizon: 20
Roll Steps: 0
Out of Sample: 0

0-roll forecast [T0=2021-01-14]:
     Series   Sigma
T+1       0 0.03853
T+2       0 0.03762
T+3       0 0.04282
T+4       0 0.04342
T+5       0 0.04658
T+6       0 0.04765
T+7       0 0.04979
T+8       0 0.05092
T+9       0 0.05249
T+10      0 0.05355
T+11      0 0.05477
T+12      0 0.05571
T+13      0 0.05669
T+14      0 0.05751
T+15      0 0.05832
T+16      0 0.05902
T+17      0 0.05970
T+18      0 0.06030
T+19      0 0.06087
T+20      0 0.06139

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

Tabla de resultados 2. ARCH-GARCH y selección del modelo

MODELO \(\omega\) \(\alpha _1\) \(\alpha _2\) \(\beta_1\) \(\beta_2\) AKAIKE BAYES
ARCH(1) 0,000062 0,692363 1.0665 1.0788
ARCH (2) 0,001186 0.299483 0.369597 -3.2890 -3.2705
GARCH (1,1) 0,000336 0.308627 0.598549 -3.3463 -3.3277
GARCH (1,2) 0.000333 0.307191 0,600221 0,000000 -3.3444 -3.3197
GARCH (2,1) 0,000468 0.238189 0.200464 0.440747 -3.3507 -3.3260
GARCH (2,2 0,000536 0.232218 0.356390 0,000000 0.295931 -3.3543 -3.3234

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

En la tabla anterior se presentan los resultados de los parámetros obtenidos de todas las especificaciones ARCH y GARCH, así como el criterio de información de Akaike y el criterio bayesiano de Schwarz de los mismos.Por lo cual concluimos que el mejor modelo de acuerdo a los criterios de informacion y de los parámetros obtenidos es, GARCH(2,1)

Mejor modelo

GARCH 2,1

Conforme a los parámetros obtenidos de todas las especificaciones GARCH (2,1), así como el criterio de información de Akaike , el criterio bayesiano de Schwarz y las condiciones que deben satisfacer los modelos,se concluye que este es el mejor modelo.

Varianza condicional

Fuente: Elaboración propia con datos de Yahoo Finance y salida de R

En el gráfico anterior podemos observar los rendimientos que tiene vxx (color gris) que se encuentra en el modelo , la ecuación GARCH(2,1) representa la línea azul esta línea modela la volatilidad que tiene VXX,por lo que podemos observar que esta ecuacion capta la volatilidad de vxx.

Acorde con el modelo GARCH(2,1), el rendimiento pronosticado para el dia 19 de enero de 2021 es de 3.701%.

CONCLUSION

En base a los modelos realizados, se concluye que los modelos ARCH-GARCH son muy utiles para explicar adecuadamente la volatilidad de una serie financiera,estos modelos pemiten tener resultados más certeros,ya que de acuerdo a las caracteristicas de nuestra serie debemos implemtar el modelo que mas se apegue a las caracteristicas del mismo.

Ahora bien,debemos tener en cuenta que VXX es una serie volatil, como podemos observar en el la figura 1 , el precio de cierre de vxx va a la baja debido a la alta volatilidad que presenta este instrumento financiero ,pero,¿A qué se debe esta volatilidad?

Actualmente para el año 2021 los niveles de VXX muestran una tendencia a la baja ya que estas “se vinculan con el VIX”, pero en realidad estas no operan con VXX directamente, mas bien estas operan con futuros de VIX.La razón por la que esto es tan importante ,es que, si bien los futuros de VIX finalmente vencen y liquidan los valores de VIX, en el tiempo anterior al vencimiento, los futuros de VIX tienden a cotizar por encima del nivel al contado del VIX. Lo importante que hay que entender sobre los futuros es que, en última instancia, convergen al precio al contado. Este fenómeno es bien conocido como“roll yield”. Roll yield, es el rendimiento que obtiene al mantener un contrato de futuros mientras converge hacia el mercado al contado. Si los precios de los futuros están por encima del spot, esto significa que los futuros están cayendo hacia el mercado al contado y, por lo tanto, el rendimiento del roll es negativo.El rendimiento en rollo es la razón por la que VXX pierde dinero casi todo el tiempo: mantiene futuros con precios superiores al nivel al contado del VIX y, con el tiempo, estos futuros convergen esto a raíz de que VXX tiene futuros de VIX y los futuros de VIX solo están correlacionados con los cambios en el VIX hasta cierto punto.Este es el problema con VXX en pocas palabras. Su estrategia solo se correlaciona con los movimientos de corto plazo del VIX. Cuanto más tiempo tenga VXX, más dinero tiende a perder debido al bajo rendimiento frente al VIX.

Referencias

[1]https://www.investopedia.com/articles/investing/080715/etf-analysis-ipath-sp-500-vix-futures-vxx.asp#

[2] https://www.infobae.com/america/agencias/2020/04/02/cotizacion-del-sp-500-vix-futures-del-1-de-abril-el-indice-aumenta-un-973/#

[3] ¿Por qué varianza condicional? Porque la volatilidad o los rendimientos de TESLA dependen (están condicionados) de la varianza rezagada, es decir, depende del tiempo.

NOTA PARA RECORDAR: