ETF ProShares ultra S&P 500

Logotipo SP

ProShares ultra S&P 500 es un ETF que cotiza diariamente con los datos del índice S&P 500, sin embargo; Ultra S&P500 es un ETF apalancado al (2x). Es decir que su ganancia será estimada por el doble del rendimiento diario que genere el S&P 500. Cabe señalar que para periodos de más de un día se trabajara con el rendimiento compuesto por día.

Al ser la base de este ETF el S&P 500, es importante analizar la composición del mismo.

El Standard and Poors 500 (S&P 500)

##Es considerado por muchos como el mejor indicador de gran capitalización, en renta variable.[1]

El índice incluye a las 505 empresas líderes y ocupa aproximadamente el 80% de la capitalización del mercado estadounidense. Fue creado en 1957 y fue el primer índice bursátil estadounidense ponderado por capitalización bursátil. Hoy en día es la base de muchos de los instrumentos de inversión en el mercado internacional ya que da referencia del estado de la economía estadounidense y del mercado bursátil en general.

El índice es parte de una serie de acciones de S&P Dow Jones construido con la siguiente metodología

• Todos los componentes deben ser empresas estadounidenses.

• Para ser incluidas, las empresas deben tener una capitalización de mercado no ajustada de 8,2 mil millones USD o más, y deben tener una capitalización de mercado ajustada por flotación que sea al menos el 50% del umbral mínimo de capitalización de mercado no ajustado.

• Las empresas deben tener un factor de ponderación invertible de al menos 0,10.

• Las empresas deben tener ganancias positivas según lo informado durante el trimestre más reciente, así como durante los cuatro trimestres más recientes (sumados).

• La relación entre el valor anual en dólares negociado y la capitalización de mercado ajustada por flotación debe ser al menos 1.00, además la acción debe negociar un mínimo de 250,000 acciones en cada uno de los seis meses previos a la fecha de evaluación.

• Se pueden incluir todas las acciones ordinarias de EE. UU. Elegibles que cotizan en bolsas de EE. UU. Elegibles. Los REIT también son elegibles para su inclusión.

Composición del S&P 500

El S&P 500 está conformado por las 505 empresas líderes en EU. Sin embargo 25 de ellas concentran alrededor del 40% de la capitalización total, estas son.

Empresa Busqueda YH Valor de mercado Acciones en circulacion Valor de mercado % Acciones en circulacion% Valor de mercado acumulado % Sede
APPLE INC AAPL 150960940 1230125 6.5% 5.40% Cupertino, California, Estados Unidos.
MICROSOFT CORP MSFT 125186454.8 579004 5.4% 2.54% 11.904% Redmond, Washington, United States
AMAZON.COM INC AMZN 104900546.2 32577 4.5% 0.14% 16.426% Seattle, Washington, United States
FACEBOOK INC-CLASS A FB 52707147.35 183937 2.3% 0.81% 18.698% Menlo Park, California, United States
ALPHABET INC-CL A GOOGL 41277121.76 22991 1.8% 0.10% 20.477% Mountain View, California, Estados Unidos
ALPHABET INC-CL C GOOG 40394316.5 22465 1.7% 0.10% 22.219% Mountain View, California, Estados Unidos
BERKSHIRE HATHAWAY INC-CL B BRK/B 34836714 151675 1.5% 0.67% 23.720% Omaha, Nebraska, Estados Unidos
JOHNSON & JOHNSON JNJ 29704982.1 201458 1.3% 0.89% 25.001% New Brunswick, New Jersey, United States
JPMORGAN CHASE & CO JPM 27922889.04 233196 1.2% 1.02% 26.204% New York, New York, United States
VISA INC-CLASS A SHARES V 27246700.8 129009 1.2% 0.57% 27.379% San Francisco, California, United States
PROCTER & GAMBLE CO/THE PG 26549985 190500 1.1% 0.84% 28.524% Cincinnati, Ohio, United States
NVIDIA CORP NVDA 25288889.6 47216 1.1% 0.21% 29.614% Santa Clara, California, United States
UNITEDHEALTH GROUP INC UNH 24810313.23 72717 1.1% 0.32% 30.683% Minnetonka, Minnesota, United States
MASTERCARD INC - A MA 22905576.96 67592 1.0% 0.30% 31.671% Purchase, Harrison, New York, United States
HOME DEPOT INC HD 22782712.2 82367 1.0% 0.36% 32.653% Atlanta, Georgia, United States
WALT DISNEY CO/THE DIS 20662620.48 138267 0.9% 0.61% 33.543% Burbank, California, United States
PAYPAL HOLDINGS INC PYPL 19440528.12 89778 0.8% 0.39% 34.381% San Jose, California, U.S.
VERIZON COMMUNICATIONS INC VZ 19176901.9 316555 0.8% 1.39% 35.208% New York, New York, United States
COMCAST CORP-CLASS A CMCSA 17796643.34 348817 0.8% 1.53% 35.975% Philadelphia, Pennsylvania , U.S.
ADOBE INC ADBE 17586242.45 36703 0.8% 0.16% 36.733% San Jose, California, United States
NETFLIX INC NFLX 17027052.1 33745 0.7% 0.15% 37.467% Los Gatos, California, United States
SALESFORCE.COM INC CRM 16805441.85 69631 0.7% 0.31% 38.192% San Francisco, California, United States
PFIZER INC PFE 16757053.18 425198 0.7% 1.87% 38.914% New York, New York, United States
BANK OF AMERICA CORP BAC 16737774.69 583401 0.7% 2.56% 39.636% Charlotte, North Carolina, United States
WALMART INC WMT 16217694.72 106248 0.7% 0.47% 40.335% Bentonville, Arkansas, United States

Tabla de elaboación propia con datos de ProShares y Yahoo finance

De esta manera podemos darnos cuenta de la influencia de APPLE INC, MICROSOFT CORP, AMAZON.COM INC, FACEBOOK INC y ALPHABET INC. Estas 5 empresas representa el 20.4% del total del valor de mercado de las empresas listadas en el S&P por lo que debemos prestarles especial atención.

Ubicación

Ya que las 25 principales empresas concentran alrededor del 40% del valor de mercado total de las 505 empresas listadas, se debe tomar principal atención a estas empresas y a las afectaciones climáticas, políticas, sociales y en materia de salud que puedan afectar el desempeño de las mismas.

Mapa

Mápa de elaboracion propia con datos de ProShares

Los lugares donde se concentran la mayoría de las empresas en el top 25 es California con 11 empresas y New York con 4. Ya que son estados costeros, el riesgo a un Tsunami es un factor a contemplar. Se debe prestar especial atención a la política de los estados en materia fiscal y comercial, ya que un aumento en el IVA o una ley de regulación comercial podrían mermar el crecimiento de las mismas.

Composición del S&P500 por sector

Con información de ProShares la composición del S&P500 por sector, es de la siguiente manera.

Sectores

Grafico 1, Fuente: Proporcionado por ProShares

Esto nos ayuda reconocer el nivel de importancia que representa cada sector al comportamiento del S&P500, además de ver en qué cantidad una afectación en algún ramo afecta al índice.

Objetivo del ProShares Ultra S&P500

El Fondo busca resultados de inversión diarios, antes de comisiones y gastos, que correspondan al doble (2x) de la rentabilidad diaria del Índice. El Fondo no busca alcanzar su objetivo de inversión declarado durante un período de tiempo superior a un solo día. Es importante recalcar que el Fondo tiene un objetivo de inversión de un solo día.

Algunos gastos y comisiones

Se pueden resumir los gastos anuales en promedio, en gastos de gestión y otros gastos derivados. Gastos de gestión que son iguales al 0.75% y un aproximado de 0.16% en otros gastos. Dejando un 0.91% en promedio en gastos operativos anuales totales.

Riesgo principal

El principal riesgo asociado a este ETF es la volatilidad en la que recae al ser un índice compuesto y con correlación entre las empresas de las que se forma. Esto aunado a el apalancamiento de (x2) lo hace extremadamente sensible a estos cambios por lo que, en un día se podría perder el valor total de la inversión si el rendimiento negativo del S&P 500 es mayor al 40%. Incluso si el índice se mantuviera el 0% de rendimiento esto asumiría una perdida por el cobro de gastos asociados a la inversión.

Otros riesgos

• Riesgos asociados con el uso de derivados

• Riesgo de apalancamiento

• Riesgo compuesto

• Sensibilidad extrema a la volatilidad del mercado

• Riesgo de correlación entre activos

• Riesgo de reequilibrio en la totalidad de su cartera.

• Riesgo de contraparte (recompra)

• Renta variable y riesgo de mercado

• Exposición al riesgo de inversión de empresas de gran capitalización (Ineficiencia de los monopolios)

• Riesgo de desastres naturales / epidemias.

• Riesgo de que las suposiciones y expectativas actuales se vuelvan obsoletas como resultado del shock económico mundial

• Riesgo de no diversificación (Ley de 1940)

• Riesgo de desempeño de precios intradía

• Riesgo de variación del precio de mercado

• Riesgo de cierre anticipado / cierre tardío / interrupción de la negociación

• Riesgo de liquidez (Fallas en el sistema de compra y venta)

• Riesgo de rotación de la cartera

• Riesgo fiscal

Análisis Pro Shares ultra S&P 500 desde el 01 de Enero 2013.

Para este trabajo se pidió iniciar con un muestreo del Pro Shares Ultra S&P500 a partir de enero del 2013.

El modelo a emplear

Por los requerimientos de esta práctica utilizaremos 8 modelos tratando de mostrar la evolución de años de investigación en modelos más complejos. Todos los modelos serán de tipo Uní-variado.

• Modelo1: Descomposición de variables

• Modelo2: Modelo AR

• Modelo3: Modelo MA

• Modelo4: Modelo ARMA

• Modelo5: Modelo ARIMA

• Modelo6: Modelo ARCH

• Modelo7: Modelo GARCH

• Modelo8: Modelo EGARCH

Antes que nada analizaremos el comportamiento del ProShares Ultra desde el 2013

Grafico 2, Fuente: Elaboración propia con datos de Yahoo Finance.

Como se puede observar en el “Grafico 2”, el comportamiento de la serie tiene una tendencia ascendente durante periodos de tiempo de 3 a 12 meses, sin embargo tiende a tener caídas muy abruptas como a finales del 2018 en donde la reserva federal adopto una postura de fuerza ante el aumento de las tasas de interés mundiales que al final no pudo soportar. Además de señales contundentes de la desaceleración de la economía china. Sin embargo; la caída más abrupta se puede observar a mediados de febrero y principios de marzo por la crisis provocada con la pandemia del virus SARS COV-2.

2020 ha sido un periodo de elecciones por lo que se observa una gran volatilidad durante los meses de septiembre y octubre. Actualmente las opiniones sobre el S&P 500 muestran que las noticias relacionadas con el avance de la vacuna y la consolidación de John Biden como presidente de estados unidos le darán mayor certidumbre al mercado. Y reducirán la volatilidad del índice.

Como podemos observar en el histograma, la mayor parte de los datos de la serie se encuentran entre los 30 a 35 dólares, observamos que la serie no sigue una distribución normal, por lo que será imposible tratarla así. Además de esto podemos ver que se tiene un problema de colas lo cual lo apreciaremos mejor con el grafico Q-Q.

Como podemos observar en el grafico Q-Q Comparando nuestra serie contra una distribución normal, esta no se ajusta a la misma, teniendo problemas de colas pesadas. Con estos datos concluimos que la serie es una caminata aleatoria por lo que tendremos que trabajar con los rendimientos de la misma.

Análisis sobre los rendimientos logarítmicos

Como podemos observar, los rendimientos del ProShares Ultra desde 2013, se encuentran en media 0 con un margen del -0.30 al 0.20. Sin embargo; se muestra que hasta el 2020 la serie no había pasado del margen del -0.10 al 0.10 lo cual nos indica una cierta estabilidad antes del 2020 y una estabilidad distinta después de este año. La volatiliad el los rendimientos en 2020 es provocada por la hata ahora presente pandemia por el virus Sars-Cov-2, los datos de los rendimientos del 2020 serán una de las causas de la gran dificultad para modelar esta serie.

Si observamos el histograma podemos observar una distribución que tiene una apriencia mas parecida a una distribucion normal, de manera que tenemos que la mayoría de datos están centrados en cero, mas sin en cambio la distribución no es normal además de tener un problema de valores superiores e inferiores.

Como se puede notar la serie de rendimientos tiene un acercamiento mucho mejor a la distribución de la normal, mas sin en cambio seguimos teniendo un problema de colas largas.

Al saber que vamos a modelar el comportamiento autorregresivo AR y las medias móviles MA en modelos siguientes, un análisis sobre la memoria de los mismos en los rendimientos es importante. Como observamos, la media móvil tiene un efecto de memoria de al menos 16 rezagos, lo cual se considera demasiado alto, no obstante el autoregresivo muestra resultados similares con almenos 9 rezagos indicándonos que para nuestra modelación AR, MA, ARMA y ARIMA se requerirán varios rezagos para encontrar nuestro mejor modelo. A pesar de esto ya contamos con una serie más estable para realizar modelos con lo que se procederá a explicar las siguientes metodologías y por ende la construcción de los mejores modelos para cada caso.

Pruebas de reices unitarias

Las pruebas que se utilzian para detectar raíces unitarias en este análisis son: Dickey Fuller Aumentada (DFA), Phillips Perron y la prueba Kwiatkowski - Phillips - Schmidt - Shin (KPSS).

Prueba a niveles

Prueba Resultado
DFA 0.99
PP 0.08
KPSS 0.01

Prueba a rendimientos

Prueba Resultado
DFA 0.99
PP 0.01
KPSS 0.1

Como evaluar estor resultados

H0
La serie tiene raíz unitaria
La serie tiene raíz unitaria
La serie es estacionaria

Por lo tanto odemos ver que la serie orginal presentaba un problema de estacionariedad ademas re raices unitarias, por loq ue se debera trabajar con la serie de rendimientos que pasa las pruebas de reaices unitarias con exito.

Metodologías

Descomposición de variables

Por lo general, en los métodos de descomposición de series temporales, se parte de la idea de que la serie temporal se puede descomponer en todos o algunos de los siguientes componentes:

Tendencia \(\left (T_{t} \right )\), que representa la evolución de la serie en el largo plazo.

Fluctuación cíclica-estacional \(\left ( S_{t} \right)\), que refleja las fluctuaciones de carácter periódico, pero no necesariamente regular, a medio plazo en torno a la tendencia. Esto componente refiere también variaciones climatológicas, las vacaciones, las fiestas, etc. Este componente es frecuente hallarlo en las series econ?micas, y se debe a los cambios en la actividad económica.

Movimientos Irregulares \(\left ( I \right )\), que pueden ser aleatorios, la cual recoge los pequeños efectos accidentales, o erráticos, como resultado de hechos no previsibles, pero identificables a posteriori (huelgas, catástrofes, etc.).

La asociación de estos tres componentes en una serie temporal, Y, puede responder a distintos esquemas; así, puede ser de tipo aditivo: \[Y_t= T_t + S_t + e_t\] También puede tener una forma multiplicativa: \[Y_t=T_t *S_t *e_t\] O una combinación de ambos \[Y_t=T_t*S_t +e_t\]

Modelos AR y MA

Estos modelos son aquellos en los cuales la variable dependiente queda definida por uno o varios de sus retardos. Estas series establecen una relación entre dichas variables tal que:

Otra

En ocasiones, llevar a la práctica estos modelos autorregresivos (AR) resulta una tarea difícil, ya que pueden precisar de un número elevado de parámetros para describir de una forma adecuada la estructura dinámica que poseen los datos. Con el objetivo de superar esta dificultad, son introducidos los modelos autorregresivos con promedios móviles incorporados (Box, Jenkins , & Reinsel, 1994), es decir la familia ARMA (NEGUERUELA, 2016). Estos modelos ARCH también tienen una serie de limitaciones que dejan su validez en entredicho. Por una lado, al emplear una función cuadrática para calcular la varianza (2.11), se asume que los shocks positivos en los afectan del mismo modo a la volatilidad de precios y cotizaciones que los shocks negativos; esto impide estimar apropiadamente el efecto apalancamiento discutido por autores como Black (1976) y Christie (1982), quienes llegan a la conclusión de que los shocks negativos afectan más intensamente a la volatilidad de los activos financieros que los shocks positivos:

Modelos ARMA

Un modelo ARMA combina polinomios AR y MA de forma compacta, reduciendo así el número de parámetros necesarios en la estimación. En el caso de las series temporales financieras, la aplicación de los modelos ARMA es escasa (Tsay, 2010), ya que generalmente solo son empleados para capturar la volatilidad de ciertos productos financieros. Como la forma más simple del modelo ARMA podemos encontrar el ARMA(1,1)

Otra1

Donde 𝑎𝑡 y 𝑎𝑡−1 representan un ruido blanco y su retardo, e 𝑦𝑡 es una serie temporal, cuyo retado viene dado por 𝑦𝑡−1. Así pues distinguimos dentro la expresión los componentes AR y MA a izquierda y derecha de la misma.

Cabe afirmar que para que proceso estocástico estacionario pueda ser formulado a través de una expresión como la anterior ha de cumplir con ciertas condiciones: Una de estas condiciones es que ha de ser invertible, lo cual significa que la correlación entre la variable estudiada y sus retardos ha de disminuir a medida que nos movemos en el tiempo, alejándonos del momento cuya correlación estamos analizando. Así mismo, el modelo ha de cumplir la condición ∅1 ≠ 𝜃1, ya que sino el modelo quedaría invalidado y estaríamos ante un proceso constituido por ruido blanco.

Modelos ARIMA

ARIMA (p,d,q)(P,D,Q)

Dentro de la expresión de estos modelos podemos encontrar dos términos: Por un lado (p,d,q), que hace referencia a la parte regular del modelo, por el otro lado (P,D,Q) se refiere la parte estacional del mismo. El fin de estos procesos de diferenciación no es otro que extraer las posibles fuentes de no estacionariedad. La expresión matemática del modelo ARIMA(p,d,q))(P,D,Q) es:

Otra2

Modelos ARCH

Caminata aleatoria Podemos definir el caminata aleatoria como un proceso donde el valor de una variable (𝑦𝑡 ) en el periodo t está compuesto por su valor en el periodo t-1(𝑦𝑡−1), un término constante o deriva y un término de error definido como un ruido blanco (𝜀𝑡 ). La especificación de dicho modelo es la siguiente:

Otra3

Es muy importante comprender los principios de una caminata aleatoria para poder entender modelos ARCH como los GARCH.

Modelos ARCH Los modelos ARCH tiene su origen en un artículo de Robert Engle (1982), donde se introduce esta familia de modelos con el fin de analizar la volatilidad de la inflación en el Reino Unido. Previamente a la generalización del uso de los modelos ARCH, a la hora de predecir la volatilidad en series temporales financieras, la práctica general era introducir un vector de variables exógenas:

GARCH

En esta expresión, xt constituye un vector de variables exógenas en forma de series temporales que incluye una columna de unos, mientras que 𝜀𝑡 representa un ruido blanco. Sin embargo, esta especificación entraña cierta dificultad, ya que es necesario identificar las causas que provocan la fluctuación de la varianza a lo largo del tiempo, en vez de aceptar el hecho de que medias y varianzas condicionales puedan evolucionar en paralelo. Otra especificación anterior a la de Engle es la propuesta por Granger y Andersen (1978), quienes introducen como variable condicionante la realización anterior del proceso estudiado:

GARCH1

A través de esta especificación, los autores obtienen varianzas con valores cero o infinito, lo que hace de ésta una especificación poco atractiva ya que deberíamos profundizar más en el modelo e introducir algunas variaciones para obtener resultados más útiles (Engle R. , 1982). Fue Engle quien generalizó el uso de los modelos ARCH y propuso un enfoque más práctico. La especificación que Engle da a su modelo es la siguiente:

GARCH2

Para 𝑡 = 1,2, … 𝑇, siendo𝜀𝑡 un proceso de ruido blanco y𝜎𝑡 la raíz cuadrada de la varianza. La idea básica de Engle para los modelos ARCH, en su aplicación a las series temporales financieras, es que un shock en el rendimiento de un activo financiero no está autocorrelacionado, pero sí que es dependiente. Según Engle, la varianza de un proceso puede ser descrita a través de la siguiente función cuadrática:

GARCH3

Es necesario reforzar la estacionariedad y por ende conseguir que sus varianzas sean positivas. Para ello podemos establecer los siguientes supuestos sobre los parámetros del modelo (Nelson & Cao, 1992):

GARCH4

Así como el supuesto de estacionariedad estricta (Gourieroux, 1997):

GARCH5

Estas restricciones sobre los parámetros garantizan que la varianza condicional sea positiva en todos los períodos. La restricción de Gourieroux de lo que se encarga, es de garantizar que el proceso sea estacionario en varianza. Para que esto suceda es necesario que las raíces del polinomio característico estén fuera del círculo unitario, es decir, que tengan un valor absoluto superior a uno. En el caso de ser raíces complejas, deberán tener un módulo mayor que uno. Así pues, la varianza condicional de 𝑦𝑡 se podrá expresar de la siguiente manera:

GARCH8

Limitaciones de los modelos ARCH

Los modelos ARCH también tienen una serie de limitaciones que dejan su validez en entredicho. Por una lado, al emplear una función cuadrática para calcular la varianza, se asume que los shocks positivos en los afectan del mismo modo a la volatilidad de precios y cotizaciones que los shocks negativos; esto impide estimar apropiadamente el efecto apalancamiento discutido por autores como Black (1976) y Christie (1982), quienes llegan a la conclusión de que los shocks negativos afectan más intensamente a la volatilidad de los activos financieros que los shocks positivos. Así pues, los modelos ARCH no son capaces de capturar este efecto, ya que asumen que la intensidad es la misma tanto para shocks positivos como negativos. Finalmente, cabe mencionar que estos modelos son una buena herramienta para analizar el comportamiento de la varianza condicional del retorno de los activos, pero no aportan ninguna pista sobre cuáles son las causas de dichas variaciones. Del mismo modo podemos añadir que son propensos a exagerar algunos shocks, ya que responden lentamente ante aquellos de mayor tamaño.

Modelos GARCH

Tras generalizar la especificación de la familia ARCH, Engle introdujo ciertas restricciones a estos modelos, ver: Engle (1983) y Engle y Kraft (1983). Siguiendo esta línea temática, surge una variante introducida por el económetra Tim Bollerslev, el modelo GARCH (Bollerslev, 1986). GARCH son las siglas de Generalized Autorregresive Conditional Heterokedasticity. Este modelo GARCH (p,q) queda descrito de la siguiente manera:

Random

A este modelo, con el fin de garantizar que varianza condicional estimada sea positiva en todos los períodos, podemos aplicarle las siguientes condiciones:

Random1

Limitaciones de los modelos GARCH

A pesar de la utilidad de esta familia, Nelson (1991), encuentra ciertas debilidades en estos procesos, tales como el hecho de que las restricciones de no negatividad de los parámetros son difíciles de lograr en muchas ocasiones. Así mismo, este autor observa que dichos modelos no logran estimar convenientemente el efecto de apalancamiento, al igual que sucedía con los modelos ARCH. Este mismo problema es considerado por algunos otros autores como Gazda (2003) o Enocksson (2012) como la principal limitación práctica de estos procesos. Por el otro lado, autores como Gouriéroux (1997),apuntan que aunque los GARCH están diseñados explícitamente para modelizar varianzas condicionales que no son constantes en el tiempo, a menudo no logran captar los fenómenos altamente irregulares como los “cracks” en los mercados. Esto nos lleva a pensar que esta familia de modelos solo es útil en situaciones en las que los mercados permanecen “estables”. A pesar de sus problemas, este modelo ofrece con unos parámetros p y q pequeños, resultados al menos tan satisfactorios como los de un ARCH de un orden mucho mayor. Prueba de esto es que Bollerslev demostró que aunque el modelo ARCH(8) de Engle y Kraft (1983) para la tasa de inflación en el deflactor del PIB parece eliminar todos los efectos ARCH, el modelo GARCH(1,1) lograba unos resultados similares.

Modelos EGARCH

En 1990, Pagan y Schwert (1990), y posteriormente en 1991 Nelson (1991), desarrollan una nueva variante del modelo GARCH, el EGARCH (modelo exponencial generalizado, auto-regresivo, condicionalmente heterocedástico). Es este modelo el que acaba con las asimetrías en la estimación del efecto de los shocks, al implementar una función (𝜀𝑡 ) de las innovaciones 𝜀𝑡,que son variables igual e independientemente distribuidas de media cero, y en las que por tanto el valor de las innovaciones queda recogido por medio de la expresión |𝜀𝑡 |−E(|𝜀𝑡 |). Matemáticamente:

Random11

Por ello podemos especificar el modelo exponencial generalizado autorregresivo de heterocedasticidad condicionada o EGARCH como:

Random111

Ventajas del modelo EGARCH

El modelo EGARCH por su parte da pie, gracias a sus propiedades, a que los shocks positivos o negativos afecten a la volatilidad de diferentes maneras, ya que el uso de(𝜀𝑡 ), permite que el modelo responda asimétricamente a los shocks positivos y negativos.

Desventajas

Este modelo tiene ciertos problemas, el principal es que bajo distribuciones leptocúrticas como la t de Student ya que entonces no existe la varianza incondicional. La razón es que el crecimiento exponencial de la varianza condicional cambia con el nivel de los shocks, lo que conduce a la varianza incondicional a dispararse cuando la probabilidad de los shocks es lo suficientemente grande. Por ende, la existencia de los momentos incondicionales depende de la elección en términos de distribución, lo cual es una propiedad indeseable de los modelos EGARCH. Cabe añadir también, que en algunos estudios empíricos se ha encontrado evidencias de que el modelo EGARCH a menudo tiende a magnificar los efectos de los shocks más grandes en términos de volatilidad, lo cual provoca que en ocasiones los modelos EGARCH se ajusten peor incluso que los modelos GARCH estándar (Engle y Ng,1993).

MODELO DE DESCOMPOSICION DE VARIABLES

Aplicando una ventana de 252 dias que nos replica un año de cotizacion obtenemos los resultados siguientes:

DE

Como el objetico sera pronosticar para los siguientes 6 dias y contrastarlo con otros modelos los pronosticos se dejaran al final. Ademas deberemos prestar especial atencion al criterio AIC.

Este modelo sirve para darse una idea del comportamiento de la serie en el largo plazo, en este caso sera asi.

Como podemos observar las bandas de confianza se hacen cada vez mas amplias a medidas que tiempo avanza en el pronostico, esto es por la perdida de efectividad de cualquier modelo en el tiempo.

MODELO ARIMA

Se

Para el modelo ARIMA R studio nos da la posibilidad crear automáticamente un modelo que bajo su criterio es el mejor para esta serie, este modelo muestra los siguientes resultados.

ARIMA(2,1,4)
ARI

Basándonos en el AIC (Akaike Information Criterion) nos encontramos que nos encontramos con un valor de referencia para futuros modelos de 5780.28 Sin embargo para tener un mejor entendimiento de la serie le aplicaremos una prueba círculo unitario.

ARI11

Podemos observar que como los valores del autorregresivo AR como de las medias móviles MA se encuentran dentro del círculo podemos concluir que se trata de un proceso estacionario.


    Ljung-Box test

data:  Residuals from ARIMA(2,1,4) with drift
Q* = 34.038, df = 3, p-value = 1.945e-07

Model df: 7.   Total lags used: 10

De la misma manera hacemos un análisis sobre los residuos del modelo y observamos que la varianza de los residuos no es constante en el tiempo además de que los residuos siguen sin distribuirse en forma de una normal por lo cual buscaremos un mejor modelo.

ARI111

Utilizando como punto de partida el AIC del ARIMA propuesto por R studio, se busco un modelo que mejorara este resultado, el mejor modelo es el ARIMA (7,1,9)

ARIMA (7,1,9)
ARI1111

Como podemos observar un modelo con un nivel de autorregresivos y de medias móviles más altos era de esperarse con el análisis de la memoria de los rendimientos, Este modelo mejora el AIC con un nivel de 5737.5 por lo que procederemos a realizar la prueba de círculo unitario.

ARI11111

Podemos observar que tanto en la variable autorregresiva AR como en la meda móvil MA todos caen dentro del circulo unitario lo cual a simple vista indica que se trata de un proceso estacionario. Sin embargo tenemos que tomar en cuenta que alguno de los valores se encuentran dentro de la frontera lo cual es algo no deseable en un modelo


    Ljung-Box test

data:  Residuals from ARIMA(7,1,9)
Q* = 7.7871, df = 3, p-value = 0.05062

Model df: 16.   Total lags used: 19

Si observamos los residuos del modelo podemos ver que la varianza de los errores mejora pero aun así no se encuentra dentro de las dos variaciones estándar, esto lo atribuyo principalmente a los datos extremos provocados en el 2020. Además de esto la distribución de los residuos sigue sin seguir una distribución normal.

MODELO ARCH

Con el fin de iniciar los modelos de volatiliad se hara una prueba para saber si existen efectos ARCH en la serie, los resultados son los siguientes:


    ARCH LM-test; Null hypothesis: no ARCH effects

data:  Ultra_R
Chi-squared = 848.04, df = 12, p-value < 2.2e-16

El rechazar la Ho: De que no hay efectos ARCH Aceptamos que la serie tiene efectos ARCH por lo que procedemos a comenzar con los modelos de volatilidad.

ARCH(1) Como es de esperar se planteara el modelo más sencillo y se partirá del mismo para la búsqueda de un mejor modelo.

ARI111111

Como podemos observar contamos con un modelo inicial muy bueno teniendo todos los parámetros significativos y un AIC de -5.21 esto servirá de referencia para futuros modelos.

Tambien podemos vislumbrar el comportamiento de nuestro ponostico contra el cuadrado de nuestros rendimientos.

Como siempre trataremos de encontrar un modelo que muestre mejores resultados:

ARCH(5)
ARI1111111

Si hacemos un análisis nos damos cuenta que el factor ARCH prevalece hasta cinco rezagos, por lo que todos los parámetros se encuentran significativos dentro del modelo. Sin embargo; nos encontramos con un AIC inferior a modelo ARCH(1)

Tambien podemos vislumbrar el comportamiento de nuestro ponostico contra el cuadrado de nuestros rendimientos.

MODELO GARCH

Como siempre se procederá con el modelo más sencillo y que también es el mejor y el único modelo GARCH que cumple con la significancia de los parámetros.

GARCH(1,1)
ARI11111111

Como podemos ver en los resultados el intercepto tiene un valor cercano a cero lo cual es de esperar ya que representa la media. Pero además de esto podemos decir que el 21% de los cambios pueden ser explicados por la varianza de un periodo anterior y un 73% por un factor de varianza entre los errores del mismo modelado en un periodo antes. De esta manera aunque la suma se acerca a cero no llegamos a la unidad por lo que los resultados son válidos.

podemos vislumbrar el comportamiento de nuestro ponostico contra el cuadrado de nuestros rendimientos. Estos se ajustan de mejor manera al comportamiento de la serie original.

MODELO EGARCH

Por ultimo estimaremos el modelo EGARCH más sencillo y también el mejor para la estimación del ETF Ultra. Los resultados obtenidos son los siguientes.

ARI111111111

Como podemos observar el modelo cumple con la significancia de todos los parámetros, Y AIC de -5.5167

Como este sera el mejor modelo dejamos varios graficos para su analisis

Los graficos corresponden a los siguientes

1: Serie con 2 SD condicional superpuestos

2: SD condicional (frente a | devoluciones |)

3: ACF de observaciones

4: ACF de observaciones cuadradas

5: ACF de observaciones absolutas

6: Correlación cruzada

7: Densidad empírica de residuos estandarizados

8: Gráfico QQ de residuos estandarizados

9: ACF de residuos estandarizados

10: ACF de residuos estandarizados al cuadrado

11: Curva de impacto de noticias

Comprobacion del Akaike Information Criterion (AIC) para todos los modelos

Despues de haber analizado varios modelos para el pronostico del precio de cierre a 6 dias utilizaremos AIC para elejir el mejor modelo bajo este criterio.

Modelo Especificacion AIC Parametros significativos
EGARCH 1,1 -5.5167 Todos
GARCH 1,1 -5.474 Todos
GARCH 2,1 -5.473 Alfa 2 no significativa
GARCH 1,2 -5.4725 Beta 2 no significativa
ARCH 5 -5.4613 Todos
ARCH 4 -5.455 Todos
ARCH 3 -5.4217 Todos
ARCH 2 -5.372 Todos
ARCH 1 -5.2124 Todos
ARIMA 7,1,9 5737.5
ARIMA 8,1,5 5743.92
ARIMA 8.1.4 5744.16
ARIMA 9.1.4 5745.1
ARIMA 7,1,7 5745.35
ARIMA 6,1,9 5746.81
ARIMA 9,1,1 5752.9
ARIMA 9,1,2 5754.88
ARIMA 9,1,3 5756.85
ARIMA 8,1,2 5764.13
ARIMA 6,2,5 5766.11
ARIMA 6,1,5 5767.96
Auto ARIMA 2,1,4 5780.28
ARIMA 1,1,1 5911.76
ARIMA 1,2,1 5928.72
Descomposicion de variables 14292.05

De esta manera observamos que en base al Akaike Information Criterion, podemos decir que el Modelo que tiene el AIC mas cercano a 0 es el ARCH de orden 1

Sin embargo estos resultados solo podran ser concluyentes cuando analicemos los resultados de los modelos contra los datos reales hasta el 22 de Enero del 2021

Analisis de error de los pronosicos de todos los modelos

Resultados arrojador por cada modelo

Dia Fecha Precio de cierrre real Rendimientos log Modelo Descomposicion de variables Auto ARIMA 2,1,4 ARIMA MEJOR AIC Modelo ARCH 1 ARCH 5 GARCH 1,1 EGARCH 1,1
Jueves 14/01/2021 93.470001
Viernes 15/01/2021 92.110001 -0.015 91.57922 93.39046 93.22905 0.01556 0.01188 0.0134 0.01415
Lunes 19/01/2021 93.57 0.016 91.7661 93.5338 93.65855 0.01844 0.01161 0.01377 0.01443
Martes 20/01/2021 96.129997 0.027 92.01696 93.42993 93.64446 0.01978 0.01221 0.01411 0.01469
Miercoles 21/01/2021 96.32 0.002 91.76464 93.55617 93.89977 0.02044 0.0132 0.01443 0.01494
Jueves 22/01/2021 95.620003 -0.007 92.09971 93.56676 93.9508 0.02078 0.01412 0.01473 0.01517

Nos muestra los resultados obtenidospor cada uno de los modeos

Precio de cierre pronosticado

Precio de cierrre real Modelo Descomposicion de variables Auto ARIMA 2,1,4 ARIMA MEJOR AIC Modelo ARCH 1 ARCH 5 GARCH 1,1 EGARCH 1,1 RESULTADO PROMEDIO
Viernes 15/01/2021 92.110001 91.57922 93.39046 93.22905 94.48568269 94.4819518 94.4834912 94.48425159 93.7334439
Lunes 19/01/2021 93.57 91.7661 93.5338 93.65855 93.12861207 93.1216787 93.1238662 93.12453562 93.06530608
Martes 20/01/2021 96.129997 92.01696 93.42993 93.64446 94.58997692 94.5822848 94.58421 94.58479843 93.91894574
Miercoles 21/01/2021 96.32 91.76464 93.55617 93.89977 97.15064733 97.1432845 97.1445316 97.14504916 95.40058466
Jueves 22/01/2021 95.620003 92.09971 93.56676 93.9508 97.34099741 97.3342202 97.334839 97.33528565 95.56608746

Al ser los pronosticos ARCH, GARCH y EGARH pronostico sobre rendimientos logaritmicos deberemos hacer una transformacion agregando un exponencial sumando el valor anterior para obtener el resultado pronosticado.

Error del pronostico VS dato real

Dia Fecha Modelo Descomposicion de variables Auto ARIMA 2,1,4 ARIMA MEJOR AIC Modelo ARCH 1 ARCH 5 GARCH 1,1 EGARCH 1,1 RESULTADO PROMEDIO
Viernes 15/01/2021 -0.530781 1.280459 1.119049 2.376 2.372 2.373 2.374 1.6234429
Lunes 19/01/2021 -1.8039 -0.0362 0.08855 -0.441 -0.448 -0.446 -0.445 -0.504693917
Martes 20/01/2021 -4.113037 -2.700067 -2.485537 -1.540 -1.548 -1.546 -1.545 -2.211051256
Miercoles 21/01/2021 -4.55536 -2.76383 -2.42023 0.831 0.823 0.825 0.825 -0.919415342
Jueves 22/01/2021 -3.520293 -2.053243 -1.669203 1.721 1.714 1.715 1.715 -0.053915538

Muestra los errores de cada pronostico comparados con el precio de cierre real.

Error cuadratico medio

Dia Fecha Modelo Descomposicion de variables Auto ARIMA 2,1,4 ARIMA MEJOR AIC Modelo ARCH 1 ARCH 5 GARCH 1,1 EGARCH 1,1 RESULTADO PROMEDIO
Viernes 15/01/2021 0.28172847 1.639575251 1.252270664 5.643863479 5.62615082 5.63345565 5.6370658409 2.6356
Lunes 19/01/2021 3.25405521 0.00131044 0.007841103 0.194823308 0.20099203 0.19903533 0.198 0.255
Martes 20/01/2021 16.91707336 7.290361804 6.177894178 2.371661846 2.39541291 2.3894574 2.388 4.889
Miercoles 21/01/2021 20.75130473 7.638756269 5.857513253 0.689974982 0.67779738 0.67985238 0.681 0.845
Jueves 22/01/2021 12.39246281 4.215806817 2.786238655 2.961821751 2.93854046 2.94066258 2.942 0.003
Error cuadratico medio 10.71932492 4.157162116 3.216351571 2.372429073 2.36777872 2.36849267 2.369208733 1.7254523822

Como podemos observar el modelo que se equivoca menos por decirlo asi es el modelo EGACR, sin embargo; al hacer un promedio de los datos pronosticados por los modelos, estos se ajustan mejor teniendo menos errores y un error cuadratico medio inferior.

Comparacion grafica de los datos pronosticados VS datos reales

ARI1111111111

Como podemos observar, la línea azul nos indica los datos reales y cada línea los datos pronosticados, el modelo de descomposición de variables se queda por debajo siendo el que menos explica el comportamiento. Los modelos ARIMA, ARCH y GARCH logran modelar con más éxito la serie sin embargo; el modelo que mejor se ajusta a los datos reales es el modelo EGARCH. De igual manera al sacar un promedio de los resultados obtenemos resultados más satisfactorios con un error cuadrático medio mucho menor.

Conclusiones

Cabe mencionar que este análisis es resultado del curso de Econometría financiera de la Escuela Superior de Economía del Instituto politécnico Nacional. Los modelos utilizados son todos los modelos aprendidos en el curso y podemos observar un avance en los modelos utilizados para el pronóstico de series financieras.

Podemos concluir estos resultados:

El modelo de descomposición de variables fue el que nos dio el mejor resultado al día siguiente, sin embargo; a través del tiempo fue el que peor modeló la serie a seis días.

El modelo que mejor ajusto de acuerdo al criterio AIC fue el modelo ARCH-1 que nos dio resultados muy similares al modelo ARCH-5 y al modelo GARCH-1-1 si bien nos da resultados muy buenos existe un modelo que conlleva menos errores.

El mejor modelo puedo concluir que es el modelo EGARC, este modelo si bien no tiene el mejor AIC, nos da el menor error cuadrático medio sobre los resultados reales y se puede apreciar que en verdad los resultados se ajustan al comportamiento de nuestra serie.

Algo a lo que me gustaría prestarle especial importancia es la utilización de todos los pronósticos para la creación de un pronóstico promedio, este nos modelo mejor aún que el modelo EGARH sin embargo no podría concluir que este método sea el mejor ya que influirán mucho los modelos que utilicemos, la cantidad y la calidad de los mismos.

En conclusión sobre el ProShares Ultra no me atrevería a utilizar un ETF de rendimiento diario como este y menos al 200% al menos no con estos modelos preferiría un ETF que replicara el comportamiento del S&P 500 a largo plazo con el SPY ya que estos modelos si nos pueden dar una idea del comportamiento del mismo a lo largo de una semana en un contexto de poca volatilidad.

Por ultimo dejo algunas ideas para poder seguir trabajando con esta serie:

Sugiero recortar la muestra hasta principios de Julio del 2020 con el fin de evitar el shock en el mercado provocado por el coronavirus, esperando obtener mejores resultados.

Tambien seria interesante buscar suavizar la serie de alguna manera y comparar resultados.

De igual manera la inclusion de variables dummys para separar el periodo de estabiliadad antes de la pandemia y despues de la pandemia pienso que seria una bueno forma de separar los datos y evitar la perdida de los mismos.

Textos utilizados:

Preciado, A. L. (20 de 11 de 2020). Descomposicion de variables Peñoles. ProShares. (30 de September de 20): https://rpubs.com/Ana_JP/PenolesPronostico

Fact Sheet. Obtenido de ProSahres Ultra.S&P500: https://www.proshares.com/media/fact_sheet/ProSharesFactSheetSSO.pdf?param=1607281792698

ProShares. (1 de October de 2020). Summary prospectus. Obtenido de Ultra S&P 500: https://www.proshares.com/media/prospectus/sso_summary_prospectus.pdf?param=1607281792698

S&P Global. (20 de June de 2014). S&P Dow Jones Indices. Obtenido de S&P500: https://www.spglobal.com/spdji/en/indices/equity/sp-500/#data

S&P Global. (December de 2020). S&P Dow Jones Indices. Obtenido de S&P U.S. Indices: https://www.spglobal.com/spdji/en/indices/equity/sp-500/#data

MARIO ABASCAL (2016). ANÁLISIS DE SERIES TEMPORALES FINANCIERAS. Obtenido de Universidad de Cantabria: https://repositorio.unican.es/xmlui/bitstream/handle/10902/10331/ABASCALNEGUERUELAMARIO.pdf?sequence=1&isAllowed=y