Lectura 1

Es importante la implementación de supuestos estadísticos, ya que la información y datos que se manejan son muy extensos y complejos, al momento de implemetar los supuestos estadísticos en nuestos cálculos, obtenemos información más limpia, exacta y resultados más precisos que facilitan el uso y manejo de estos.

Autocorrelación

La autocorrelación es la correlación que existe entre las variables de un modelo a lo largo de una serie de tiempo. Esta es una medida de relación lineal que ayuda a evaluar y comparar los resultados de datos presentes con los resultados de datos pasados para evaluar el comportamiento que estos han presentado a lo largo del tiempo y también para predecir valores futuros.

Gracias a la autocorrelación, además de lograr observar las variaciones y correlación de los datos a lo largo del tiempo, también nos indican cuales son las variables con más peso y significancia en el modelo que ayudarán a predecir los valores futuros.

set.seed(234)
x <- arima.sim(n = 100, list(ar = 0.7))
modelo<-x
acf(modelo, lag.max = 10)

Se puede determinar si existe autocorrelación o no en una serie de datos evaluando el gráfico resultante. Como se puede observar en el gráfico hay varios valores o lags que pasan los límites de tolerancia, por lo cual al no presentar autocorrelación, se necesitan realizar modelos para ajustar los datos.

Normalidad

La normalidad es cuando una serie de datos correspondiente a un modelo que presentan una distribución normal.La normalidad nos ayuda a identificar si los datos provenientes de la serie de datos presentan un comportamiento similar y en que cantidad estos se encuentran. Es necesario que un modelo presente normalidad, ya que de esta forma no se obtendran resultados con alteraciones o falta de exactitud.

La normalidad puede ser calculada con un gráfico que presente una distrución de los datos en forma de campana de Gauss o analizando el Jarque Bera resultante y si este es mayor que 0.05 significa que existe normalidad en el modelo.

series<-uschange
a <- VARselect(uschange[,3:5], lag.max=15,type="const")
a$selection
## AIC(n)  HQ(n)  SC(n) FPE(n) 
##      2      2      1      2
modelo1<-VAR(uschange[,3:5],p=2,type=c("const"))
modelo_s<-summary(modelo1)
modelo_s$roots
## [1] 0.6558793 0.4112444 0.3989926 0.3989926 0.3189046 0.3189046
normality.test(modelo1, multivariate.only=FALSE)
## $Production
## 
##  JB-Test (univariate)
## 
## data:  Residual of Production equation
## Chi-squared = 44.717, df = 2, p-value = 1.949e-10
## 
## 
## $Savings
## 
##  JB-Test (univariate)
## 
## data:  Residual of Savings equation
## Chi-squared = 149.08, df = 2, p-value < 2.2e-16
## 
## 
## $Unemployment
## 
##  JB-Test (univariate)
## 
## data:  Residual of Unemployment equation
## Chi-squared = 33.933, df = 2, p-value = 4.282e-08
## 
## 
## $JB
## 
##  JB-Test (multivariate)
## 
## data:  Residuals of VAR object modelo1
## Chi-squared = 187.43, df = 6, p-value < 2.2e-16
## 
## 
## $Skewness
## 
##  Skewness only (multivariate)
## 
## data:  Residuals of VAR object modelo1
## Chi-squared = 3.8415, df = 3, p-value = 0.2791
## 
## 
## $Kurtosis
## 
##  Kurtosis only (multivariate)
## 
## data:  Residuals of VAR object modelo1
## Chi-squared = 183.59, df = 3, p-value < 2.2e-16

Como se puede observar en los resultados, el modelo presenta un Jarque Bera menor a 0.05, por lo cual se puedeconcluir que los datos no presentan una distribución normal.

Estacionariedad

La estacionariedad es cuando la media y varianza son constantes en el tiempo y estas no presentan una tendencia. La estacionariedad es utilizada para analizar los cambios que pueden haber en el futuro aun así cuando la media y la varianza se mantienen constantes.

adf.test(modelo5)
## 
##  Augmented Dickey-Fuller Test
## 
## data:  modelo5
## Dickey-Fuller = -3.7142, Lag order = 4, p-value = 0.02653
## alternative hypothesis: stationary

Para definir si existe estacionariedad en un modelo o no, se utiliza la prueba de Dickey Fuller. Para determinar si el resultado de la prueba nos indica que el modelo presenta estacionariedad el resultado debe de ser menor a 0.05.

Homocedasticidad

La homocedasticidad nos ayuda a determinar si las estimaciones del modelo son precisas o no, todo dependiendo del comportamiento que estas presenten en el gráfico. Además esta prueba nos ayuda a idnetificar si la varianza de los errores es constante.

plot(model$fitted.values, model$residuals)
abline(h = 0)

Como se puede observar en el gráfico, los puntos se encuentran esparcidos por todo el gráfico y no presentan un comportamiento. Para identificar si un modelo presenta homocedasticidad, las estimaciones deben de presentar un comportamiento similiar y pegado a la linea central.

Multicolinealidad

La multicolinealidad existe cuando la correlación entre dos o más variables es demasiado alta. Para que existe multicolinealidad entre las variables, el supuesto de Gauss-Markov se debe incumplir, es decir que la dependencia lineal entre las variables es exacta. La muticolinealidad nos ayuda a identificar la dependencia o la independencia de las variables que se encuentran dentro del modelo.

Paa poder evaluar si existe multicolinealdad entre las variables se utiliza “vif()” en r, así de esta forma obtenemos los resultados que buscamos obtener.

vif(modelo4)
##       x1       x2 
## 1.010446 1.010446

Existe como regla que los resultados deben de ser mayores a 5 para que exista multiolineaidad en un modelo.Como se puede observar en los resultados, ambos resultados fuerno menores a 5, por lo cual, se puede deducir que no existe multicolinealidad entre estos.

Causalidad

La causalidad nos ayuda a entender le relación entre variables y la significancia que tiene una sobre otra. En este caso una de las variables recibe el nombre de independiente y la otra de dependiente, es decir que la variable dependiente depende de la variable independiente. La variable dependiente cambiara y tendrá variaciones únicamente si la variable independiente presenta cambios en su comportamiento, mientras que a la variable independiente no le afecta en nada las variaciones o cambios de la variable dependiente.

La causalidad nos ayuda a determinar mejor la informción y tener con más claridad el impacto que tienen ciertos cambios sobre ciertas variables. Esto se puede calcular por medio de la Prueba de Granger,ya que dependiendo de los resultados de cada variable, los que presenten un valor menor a 0.05 serán las variables a utilizar.

Modelo AIC y Cálculo de errores

Modelo AIC

El modelo AIC es una medida estadistica que ayuda a medir o a comparar dos o más modelos.El modelo AIC es utilizado para medir la capacidad de ajuste de los datos de cada modelo que se busca medir o evaluar. El mdodelo AIC cuenta con la característica que mientras más bajo el valor obtenido, mejor será la capacidad de ajuste de los datos del modelo.

Cálculo de AIC del modelo 1

AIC(modelo1)
## [1] 285.8019

Cálculo de AIC del modelo 2

AIC(modelo2)
## [1] 287.264

Como se puede observar en este caso el mejor modelo es el 1, ya que este cuenta con un resultado más bajo de AIC (285.80), esto significa que los datos del modelo 1 cuentan con mejor capacidad de ajuste que los datos del modelo 2.

Cálculo de errores

En la estadística, el cálculo de errores es importante para el análisis de los datos a utilizar. El cálculo de errores nos ayudaa disminuir la incertidumbre que se puede llegar a tener con los datos, ya que estos pueden ser muy extensos, además nos ayuda a comparar los resultados de diferentes modelos para así poder determinar con más facilidad cual es el mejor modelo a utilizar.

En conclusión, el cálculo de errores es necesario para verificar la exactitud de la información y así poder tomas con más precisión y facilidad el modelo que se llegue a utilizar.

Conclusión

En conclusión es necesario realizar todas las pruebas relacionadas a los supuestos estadísticos para poder obtener un mejor resultado. Estos supuestos son necesarios para filtrar y simplificar la cantidad de datos y así utilizar únicamente los que son necesarios y que llegan a aportar a nuestro resultado final, además al implementar y utilizar las pruebas relacionadas a los supuestos no facilita el uso de la información resultante, ya que ahora no estamos únicamente utilizando información aleatoria sino que estamos utilizando información que ya fue procesada y analizada.

Es importante saber el uso y el porque de cada uno de estos supuestos estadísticos, ya que estos nos ayudan saleccionar de mejor manera la informacón a utilizar así como el modelo a utilizar,ya que nospresentan una serie de datos mejor trabajada y seleccionada con precisión.