Se define como autocorrelación, la relación de una serie de datos y sus valores retardados, lo que significa que mide la similitud entre los valores de una serie en diferentes momentos de tiempo. Entre las causas de Autocorrelación se puede mencionar, errores de especificación en el modelo, existencia de efectos de proximidad entre las observaciones y manipulación de la información. Es importante mencionar que existen consecuencias, entre las cuales está que las varianzas y covarianzas de los estimadores MCO son sesgados, de igual manera el estadístico R^2 es sesgado. Cabe mencionar que autocorrelación define el grado de cada componente de los modelos de serie de tiempo. Se puede identificar que existe autocorrelación mediante dos formas:
-Forma Grafica: Esta se utiliza mediante el graficar los errores o residuos comparada con alguna de las variables.
-Hipotesis: Ho (Hipotesis nula ) y Ha (Hipotesis alternativa)
Entre las formas que se puede implementrar este supuesto y ser identificado en el modelo es por medio de la Prueba PortManteu, la cual afirma que si el P-value es mayor a 0.05 en el modelo existe autocorrelación.
Comando
#>PortManteu Test > 0.05 Autocorrelación
#>serial.test(modelo1, lags.pt=11, type="PT.asymptotic")
Se refiere a que todas las variables independientes y dependientes tienen que estar distribuidos, normalmente, representados por una curva en forma de campana. Una distribución normal es una distribución de probabilidad continua que tiene una forma de campana simétrica alrededor de su media. Así mismo, permite la estimación por intervalos de confianza para los coeficientes de regresión y predicción. De igual manera, plantea pruebas de hipótesis sobre los parámetros del modelo. Entre sus funciones está analizando la diferencia de la distribución de los datos respecto a lo que deberíamos esperar.
Mediante la Prueba de Jarque Bera puede ser evaluada en un modelo la normalidad. La cual nos dice que si el p-value es menor a 0.05 existe normalidad en el modelo.
De igual manera si el valor p es menor que o igual al nivel de significancia, la decisión es rechazar la hipótesis nula y concluir que sus datos no siguen una distribución normal. Si el valor p es mayor que el nivel de significancia, la decisión es que no se puede rechazar la hipótesis nula.
Comando
#normality.test(modelo1, multivariate.only=FALSE)
La estacionariedad se caracteriza por no tener tendencia, es una serie de tiempo se crea cuando la media y la variabilidada son constantes a lo largo del tiempo. Si existe estacionariedad, predecimos las caracteristicas de la serie de tiempo serán las mismas en el futuro como en el pasado. Se centra en la media, varianza y autocorreación.
Para determinar si un modelo VAR tiene estacionarriedad se puede mediante raices unitarias. De igual forma si el resultado es mayor a 1, representa que el modelo si existe estacionariedad.
Comando
#Raíz unitaria < 1
#roots(modelo1)
Mediande el comando antes mencionado, si los valores obtenidos no son mayores 1, representa que el modelo que se esta implementando si es estacionario.
La homocedasticidad es una característica de un modelo de regresión lineal que implica que la varianza de los errores es constante a lo largo del tiempo. La homocedasticidad en un modelo estadístico predictivo ocurre si en todos los grupos de datos de una o más observaciones, la varianza del modelo respecto de las variables explicativas (o independientes) se mantiene constante.
La homocedasticidad es importante porque si los errores no tienen una varianza constante en todas las observaciones, los resultados de la regresión pueden ser sesgados o poco precisos. En ese caso, es necesario aplicar técnicas estadísticas específicas, como la corrección de heterocedasticidad, para mejorar la calidad de los resultados.
Se dice que existe homocedasticidad cuando la varianza de los errores de la regresión es la misma para cada observación i (de 1 a n observaciones), es decir: es un escalar constante para todo i.
Prueba Grafica:
Una forma de evaluar la homocedasticidad es mediante la inspección de un gráfico de dispersión de los residuos (errores) versus los valores ajustados (predicciones). Si los puntos en el gráfico están dispersos alrededor de una línea horizontal, es probable que exista homocedasticidad. Si, por el contrario, la dispersión de los puntos cambia según el valor ajustado, es probable que exista heterocedasticidad.
Comando
#arch<-arch.test(modelo1, lags.multi = 12, multivariate.only = FALSE)
Al generar el comando si el p-value es mayor a 0.05, nos demuestra que si existe homocedasticidad en el modelo,siendo asi que la varianza es constante.
La multicolinealidad se refiere a una situación en la que dos o más variables en un modelo estadístico están altamente correlacionadas entre sí. Esto significa que estas variables explicativas están proporcionando información redundante al modelo y pueden dificultar la interpretación de los coeficientes de regresión y la precisión de las estimaciones. Las principales causas que producen multicolinealidad en un modelo son:
-Relacion causal entre variables explicativas del modelo. ´
-Excasa variabilidad en las observaciones de las variables independientes.
-Reduciendo el tamaño de la muestra.
En el contexto de la regresión lineal, la multicolinealidad puede manifestarse cuando una variable independiente es una combinación lineal de otras variables independientes en el modelo, lo que hace que el modelo no sea capaz de distinguir los efectos de cada variable.
Para interpretar la multicolinealidad se puede utilizar una matriz de correlacion mediante las variables que son implementadas dentro del modelo.
Comando
#cor(datos_del_modelo)
Al utilizar el comando, si la correlación entre dos variables representa un valor mayor o igual a 0.70 podria existir multicolinealidad en el modelo lo que generaria que que sus predcicciones no sean precisas afectando al resultado del modelo.
La causalidad señala la relación entre dos o más variables económicas en la que se establece una relación de causa y efecto entre ellas. Es decir, cuando un cambio en una variable produce un cambio en otra variable, se puede decir que existe una relación causal entre ellas. Para que exista causalidad existen condiciones entre las cuales estan:
-Se debe observar una asociación empírica entre las variables. Es decir, debe haber una relación estadística entre las variables que se estén estudiando.
-La variable que se considera como la causa debe preceder en el tiempo a la variable que se considera como el efecto.
-Descartar que la asociación empírica entre las variables sea causada por otras variables que puedan estar afectando a ambas.
Analizar la significancia: Si los coeficientes son significativos estadísticamente y tienen el signo esperado, esto sugiere que hay una relación causal entre las variables.
Utilizando la prueba de Granger se puede analizar y evaluar si en el modelo existe causalidad.
Comando
#GrangerIncome <-causality(modelo1, cause = 'Variable')
Lo que nos demuestra esta prueba es que si el p-values es < 0.05 existe causalidad.Asi mismo, de no ser asi la hipotesis nula es rechazada.
Es un criterio de selección de modelos utilizado en econometría para comparar diferentes modelos y determinar cuál de ellos es el mejor. El AIC se basa en el principio de que un buen modelo debe ajustarse bien a los datos, pero también debe ser simple y no contener demasiados parámetros.En general, el AIC se utiliza para seleccionar el modelo más adecuado entre un conjunto de modelos posibles.
Comando
#AIC<-summary(modelo1)$logLik
#AIC<-summary(modelo2)$logLik
En la selección de modelos utilizando el AIC, el modelo con el valor más bajo de AIC se considera el mejor modelo.