Diagnóstico de los Residuales
En el Modelo 1, los supuestos básicos de la regresión lineal se
cumplen.Para el supuesto de normalidad, utilizamos el gráfico QQ-plot
para comparar los cuantiles de nuestros datos con los de una
distribución teórica. En la gráfica, los puntos siguen aproximadamente
una línea recta, lo que indica una buena concordancia. Además, según la
prueba de Shapiro–Wilk, obtenemos un valor p de 0.1397, por lo que no
podemos rechazar la hipótesis nula de que los datos provienen de una
distribución normal.En cuanto al supuesto de varianza constante
(homocedasticidad), empleamos el gráfico de residuales versus valores
ajustados, donde observamos que los puntos se mantienen distribuidos
alrededor del cero, sin mostrar un patrón definido, lo que sugiere que
se cumple la condición de varianza constante. Adicionalmente, aplicamos
la prueba de Breusch–Pagan, que evalúa la constancia de la varianza de
los errores en un modelo lineal. El resultado obtenido, p-value =
0.5696, indica que no se puede rechazar la hipótesis nula de
homocedasticidad. Por último, para el supuesto de independencia de los
errores, analizamos el gráfico de residuales frente al tiempo o al
orden, donde los puntos se encuentran dispersos alrededor de cero sin
mostrar patrones evidentes. También aplicamos la prueba de
Durbin–Watson, que evalúa la autocorrelación de primer orden en los
errores de un modelo de regresión. Dado que el resultado fue p-value =
0.5892, no se puede rechazar la hipótesis nula de independencia, lo que
confirma que no existe autocorrelación. En este modelo se cumplen los
tres supuestos del modelo de regresión (normalidad, varianza constante e
independencia), por lo que los resultados pueden considerarse
estadísticamente confiables. Al cumplirse la normalidad, las pruebas t y
F, así como los intervalos de confianza, están correctamente calibrados,
lo que garantiza una inferencia válida. La homocedasticidad asegura que
los errores estándar sean precisos y que las estimaciones sean
eficientes, mientras que la independencia indica que no existe
correlación entre los errores. En conjunto, esto permite confiar en los
coeficientes y en las conclusiones obtenidas, ya que se cumplen las
condiciones teóricas necesarias para aplicar correctamente el método de
mínimos cuadrados ordinarios (MCO).
En el Modelo 2, los supuestos básicos de la regresión lineal no se
cumplen. Para el supuesto de normalidad, en el gráfico QQ-plot, los
puntos se desvían notablemente de la línea recta, lo que indica una
falta de concordancia y sugiere que los errores no siguen una
distribución normal. Además, según la prueba de Shapiro–Wilk, obtenemos
un p-value de 2.778e-14, por lo que se rechaza la hipótesis nula de
normalidad. Esto confirma que los residuos no se distribuyen
normalmente. En cuanto al supuesto de varianza constante
(homocedasticidad), observamos en el gráfico de residuales versus
valores ajustados que los puntos presentan una dispersión irregular ya
que estan concentrados en el centro, mostrando heterocedasticidad.
Adicionalmente, aplicamos la prueba de Breusch–Pagan, que evalúa la
constancia de la varianza de los errores en un modelo lineal. El
resultado obtenido, p-value = 3.354e-07, indica que se rechaza la
hipótesis nula de homocedasticidad, evidenciando la presencia de
varianza no constante. Por último, para el supuesto de independencia de
los errores, analizamos el gráfico de residuales frente al tiempo o al
orden, donde los puntos muestran un patrón definido y no se encuentran
dispersos aleatoriamente alrededor de cero. También aplicamos la prueba
de Durbin–Watson, que evalúa la autocorrelación de primer orden en los
errores de un modelo de regresión. Dado que el resultado fue p-value
< 2.2e-16, se rechaza la hipótesis nula de independencia, lo que
confirma la presencia de autocorrelación en los errores. En este modelo
los tres supuestos se violan, lo que reduce notablemente la confianza en
los resultados. La falta de normalidad afecta la validez de las pruebas
e intervalos, especialmente en muestras pequeñas, generando p-values e
intervalos de confianza mal calibrados. La heterocedasticidad provoca
errores estándar incorrectos, haciendo que las pruebas de significancia
sean poco confiables y las estimaciones menos eficientes. Además, la
autocorrelación revela dependencia entre errores, lo que puede sesgar
los resultados e indicar omisión de variables relevantes o una
estructura temporal no modelada. En este caso, las conclusiones del
modelo no son del todo fiables y sería necesario aplicar métodos
correctivos o modelos alternativos para obtener resultados válidos.