El conjunto de datos extraídos de manera simulada con inteligencia artificial generativa,representa la evaluación de rendimiento académico de estudiantes de una Institución educativa, considerando factores tales como académicos, conductuales, socioeconómicos y psicológicos que influyen en el rendimienton escolar. Son alrededor de 6000 registros. Todas las variables del conjunto de datos son de tipo numérico, por lo que no es necesario algún tipo de preparación de variables o transformarlas; estas son las variables independientes. La naturaleza de este conjunto de datos es explicar el desempeño académico.
La variable dependiente es rendimiento_academico como un indicador que representa el desempeño académico global del estudiante en una escala: 70.00 a 100.00.
El documento markdown se puede encontrar en el servicio rpubs.com en el espacio del autor https://rpubs.com/rpizarrog/1428612.
Los datos para su descarga se encuentran en el servico github.com https://raw.githubusercontent.com/rpizarrog/Libro-Aprendizaje-Automatico.-Casos-de-Estudio-con-R-y-Python/refs/heads/main/datos/calidad%20en%20el%20servicio%20para%20Multiple%20Lasso%20y%20Ridge.csv
Las funciones se pueden encontrar en https://raw.githubusercontent.com/rpizarrog/Libro-Aprendizaje-Automatico.-Casos-de-Estudio-con-R-y-Python/refs/heads/main/R%20MarkDown/funciones/funciones%20para%20regresiOn%20lineal%20mUltiple_Lassso_y_Ridge.R
Implementar, evaluar un modelo de regresión lineal múltiple así como compararlo con los modelos generalizados y regulados como Lasso y Ridge que permitan predecir calidad en el servico de una organización.
Los datos deberán estar particionados en 70% para datos de entrenamiento y 30% para datos de validación
El modelo será óptimo si satisface los postulados de la regresión y si el valor de r square adjustado está por encima del 85%.
# install.packages("readr")
# install.packages("tidyverse")
# install.packages("psych")
# install.packages("dplyr")
# install.packages("ggplot2")
# install.packages("caret")
# install.packages("broom")
# install.packages("lmtest")
# install.packages("car")
# install.packages("stats")
# install.packages("flextable")
# install.packages("officer")
# install.packages("patchwork")
# install.packages("performance")
# install.packages("see")
# install.packages("car")
# install.packages("nortest")
# install.packages("lmtest")
library(readr) # cargar datos datos
library(tidyverse) # Para manipular
library (psych) # Para descriobir datos
library(dplyr) # Manipulación de datos
library(ggplot2) # gráficos
library(caret) # partición de datos
library(broom) # tidy modelos
library(lmtest) # Durbin-Watson
library(car) # VIF y diagnóstico, entre otras
library(stats) # lm, shapiro.test
library(patchwork) # Graficos organizados en columnas renglones
# Tablas compatibles con Word
library(flextable)
library(officer)
library(performance) # Para evaluar postulados de modelos
library(see) # Para evaluar postulados de modelos dependencia de performance
library(car) # Para verificar postulados de los modelos
library(nortest) # Para pruebas de normalidad Anderson-Darling
library(lmtest) # Para pruebas de homocedasticidad Breusch–Pagan y prueba de White y otras pruebas
library(glmnet) # Para modelos Lasso y Ridge
Se cargan funciones preparadas para el caso que se encuentra en la dirección URL del portal de github.com.
source("../funciones/funciones para regresiOn lineal mUltiple_POLINOMIAL Lassso_y_Ridge.R") # Local
#url <- "https://raw.githubusercontent.com/rpizarrog/Libro-Aprendizaje-Automatico.-Casos-de-Estudio-con-R-y-Python/refs/heads/main/R%20MarkDown/funciones/funciones%20para%20regresiOn%20lineal%20mUltiple_Lassso_y_Ridge.R"
#source(url) # URL Internet
datos <- f_cargar_datos("../datos/datos educacion para regresiones multiple polinomiales rendimiento_academico.csv") # Cargar datos Localmente
# url <- "https://raw.githubusercontent.com/rpizarrog/Libro-Aprendizaje-Automatico.-Casos-de-Estudio-con-R-y-Python/refs/heads/main/datos/calidad%20en%20el%20servicio%20para%20Multiple%20Lasso%20y%20Ridge.csv"
# datos <- f_cargar_datos(url) # Cargar datos URL
Con la función f_visualizar_head_tail_reducido_word(), se presentan los primeros y últimos registros, además de las primeras 4 y últimas 4 columnas del conjunto de datos.
f_visualizar_head_tail_reducido_word(datos)
horas_estudio | tiempo_lectura | horas_sueno | uso_redes | ... | nivel_socioeconomico | apoyo_familiar | estres | rendimiento_academico |
|---|---|---|---|---|---|---|---|---|
9 | 8 | 8 | 7 | ... | 4 | 7 | 5 | 89.06 |
1 | 3 | 6 | 5 | ... | 3 | 9 | 1 | 77.57 |
6 | 6 | 8 | 1 | ... | 5 | 10 | 2 | 78.57 |
4 | 2 | 7 | 6 | ... | 2 | 1 | 3 | 82.1 |
5 | 4 | 5 | 2 | ... | 1 | 6 | 4 | 76.1 |
10 | 10 | 8 | 5 | ... | 1 | 2 | 2 | 74.52 |
... | ... | ... | ... | ... | ... | ... | ... | ... |
10 | 10 | 9 | 5 | ... | 2 | 9 | 6 | 88.59 |
9 | 7 | 5 | 2 | ... | 1 | 3 | 3 | 76.33 |
7 | 7 | 5 | 5 | ... | 2 | 4 | 2 | 91.02 |
5 | 5 | 7 | 7 | ... | 2 | 8 | 5 | 87.33 |
7 | 7 | 6 | 5 | ... | 1 | 3 | 8 | 83.64 |
4 | 5 | 4 | 1 | ... | 3 | 6 | 3 | 81.75 |
Con la función f_describir_datos() se muestran los estadísticos de las variables numéricas.
f_describir_datos(datos)
## $describe
## vars n mean sd median trimmed mad min max range
## horas_estudio 1 2000 5.55 2.89 5.5 5.57 3.71 1 10 9
## tiempo_lectura 2 2000 5.56 2.93 6.0 5.58 4.45 1 10 9
## horas_sueno 3 2000 6.40 1.73 6.0 6.38 1.48 4 9 5
## uso_redes 4 2000 4.46 2.29 4.0 4.45 2.97 1 8 7
## motivacion 5 2000 5.45 2.87 5.0 5.44 4.45 1 10 9
## asistencia 6 2000 80.08 11.79 80.0 80.09 14.83 60 100 40
## nivel_socioeconomico 7 2000 2.97 1.43 3.0 2.96 1.48 1 5 4
## apoyo_familiar 8 2000 5.49 2.89 5.0 5.49 4.45 1 10 9
## estres 9 2000 5.63 2.84 6.0 5.64 2.97 1 10 9
## rendimiento_academico 10 2000 83.53 5.55 83.0 83.33 6.02 70 100 30
## skew kurtosis se
## horas_estudio -0.01 -1.23 0.06
## tiempo_lectura -0.02 -1.24 0.07
## horas_sueno 0.09 -1.29 0.04
## uso_redes 0.03 -1.23 0.05
## motivacion 0.01 -1.24 0.06
## asistencia 0.00 -1.21 0.26
## nivel_socioeconomico 0.03 -1.33 0.03
## apoyo_familiar 0.01 -1.25 0.06
## estres -0.05 -1.21 0.06
## rendimiento_academico 0.28 -0.57 0.12
##
## $structure
## [1] "'data.frame':\t2000 obs. of 10 variables:\n $ horas_estudio : num 9 1 6 4 5 10 2 8 3 1 ...\n $ tiempo_lectura : num 8 3 6 2 4 10 2 9 3 1 ...\n $ horas_sueno : num 8 6 8 7 5 8 8 5 4 7 ...\n $ uso_redes : num 7 5 1 6 2 5 2 4 3 4 ...\n $ motivacion : num 7 3 1 7 2 3 8 2 9 7 ...\n $ asistencia : num 67 95 95 85 82 62 86 65 62 84 ...\n $ nivel_socioeconomico : num 4 3 5 2 1 1 1 1 2 4 ...\n $ apoyo_familiar : num 7 9 10 1 6 2 6 1 9 5 ...\n $ estres : num 5 1 2 3 4 2 4 8 6 2 ...\n $ rendimiento_academico: num 89.1 77.6 78.6 82.1 76.1 ..."
Se particionan los datos 70% para datos de entrenamiento y 30% para datos de validación llamando a la función f_particonar_datos(); luego se presentan en las TABLAS los primeros y últimos registros de ambas particiones
particion <- f_particionar_datos(datos)
datos_entrenamiento <- particion$datos_entrenamiento
datos_validacion <- particion$datos_validacion
f_visualizar_head_tail_reducido_word(datos_entrenamiento)
horas_estudio | tiempo_lectura | horas_sueno | uso_redes | ... | nivel_socioeconomico | apoyo_familiar | estres | rendimiento_academico |
|---|---|---|---|---|---|---|---|---|
1 | 1 | 8 | 5 | ... | 3 | 1 | 4 | 76.65 |
2 | 1 | 9 | 1 | ... | 3 | 7 | 6 | 78.81 |
4 | 5 | 4 | 4 | ... | 4 | 9 | 3 | 88.49 |
1 | 1 | 7 | 4 | ... | 4 | 1 | 3 | 78.25 |
3 | 5 | 7 | 7 | ... | 1 | 3 | 9 | 87.5 |
4 | 3 | 6 | 6 | ... | 4 | 9 | 5 | 87.39 |
... | ... | ... | ... | ... | ... | ... | ... | ... |
4 | 5 | 6 | 6 | ... | 3 | 5 | 2 | 77.17 |
9 | 10 | 6 | 4 | ... | 5 | 6 | 8 | 79.34 |
6 | 6 | 7 | 1 | ... | 3 | 10 | 6 | 90.87 |
8 | 7 | 6 | 7 | ... | 5 | 8 | 2 | 89.23 |
8 | 9 | 4 | 2 | ... | 3 | 1 | 7 | 90.64 |
4 | 7 | 7 | 6 | ... | 3 | 5 | 4 | 86.32 |
f_visualizar_head_tail_reducido_word(datos_validacion)
horas_estudio | tiempo_lectura | horas_sueno | uso_redes | ... | nivel_socioeconomico | apoyo_familiar | estres | rendimiento_academico |
|---|---|---|---|---|---|---|---|---|
9 | 8 | 8 | 7 | ... | 4 | 7 | 5 | 89.06 |
6 | 6 | 8 | 1 | ... | 5 | 10 | 2 | 78.57 |
2 | 2 | 7 | 5 | ... | 2 | 3 | 1 | 74.06 |
5 | 5 | 4 | 8 | ... | 2 | 10 | 8 | 93.19 |
8 | 10 | 8 | 2 | ... | 1 | 10 | 6 | 80.92 |
5 | 4 | 4 | 5 | ... | 4 | 8 | 3 | 77.69 |
... | ... | ... | ... | ... | ... | ... | ... | ... |
8 | 8 | 9 | 7 | ... | 4 | 7 | 2 | 79.81 |
5 | 6 | 6 | 7 | ... | 2 | 5 | 9 | 83.71 |
6 | 6 | 6 | 5 | ... | 5 | 9 | 5 | 86.21 |
5 | 5 | 4 | 3 | ... | 2 | 1 | 10 | 90.67 |
6 | 8 | 7 | 3 | ... | 5 | 2 | 2 | 82.52 |
4 | 5 | 4 | 1 | ... | 3 | 6 | 3 | 81.75 |
Al construir el modelo de regresión múltiple, se observa que los coeficientes que influyen en las las variables tiempo_respuesta, satisfaccion_cliente, numero_quejas, capacitacion_empleado, experiencia_empleado, son estadísticamente significativas a un 99.9% de confianza; luego la variable tiempo_respuesta_2 es significativa estadísticamente a un 90% y las variables satisfaccion_2, indice_servicio, eficiencia_operativa, clima y dia_semana son coeficientes con poco significado estadístico, por lo que hay que poner atención en estas variables y en la manera en que se construye el modelo.
Los valores r square y r square ajustado están por encima del 0.85 que significa que las variable dependiente explican aproximadamente el 85% la variabilidad de la calidad del servicio.
modelo_RLM <- f_construir_modelo_RLM(datos_entrenamiento, "rendimiento_academico")
##
## ============================
## Modelo de Regresión Lineal Múltiple
## ============================
## Variable dependiente: rendimiento_academico
## Número de observaciones: 1400
## Número de variables independientes: 9
##
## Call:
## lm(formula = formula_modelo, data = datos_modelo)
##
## Residuals:
## Min 1Q Median 3Q Max
## -6.2615 -1.0645 0.3306 1.2845 4.0998
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 60.596423 0.453895 133.503 < 2e-16 ***
## horas_estudio 0.360261 0.052651 6.843 1.16e-11 ***
## tiempo_lectura 0.208372 0.051895 4.015 6.26e-05 ***
## horas_sueno -0.093560 0.028422 -3.292 0.00102 **
## uso_redes 0.587017 0.021360 27.483 < 2e-16 ***
## motivacion 1.550531 0.017244 89.915 < 2e-16 ***
## asistencia 0.035873 0.004203 8.534 < 2e-16 ***
## nivel_socioeconomico 0.526190 0.034918 15.069 < 2e-16 ***
## apoyo_familiar 0.391211 0.017071 22.916 < 2e-16 ***
## estres 0.482829 0.017537 27.532 < 2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 1.845 on 1390 degrees of freedom
## Multiple R-squared: 0.8913, Adjusted R-squared: 0.8906
## F-statistic: 1266 on 9 and 1390 DF, p-value: < 2.2e-16
Ejecutando la función f_multicolinealidad() se verifica que las variables que participan en el modelo, no tengan colinealidad o no estén correlacionadas. Los resultados se observan en modo consola:
resultado_vif <- f_multicolinealidad(modelo_RLM)
##
## ============================
## Diagnóstico de Multicolinealidad (VIF)
## ============================
## Variable VIF Interpretacion
## horas_estudio horas_estudio 9.56 Moderada (precaución)
## tiempo_lectura tiempo_lectura 9.54 Moderada (precaución)
## horas_sueno horas_sueno 1.00 Baja (aceptable)
## uso_redes uso_redes 1.01 Baja (aceptable)
## motivacion motivacion 1.00 Baja (aceptable)
## asistencia asistencia 1.01 Baja (aceptable)
## nivel_socioeconomico nivel_socioeconomico 1.01 Baja (aceptable)
## apoyo_familiar apoyo_familiar 1.00 Baja (aceptable)
## estres estres 1.01 Baja (aceptable)
Se identifican variables como tiempo_respuesta, satisfaccion_cliente, tiempo_respuesta_2 como problemas serio; luego la variable derivada llamada eficiencia_operativa también indica problema serio de colinealidad; también la variable denomiada satisfaccion_2 como problema moderado que es de llamar la atención, Se concluyen que estas variables están correlacionadas.
Ejecutando la función f_linealidad(), se valida el postulado de linealidad
f_linealidad_grid(modelo_RLM)
##
## ============================
## Diagnóstico de Linealidad (Grid)
## ============================
## - Los residuos deben verse aleatorios.
## - La línea roja (loess) debe ser aproximadamente horizontal.
## - Patrones curvos indican no linealidad.
La prueba de Ramsey RESET evalúa si faltan términos no lineales en el modelo. CITA Wooldrige o lo que es lo mismo si no hay evidencia de curvatura sugiere que no existe linealidad entre los residuales y las variables independientes.
f_linealidad_test(modelo_RLM)
##
## ============================
## Test de Linealidad (Ramsey RESET)
## ============================
##
## RESET test
##
## data: modelo
## RESET = 49.506, df1 = 2, df2 = 1388, p-value < 2.2e-16
##
##
## Interpretación:
## ❌ Se rechaza H0 → Existe evidencia de no linealidad
##
## RESET test
##
## data: modelo
## RESET = 49.506, df1 = 2, df2 = 1388, p-value < 2.2e-16
Se valida el postulado de homocedasticidad llamando la función f_homocedasticidad(); esta función encapsula las pruebas de Breush-Pegan y White, el resultado indica que los residuales si gozan de la condición de homocedasticidad.
resultado_homo <- f_homocedasticidad(modelo_RLM)
##
## ============================
## Diagnóstico de Homocedasticidad
## ============================
##
## Breusch–Pagan:
##
## studentized Breusch-Pagan test
##
## data: modelo
## BP = 12.243, df = 9, p-value = 0.2
##
##
## White Test (manual):
## Estadístico: 9.6865
## p-value: 0.0079
##
## Interpretación:
## ✔ BP: No hay heterocedasticidad
## ❌ White: Existe heterocedasticidad
Se valida el postulado de normalidad de los residuos del modelo de regresión mediante al ejecución de la función f_normalidad preparada para esta tarea. La densidad de los residuos se observa de manera normal y con la gráfico qq-plot los residuos se alinean adecuadamente; los valores de p-value son mayores a 0.05 por lo que el postulado de normalidad de los residuos es satisfactorio para este modelo con las pruebas de Kolmogorov-Smirnov no así la prueba de Shapiro-Wilk y Anderson-Darling.
f_normalidad(modelo_RLM)
##
## ============================
## Diagnóstico de Normalidad
## ============================
## Prueba p_value Interpretacion
## 1 Shapiro-Wilk 0 No normalidad
## 2 Anderson-Darling 0 No normalidad
## 3 Kolmogorov-Smirnov 0 No normalidad
Ahora para verificar el postulado de independencia de residuos, se ejecuta la función f_independencia() que devuelve el gráfico sen donde los residuos se homogeneizan a la linea roja con valor cero. En los subtítulo de la imagen, el valor de Durbin-Watson alrededor de dos y el p-value por enciman de 0.05. Se concluye que si hay independencia de residuos en el modelo entrenado de regresión múltiple con estos datos.
tabla_independencia <- f_independencia(modelo_RLM, "Modelo RLM. rendimiento_academico")
##
## ============================
## Diagnóstico de Independencia
## ============================
## Prueba Estadistico p_value Interpretacion Decision
## 1 Durbin-Watson 1.9634 0.2472 Sin autocorrelación ✔ No se rechaza H0
ecuacion <- f_ecuacion_modelo(modelo_RLM)
##
## ============================
## Ecuación del Modelo de Regresión
## ============================
##
## ŷ = 60.5964 + 0.3603*horas_estudio + 0.2084*tiempo_lectura - 0.0936*horas_sueno + 0.587*uso_redes + 1.5505*motivacion + 0.0359*asistencia + 0.5262*nivel_socioeconomico + 0.3912*apoyo_familiar + 0.4828*estres
ecuacion
## [1] "ŷ = 60.5964 + 0.3603*horas_estudio + 0.2084*tiempo_lectura - 0.0936*horas_sueno + 0.587*uso_redes + 1.5505*motivacion + 0.0359*asistencia + 0.5262*nivel_socioeconomico + 0.3912*apoyo_familiar + 0.4828*estres"
Para evaluar el modelo de regresión múltiple, se ejecuta la función f_evaluacion() que devuelve los estadísticos R_square, R_square_ajustado, MSE, RMSE y MAE
El modelo de regresión lineal múltiple es óptimo en términos de calidad predictiva con un valor de r square=0.89 y r square ajustado=0.89; además con valores de RMSE y MAE alrededor de 4 y 3 unidades de margen de error en las predicciones.
f_evaluacion(list(modelo_RLM), list(datos_validacion), "rendimiento_academico", "Regresión Lineal Múltiple")
##
## ============================
## Evaluación de Modelos
## ============================
## Modelo R_square R_square_ajustado MSE RMSE MAE
## 1 Regresión Lineal Múltiple 0.8873 0.8856 3.3844 1.8397 1.4315
El modelo de regresión lineal múltiple tienen calidad predictiva sin embargo, presenta problemas en los postulados multicolinealidad y linealidad principalmente.
Las preguntas son ¿qué hacer para disminuir la no linealidad?, la respuesta sería construir modelo polinomial de segundo y tercer orden que permita comparar resultados co el modelo de regresión múltiple; luego la lotra pregunta sería ¿qué jacer para para disminuir colinealidad?, se puede aplicar modelo que controlan los valores de los coeficientes como Lasso y Ridge.
En este caso, se siguen dos estrategias y alternativas además del modelo original que servirán de comparación y muy ilustrativas:
1 Como primera estrategia será construir modelos polinomiales de segundo y tercer orden.
Antes de construir los modelos regresión lineal múltiple, Lasso y Ridge respectivamente, se recomienda estandarizar o escalar los datos
tal vez fórmulas o haber descrito que significa esto antes.
Se ejecuta la función f_estandarizar_escalar() que devuelve una lista con dos conjuntos de datos, datos estandarizados y datos escalados, a partir de ahí, se hacen nuevamente las particiones de los datos de entrenamiento y datos de validación pero con los datos ya estandarizados o escalados. Para este caso de estudio se toman los datos estandarizados (estandar Z), es decir datos alrededor de media igual a 0 y desviación estándar de 1.
datos_estandarizados_escalados <- f_estandarizar_escalar(datos)
##
## ============================
## Transformación de datos
## ============================
## Variables numéricas transformadas: 10
## Variables no numéricas preservadas: 0
## Decimales aplicados: 4
En la tabla , se observan los primeros y últimos registros de los datos de entrenamiento y de validación cuyo origen son los datos estandarizados.
datos_estandarizados_escalados <- f_estandarizar_escalar(datos)
##
## ============================
## Transformación de datos
## ============================
## Variables numéricas transformadas: 10
## Variables no numéricas preservadas: 0
## Decimales aplicados: 4
particion <- f_particionar_datos(datos_estandarizados_escalados$datos_estandarizados)
datos_entrenamiento_est <- particion$datos_entrenamiento
datos_validacion_est <- particion$datos_validacion
f_visualizar_head_tail_reducido_word(datos_entrenamiento_est)
horas_estudio | tiempo_lectura | horas_sueno | uso_redes | ... | nivel_socioeconomico | apoyo_familiar | estres | rendimiento_academico |
|---|---|---|---|---|---|---|---|---|
-1.5783 | -1.5605 | 0.9249 | 0.2365 | ... | 0.0237 | -1.5529 | -0.5747 | -1.2398 |
-1.2317 | -1.5605 | 1.503 | -1.5119 | ... | 0.0237 | 0.5206 | 0.13 | -0.8505 |
-0.5386 | -0.193 | -1.3874 | -0.2006 | ... | 0.721 | 1.2118 | -0.927 | 0.894 |
-1.5783 | -1.5605 | 0.3468 | -0.2006 | ... | 0.721 | -1.5529 | -0.927 | -0.9515 |
-0.8852 | -0.193 | 0.3468 | 1.1107 | ... | -1.3708 | -0.8617 | 1.1871 | 0.7156 |
-0.5386 | -0.8767 | -0.2312 | 0.6736 | ... | 0.721 | 1.2118 | -0.2223 | 0.6958 |
... | ... | ... | ... | ... | ... | ... | ... | ... |
-0.5386 | -0.193 | -0.2312 | 0.6736 | ... | 0.0237 | -0.1705 | -1.2794 | -1.1461 |
1.1943 | 1.5164 | -0.2312 | -0.2006 | ... | 1.4182 | 0.175 | 0.8347 | -0.755 |
0.1546 | 0.1489 | 0.3468 | -1.5119 | ... | 0.0237 | 1.5574 | 0.13 | 1.323 |
0.8477 | 0.4908 | -0.2312 | 1.1107 | ... | 1.4182 | 0.8662 | -1.2794 | 1.0274 |
0.8477 | 1.1745 | -1.3874 | -1.0748 | ... | 0.0237 | -1.5529 | 0.4824 | 1.2815 |
-0.5386 | 0.4908 | 0.3468 | 0.6736 | ... | 0.0237 | -0.1705 | -0.5747 | 0.5029 |
f_visualizar_head_tail_reducido_word(datos_validacion_est)
horas_estudio | tiempo_lectura | horas_sueno | uso_redes | ... | nivel_socioeconomico | apoyo_familiar | estres | rendimiento_academico |
|---|---|---|---|---|---|---|---|---|
1.1943 | 0.8326 | 0.9249 | 1.1107 | ... | 0.721 | 0.5206 | -0.2223 | 0.9967 |
0.1546 | 0.1489 | 0.9249 | -1.5119 | ... | 1.4182 | 1.5574 | -1.2794 | -0.8938 |
-1.2317 | -1.2186 | 0.3468 | 0.2365 | ... | -0.6736 | -0.8617 | -1.6317 | -1.7066 |
-0.192 | -0.193 | -1.3874 | 1.5478 | ... | -0.6736 | 1.5574 | 0.8347 | 1.7411 |
0.8477 | 1.5164 | 0.9249 | -1.0748 | ... | -1.3708 | 1.5574 | 0.13 | -0.4703 |
-0.192 | -0.5349 | -1.3874 | 0.2365 | ... | 0.721 | 0.8662 | -0.927 | -1.0524 |
... | ... | ... | ... | ... | ... | ... | ... | ... |
0.8477 | 0.8326 | 1.503 | 1.1107 | ... | 0.721 | 0.5206 | -1.2794 | -0.6703 |
-0.192 | 0.1489 | -0.2312 | 1.1107 | ... | -0.6736 | -0.1705 | 1.1871 | 0.0326 |
0.1546 | 0.1489 | -0.2312 | 0.2365 | ... | 1.4182 | 1.2118 | -0.2223 | 0.4831 |
-0.192 | -0.193 | -1.3874 | -0.6377 | ... | -0.6736 | -1.5529 | 1.5394 | 1.2869 |
0.1546 | 0.8326 | 0.3468 | -0.6377 | ... | 1.4182 | -1.2073 | -1.2794 | -0.1819 |
-0.5386 | -0.193 | -1.3874 | -1.5119 | ... | 0.0237 | 0.175 | -0.927 | -0.3207 |
Se ejecuta la función f_construir_modelo_RLM para construir un modelo de regresión múltiple pero con datos estandarizados.
modelo_RLM_estandarizado <- f_construir_modelo_RLM(datos_entrenamiento_est, "rendimiento_academico")
##
## ============================
## Modelo de Regresión Lineal Múltiple
## ============================
## Variable dependiente: rendimiento_academico
## Número de observaciones: 1400
## Número de variables independientes: 9
##
## Call:
## lm(formula = formula_modelo, data = datos_modelo)
##
## Residuals:
## Min 1Q Median 3Q Max
## -1.12852 -0.19184 0.05961 0.23149 0.73887
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -0.0001443 0.0088916 -0.016 0.98705
## horas_estudio 0.1873331 0.0273787 6.842 1.17e-11 ***
## tiempo_lectura 0.1098519 0.0273573 4.015 6.25e-05 ***
## horas_sueno -0.0291673 0.0088611 -3.292 0.00102 **
## uso_redes 0.2420368 0.0088070 27.482 < 2e-16 ***
## motivacion 0.8016122 0.0089153 89.914 < 2e-16 ***
## asistencia 0.0762048 0.0089293 8.534 < 2e-16 ***
## nivel_socioeconomico 0.1360062 0.0090256 15.069 < 2e-16 ***
## apoyo_familiar 0.2040171 0.0089028 22.916 < 2e-16 ***
## estres 0.2469644 0.0089701 27.532 < 2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.3325 on 1390 degrees of freedom
## Multiple R-squared: 0.8913, Adjusted R-squared: 0.8906
## F-statistic: 1266 on 9 and 1390 DF, p-value: < 2.2e-16
Aún con los datos estandarizados el modelo de regresión múltiple sigue presentando problemas de multicolinealidad por lo que el modelo carece de de validez predictiva. Por eso la necesidad de construir modelos Lasso y Ridge.
resultado_vif <- f_multicolinealidad(modelo_RLM_estandarizado)
##
## ============================
## Diagnóstico de Multicolinealidad (VIF)
## ============================
## Variable VIF Interpretacion
## horas_estudio horas_estudio 9.56 Moderada (precaución)
## tiempo_lectura tiempo_lectura 9.54 Moderada (precaución)
## horas_sueno horas_sueno 1.00 Baja (aceptable)
## uso_redes uso_redes 1.01 Baja (aceptable)
## motivacion motivacion 1.00 Baja (aceptable)
## asistencia asistencia 1.01 Baja (aceptable)
## nivel_socioeconomico nivel_socioeconomico 1.01 Baja (aceptable)
## apoyo_familiar apoyo_familiar 1.00 Baja (aceptable)
## estres estres 1.01 Baja (aceptable)
Se ejecuta la función para construir modelo Lasso y Ridge llamando la función f_construir_modelo_lasso. Se devuelve el modelo a través del cual se pueden acceder a los estadísticos importantes del modelo.
# Modelo Lasso
res_lasso <- f_construir_modelo_lasso(
datos_entrenamiento_est,
"rendimiento_academico"
)
##
## ============================
## Modelo LASSO (Regresión L1)
## ============================
## Variable dependiente: rendimiento_academico
## Observaciones: 1400
## Variables independientes: 9
## Lambda.min: 0.002244
## Lambda.1se: 0.022971
##
## Coeficientes (lambda.min):
## 10 x 1 sparse Matrix of class "dgCMatrix"
## s=0.002244332
## (Intercept) -0.0002136894
## horas_estudio 0.1898707212
## tiempo_lectura 0.1055054242
## horas_sueno -0.0269870037
## uso_redes 0.2397500441
## motivacion 0.7992157443
## asistencia 0.0740169102
## nivel_socioeconomico 0.1337797588
## apoyo_familiar 0.2016296365
## estres 0.2442388278
##
## Coeficientes (lambda.1se):
## 10 x 1 sparse Matrix of class "dgCMatrix"
## s=0.02297144
## (Intercept) -0.0002136894
## horas_estudio 0.1898707212
## tiempo_lectura 0.1055054242
## horas_sueno -0.0269870037
## uso_redes 0.2397500441
## motivacion 0.7992157443
## asistencia 0.0740169102
## nivel_socioeconomico 0.1337797588
## apoyo_familiar 0.2016296365
## estres 0.2442388278
modelo_lasso <- res_lasso$modelo
lambda_min <- res_lasso$lambda_min
lambda_1se <- res_lasso$lambda_1se
cv_lasso <- res_lasso$cv
# Modelo Ridge
res_ridge <- f_construir_modelo_ridge(
datos_entrenamiento_est,
"rendimiento_academico"
)
##
## ============================
## Modelo RIDGE (Regresión L2)
## ============================
## Variable dependiente: rendimiento_academico
## Observaciones: 1400
## Variables independientes: 9
## Lambda.min: 0.078803
## Lambda.1se: 0.114329
##
## Coeficientes (lambda.min):
## 10 x 1 sparse Matrix of class "dgCMatrix"
## s=0.07880281
## (Intercept) -0.0003683282
## horas_estudio 0.1656133115
## tiempo_lectura 0.1225732580
## horas_sueno -0.0278165975
## uso_redes 0.2226326972
## motivacion 0.7423520215
## asistencia 0.0700575226
## nivel_socioeconomico 0.1273108153
## apoyo_familiar 0.1875827350
## estres 0.2262178780
##
## Coeficientes (lambda.1se):
## 10 x 1 sparse Matrix of class "dgCMatrix"
## s=0.1143294
## (Intercept) -0.0003683282
## horas_estudio 0.1656133115
## tiempo_lectura 0.1225732580
## horas_sueno -0.0278165975
## uso_redes 0.2226326972
## motivacion 0.7423520215
## asistencia 0.0700575226
## nivel_socioeconomico 0.1273108153
## apoyo_familiar 0.1875827350
## estres 0.2262178780
modelo_ridge <- res_ridge$modelo
lambda_ridge <- res_ridge$lambda_min
Con la misma función llamada f_evaluacion() se presentan las evaluaciones de todos los modelos.
No existe mucha difrencia entre todos los modelos en cuanto a los estaísticos.
lambda_lasso <- res_lasso$lambda_min
lambda_ridge <- res_ridge$lambda_min
f_evaluacion(
modelos = list(modelo_RLM, modelo_RLM_estandarizado, modelo_lasso, modelo_ridge),
datos_validacion_list = list(
datos_validacion,
datos_validacion_est,
datos_validacion_est,
datos_validacion_est
),
variable_dependiente = "rendimiento_academico",
nombres = c("Múltiple", "Múltiple datos estandarizados", "Lasso estandarizado", "Ridge estandarizado"),
lambdas = c(NA, NA, lambda_lasso, lambda_ridge)
)
##
## ============================
## Evaluación de Modelos
## ============================
## Modelo R_square R_square_ajustado MSE RMSE MAE
## 1 Múltiple 0.8873 0.8856 3.3844 1.8397 1.4315
## 2 Múltiple datos estandarizados 0.8873 0.8856 0.1099 0.3316 0.2580
## 3 Lasso estandarizado 0.8873 0.8856 0.1100 0.3317 0.2582
## 4 Ridge estandarizado 0.8847 0.8830 0.1125 0.3354 0.2624
El modelo Lasso y Ridge no mejoran el coeficiente de determinación respecto a la regresión lineal múltiple, pero ofrece ventajas en términos de estabilidad del modelo y control de la multicolinealidad.
Ejecutando la función f_validar_postulados_modelos se resume la validez de los modelos observándose que los modelos Lasso y Ridge no se validan con los postulados solo el de normalidad dado que estos modelos buscan optimizar como tal la multicolinealidad presentada en los modelos de regresión múltiple. Ahora bien, el modelo con datos depurados reduce la multicolienealidad. La salida en modo consola:
f_validar_postulados_modelos(
modelos = list(modelo_RLM, modelo_RLM_estandarizado, modelo_lasso, modelo_ridge),
datos_list = list(datos_entrenamiento, datos_entrenamiento_est, datos_entrenamiento_est, datos_entrenamiento_est),
variable_dependiente = "rendimiento_academico",
nombres = c("Lineal", "Lineal datos estandarizados", "Lasso", "Ridge")
)
##
## ============================
## Validación de Postulados
## ============================
## Modelo VIF_Max Linealidad Homocedasticidad Normalidad
## 1 Lineal 9.56 No cumple Cumple No cumple
## 2 Lineal datos estandarizados 9.56 No cumple Cumple No cumple
## 3 Lasso NA NA NA No cumple
## 4 Ridge NA NA NA No cumple
## Independencia
## 1 Cumple
## 2 Cumple
## 3 NA
## 4 NA
Este caso de estudio cumple con le objetivo planteado. Se construyó un modelo de regresión lineal múltiple con datos relacionados con la calidad de servicio como variable dependiente.
Se construyó el modelo de regresión lineal múltiple con los datos originales y el modelo presenta problemas de multicolinealidad; para disminuir la multicolinealidad, se usaron dos estrategias:
Como primera estrategia para disminuir multicolinealidad, se construyó otro modelo de regresión múltiple pero con datos depurados combinando variables que evidenciaban alta correlación y/o colinealidad. Los resultados de ambos modelos el de regresión múltiple con datos originales y el de regresión múltiple con datos depurados cumplen con calidad predictiva alrededor del 89% en r square y r square ajustado; los estadísticos MSE, RMSE y MAE son muy similares., sin embargo el segundo satisface el postulado de no multicolienalidad.
Como segunda estrategia, se construyeron otros tres modelos con datos estandarizados: regresión múltiple, modelo Lasso y modelo Ridge; Los resultados de los modelos son similares en calidad predictiva sin embargo lo que ofrecen los modelos Lasso y Ridge es que hacen mas estables los coeficientes y con ello disminuyen la multicolinealidad que pudiera existir en los modelos de regresión múltiple.
Este caso de estudio sirve como evidencia para que los lectores puedan decidir las mejores estrategias con los datos y construir diversos modelos tratando de llegar a tener modelos con validez o que cumplan con los postulados de la regresión y con calidad predictiva, es decir que los estadísticos como r square y r square ajustado, MSE, RMSE y MAE sean satisfactorios.
Todos los modelos cumplen con la expectativa de tener un valor r square y r square ajustado por encima del 85% establecido como métrica inicial al principio del caso.