Contexto de los datos

El conjunto de datos extraídos de manera simulada con inteligencia artificial generativa,representa la evaluación de rendimiento académico de estudiantes de una Institución educativa, considerando factores tales como académicos, conductuales, socioeconómicos y psicológicos que influyen en el rendimienton escolar. Son alrededor de 6000 registros. Todas las variables del conjunto de datos son de tipo numérico, por lo que no es necesario algún tipo de preparación de variables o transformarlas; estas son las variables independientes. La naturaleza de este conjunto de datos es explicar el desempeño académico.

La variable dependiente es rendimiento_academico como un indicador que representa el desempeño académico global del estudiante en una escala: 70.00 a 100.00.

El documento markdown se puede encontrar en el servicio rpubs.com en el espacio del autor https://rpubs.com/rpizarrog/1428612.

Los datos para su descarga se encuentran en el servico github.com https://raw.githubusercontent.com/rpizarrog/Libro-Aprendizaje-Automatico.-Casos-de-Estudio-con-R-y-Python/refs/heads/main/datos/calidad%20en%20el%20servicio%20para%20Multiple%20Lasso%20y%20Ridge.csv

Las funciones se pueden encontrar en https://raw.githubusercontent.com/rpizarrog/Libro-Aprendizaje-Automatico.-Casos-de-Estudio-con-R-y-Python/refs/heads/main/R%20MarkDown/funciones/funciones%20para%20regresiOn%20lineal%20mUltiple_Lassso_y_Ridge.R

Objetivo

Implementar, evaluar un modelo de regresión lineal múltiple así como compararlo con los modelos generalizados y regulados como Lasso y Ridge que permitan predecir calidad en el servico de una organización.

Los datos deberán estar particionados en 70% para datos de entrenamiento y 30% para datos de validación

El modelo será óptimo si satisface los postulados de la regresión y si el valor de r square adjustado está por encima del 85%.

Descripción

Cargar librerías

# install.packages("readr")
# install.packages("tidyverse")
# install.packages("psych")
# install.packages("dplyr")
# install.packages("ggplot2")
# install.packages("caret")
# install.packages("broom")
# install.packages("lmtest")
# install.packages("car")
# install.packages("stats")
# install.packages("flextable")
# install.packages("officer")
# install.packages("patchwork")
# install.packages("performance")
# install.packages("see")
# install.packages("car")
# install.packages("nortest")
# install.packages("lmtest")

library(readr)        # cargar datos datos
library(tidyverse)    # Para manipular
library (psych)       # Para descriobir datos
library(dplyr)        # Manipulación de datos
library(ggplot2)      # gráficos
library(caret)        # partición de datos
library(broom)        # tidy modelos
library(lmtest)       # Durbin-Watson
library(car)          # VIF y diagnóstico, entre otras
library(stats)        # lm, shapiro.test
library(patchwork)    # Graficos organizados en columnas renglones
# Tablas compatibles con Word
library(flextable)
library(officer)

library(performance) # Para evaluar postulados de modelos
library(see)         # Para evaluar postulados de modelos dependencia de performance
library(car)         # Para verificar postulados de los modelos

library(nortest)     # Para pruebas de normalidad Anderson-Darling
library(lmtest)      # Para pruebas de homocedasticidad Breusch–Pagan y prueba de White y otras pruebas
library(glmnet)      # Para modelos Lasso y Ridge

Cargar funciones

Se cargan funciones preparadas para el caso que se encuentra en la dirección URL del portal de github.com.

source("../funciones/funciones para regresiOn lineal mUltiple_POLINOMIAL Lassso_y_Ridge.R") # Local
#url <- "https://raw.githubusercontent.com/rpizarrog/Libro-Aprendizaje-Automatico.-Casos-de-Estudio-con-R-y-Python/refs/heads/main/R%20MarkDown/funciones/funciones%20para%20regresiOn%20lineal%20mUltiple_Lassso_y_Ridge.R"
#source(url) # URL Internet

Cargar datos

datos <- f_cargar_datos("../datos/datos educacion para regresiones multiple polinomiales rendimiento_academico.csv") # Cargar datos Localmente
# url <- "https://raw.githubusercontent.com/rpizarrog/Libro-Aprendizaje-Automatico.-Casos-de-Estudio-con-R-y-Python/refs/heads/main/datos/calidad%20en%20el%20servicio%20para%20Multiple%20Lasso%20y%20Ridge.csv"
# datos <- f_cargar_datos(url) # Cargar datos URL

Visualizar datos

Con la función f_visualizar_head_tail_reducido_word(), se presentan los primeros y últimos registros, además de las primeras 4 y últimas 4 columnas del conjunto de datos.

f_visualizar_head_tail_reducido_word(datos)

horas_estudio

tiempo_lectura

horas_sueno

uso_redes

...

nivel_socioeconomico

apoyo_familiar

estres

rendimiento_academico

9

8

8

7

...

4

7

5

89.06

1

3

6

5

...

3

9

1

77.57

6

6

8

1

...

5

10

2

78.57

4

2

7

6

...

2

1

3

82.1

5

4

5

2

...

1

6

4

76.1

10

10

8

5

...

1

2

2

74.52

...

...

...

...

...

...

...

...

...

10

10

9

5

...

2

9

6

88.59

9

7

5

2

...

1

3

3

76.33

7

7

5

5

...

2

4

2

91.02

5

5

7

7

...

2

8

5

87.33

7

7

6

5

...

1

3

8

83.64

4

5

4

1

...

3

6

3

81.75

Estadísticos descriptivos

Con la función f_describir_datos() se muestran los estadísticos de las variables numéricas.

f_describir_datos(datos)
## $describe
##                       vars    n  mean    sd median trimmed   mad min max range
## horas_estudio            1 2000  5.55  2.89    5.5    5.57  3.71   1  10     9
## tiempo_lectura           2 2000  5.56  2.93    6.0    5.58  4.45   1  10     9
## horas_sueno              3 2000  6.40  1.73    6.0    6.38  1.48   4   9     5
## uso_redes                4 2000  4.46  2.29    4.0    4.45  2.97   1   8     7
## motivacion               5 2000  5.45  2.87    5.0    5.44  4.45   1  10     9
## asistencia               6 2000 80.08 11.79   80.0   80.09 14.83  60 100    40
## nivel_socioeconomico     7 2000  2.97  1.43    3.0    2.96  1.48   1   5     4
## apoyo_familiar           8 2000  5.49  2.89    5.0    5.49  4.45   1  10     9
## estres                   9 2000  5.63  2.84    6.0    5.64  2.97   1  10     9
## rendimiento_academico   10 2000 83.53  5.55   83.0   83.33  6.02  70 100    30
##                        skew kurtosis   se
## horas_estudio         -0.01    -1.23 0.06
## tiempo_lectura        -0.02    -1.24 0.07
## horas_sueno            0.09    -1.29 0.04
## uso_redes              0.03    -1.23 0.05
## motivacion             0.01    -1.24 0.06
## asistencia             0.00    -1.21 0.26
## nivel_socioeconomico   0.03    -1.33 0.03
## apoyo_familiar         0.01    -1.25 0.06
## estres                -0.05    -1.21 0.06
## rendimiento_academico  0.28    -0.57 0.12
## 
## $structure
## [1] "'data.frame':\t2000 obs. of  10 variables:\n $ horas_estudio        : num  9 1 6 4 5 10 2 8 3 1 ...\n $ tiempo_lectura       : num  8 3 6 2 4 10 2 9 3 1 ...\n $ horas_sueno          : num  8 6 8 7 5 8 8 5 4 7 ...\n $ uso_redes            : num  7 5 1 6 2 5 2 4 3 4 ...\n $ motivacion           : num  7 3 1 7 2 3 8 2 9 7 ...\n $ asistencia           : num  67 95 95 85 82 62 86 65 62 84 ...\n $ nivel_socioeconomico : num  4 3 5 2 1 1 1 1 2 4 ...\n $ apoyo_familiar       : num  7 9 10 1 6 2 6 1 9 5 ...\n $ estres               : num  5 1 2 3 4 2 4 8 6 2 ...\n $ rendimiento_academico: num  89.1 77.6 78.6 82.1 76.1 ..."

Desarrollo

Datos de entrenamiento y datos de validación

Se particionan los datos 70% para datos de entrenamiento y 30% para datos de validación llamando a la función f_particonar_datos(); luego se presentan en las TABLAS los primeros y últimos registros de ambas particiones

particion <- f_particionar_datos(datos)

datos_entrenamiento <- particion$datos_entrenamiento
datos_validacion <- particion$datos_validacion

f_visualizar_head_tail_reducido_word(datos_entrenamiento)

horas_estudio

tiempo_lectura

horas_sueno

uso_redes

...

nivel_socioeconomico

apoyo_familiar

estres

rendimiento_academico

1

1

8

5

...

3

1

4

76.65

2

1

9

1

...

3

7

6

78.81

4

5

4

4

...

4

9

3

88.49

1

1

7

4

...

4

1

3

78.25

3

5

7

7

...

1

3

9

87.5

4

3

6

6

...

4

9

5

87.39

...

...

...

...

...

...

...

...

...

4

5

6

6

...

3

5

2

77.17

9

10

6

4

...

5

6

8

79.34

6

6

7

1

...

3

10

6

90.87

8

7

6

7

...

5

8

2

89.23

8

9

4

2

...

3

1

7

90.64

4

7

7

6

...

3

5

4

86.32

f_visualizar_head_tail_reducido_word(datos_validacion)

horas_estudio

tiempo_lectura

horas_sueno

uso_redes

...

nivel_socioeconomico

apoyo_familiar

estres

rendimiento_academico

9

8

8

7

...

4

7

5

89.06

6

6

8

1

...

5

10

2

78.57

2

2

7

5

...

2

3

1

74.06

5

5

4

8

...

2

10

8

93.19

8

10

8

2

...

1

10

6

80.92

5

4

4

5

...

4

8

3

77.69

...

...

...

...

...

...

...

...

...

8

8

9

7

...

4

7

2

79.81

5

6

6

7

...

2

5

9

83.71

6

6

6

5

...

5

9

5

86.21

5

5

4

3

...

2

1

10

90.67

6

8

7

3

...

5

2

2

82.52

4

5

4

1

...

3

6

3

81.75

Modelo de regresión lineal múltiple

Al construir el modelo de regresión múltiple, se observa que los coeficientes que influyen en las las variables tiempo_respuesta, satisfaccion_cliente, numero_quejas, capacitacion_empleado, experiencia_empleado, son estadísticamente significativas a un 99.9% de confianza; luego la variable tiempo_respuesta_2 es significativa estadísticamente a un 90% y las variables satisfaccion_2, indice_servicio, eficiencia_operativa, clima y dia_semana son coeficientes con poco significado estadístico, por lo que hay que poner atención en estas variables y en la manera en que se construye el modelo.

Los valores r square y r square ajustado están por encima del 0.85 que significa que las variable dependiente explican aproximadamente el 85% la variabilidad de la calidad del servicio.

modelo_RLM <- f_construir_modelo_RLM(datos_entrenamiento, "rendimiento_academico")
## 
## ============================
## Modelo de Regresión Lineal Múltiple
## ============================
## Variable dependiente: rendimiento_academico 
## Número de observaciones: 1400 
## Número de variables independientes: 9 
## 
## Call:
## lm(formula = formula_modelo, data = datos_modelo)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -6.2615 -1.0645  0.3306  1.2845  4.0998 
## 
## Coefficients:
##                       Estimate Std. Error t value Pr(>|t|)    
## (Intercept)          60.596423   0.453895 133.503  < 2e-16 ***
## horas_estudio         0.360261   0.052651   6.843 1.16e-11 ***
## tiempo_lectura        0.208372   0.051895   4.015 6.26e-05 ***
## horas_sueno          -0.093560   0.028422  -3.292  0.00102 ** 
## uso_redes             0.587017   0.021360  27.483  < 2e-16 ***
## motivacion            1.550531   0.017244  89.915  < 2e-16 ***
## asistencia            0.035873   0.004203   8.534  < 2e-16 ***
## nivel_socioeconomico  0.526190   0.034918  15.069  < 2e-16 ***
## apoyo_familiar        0.391211   0.017071  22.916  < 2e-16 ***
## estres                0.482829   0.017537  27.532  < 2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 1.845 on 1390 degrees of freedom
## Multiple R-squared:  0.8913, Adjusted R-squared:  0.8906 
## F-statistic:  1266 on 9 and 1390 DF,  p-value: < 2.2e-16

Postulados de los modelos

Multicolinealidad

Ejecutando la función f_multicolinealidad() se verifica que las variables que participan en el modelo, no tengan colinealidad o no estén correlacionadas. Los resultados se observan en modo consola:

resultado_vif <- f_multicolinealidad(modelo_RLM)
## 
## ============================
## Diagnóstico de Multicolinealidad (VIF)
## ============================
##                                  Variable  VIF        Interpretacion
## horas_estudio               horas_estudio 9.56 Moderada (precaución)
## tiempo_lectura             tiempo_lectura 9.54 Moderada (precaución)
## horas_sueno                   horas_sueno 1.00      Baja (aceptable)
## uso_redes                       uso_redes 1.01      Baja (aceptable)
## motivacion                     motivacion 1.00      Baja (aceptable)
## asistencia                     asistencia 1.01      Baja (aceptable)
## nivel_socioeconomico nivel_socioeconomico 1.01      Baja (aceptable)
## apoyo_familiar             apoyo_familiar 1.00      Baja (aceptable)
## estres                             estres 1.01      Baja (aceptable)

Se identifican variables como tiempo_respuesta, satisfaccion_cliente, tiempo_respuesta_2 como problemas serio; luego la variable derivada llamada eficiencia_operativa también indica problema serio de colinealidad; también la variable denomiada satisfaccion_2 como problema moderado que es de llamar la atención, Se concluyen que estas variables están correlacionadas.

Linealidad

Ejecutando la función f_linealidad(), se valida el postulado de linealidad

f_linealidad_grid(modelo_RLM)

## 
## ============================
## Diagnóstico de Linealidad (Grid)
## ============================
## - Los residuos deben verse aleatorios.
## - La línea roja (loess) debe ser aproximadamente horizontal.
## - Patrones curvos indican no linealidad.

Prueba de Ramsey RESET para postulado de linealidad

La prueba de Ramsey RESET evalúa si faltan términos no lineales en el modelo. CITA Wooldrige o lo que es lo mismo si no hay evidencia de curvatura sugiere que no existe linealidad entre los residuales y las variables independientes.

f_linealidad_test(modelo_RLM)
## 
## ============================
## Test de Linealidad (Ramsey RESET)
## ============================
## 
##  RESET test
## 
## data:  modelo
## RESET = 49.506, df1 = 2, df2 = 1388, p-value < 2.2e-16
## 
## 
## Interpretación:
## ❌ Se rechaza H0 → Existe evidencia de no linealidad
## 
##  RESET test
## 
## data:  modelo
## RESET = 49.506, df1 = 2, df2 = 1388, p-value < 2.2e-16

Homocedasticidad

Se valida el postulado de homocedasticidad llamando la función f_homocedasticidad(); esta función encapsula las pruebas de Breush-Pegan y White, el resultado indica que los residuales si gozan de la condición de homocedasticidad.

resultado_homo <- f_homocedasticidad(modelo_RLM)

## 
## ============================
## Diagnóstico de Homocedasticidad
## ============================
## 
## Breusch–Pagan:
## 
##  studentized Breusch-Pagan test
## 
## data:  modelo
## BP = 12.243, df = 9, p-value = 0.2
## 
## 
## White Test (manual):
## Estadístico: 9.6865 
## p-value: 0.0079 
## 
## Interpretación:
## ✔ BP: No hay heterocedasticidad
## ❌ White: Existe heterocedasticidad

Normalidad

Se valida el postulado de normalidad de los residuos del modelo de regresión mediante al ejecución de la función f_normalidad preparada para esta tarea. La densidad de los residuos se observa de manera normal y con la gráfico qq-plot los residuos se alinean adecuadamente; los valores de p-value son mayores a 0.05 por lo que el postulado de normalidad de los residuos es satisfactorio para este modelo con las pruebas de Kolmogorov-Smirnov no así la prueba de Shapiro-Wilk y Anderson-Darling.

f_normalidad(modelo_RLM)

## 
## ============================
## Diagnóstico de Normalidad
## ============================
##               Prueba p_value Interpretacion
## 1       Shapiro-Wilk       0  No normalidad
## 2   Anderson-Darling       0  No normalidad
## 3 Kolmogorov-Smirnov       0  No normalidad

Independencia de residuos

Ahora para verificar el postulado de independencia de residuos, se ejecuta la función f_independencia() que devuelve el gráfico sen donde los residuos se homogeneizan a la linea roja con valor cero. En los subtítulo de la imagen, el valor de Durbin-Watson alrededor de dos y el p-value por enciman de 0.05. Se concluye que si hay independencia de residuos en el modelo entrenado de regresión múltiple con estos datos.

tabla_independencia <- f_independencia(modelo_RLM, "Modelo RLM. rendimiento_academico")

## 
## ============================
## Diagnóstico de Independencia
## ============================
##          Prueba Estadistico p_value      Interpretacion           Decision
## 1 Durbin-Watson      1.9634  0.2472 Sin autocorrelación ✔ No se rechaza H0

Ecuación del modelo de regresión múltiple

ecuacion <- f_ecuacion_modelo(modelo_RLM)
## 
## ============================
## Ecuación del Modelo de Regresión
## ============================
## 
## ŷ = 60.5964 + 0.3603*horas_estudio + 0.2084*tiempo_lectura - 0.0936*horas_sueno + 0.587*uso_redes + 1.5505*motivacion + 0.0359*asistencia + 0.5262*nivel_socioeconomico + 0.3912*apoyo_familiar + 0.4828*estres
ecuacion
## [1] "ŷ = 60.5964 + 0.3603*horas_estudio + 0.2084*tiempo_lectura - 0.0936*horas_sueno + 0.587*uso_redes + 1.5505*motivacion + 0.0359*asistencia + 0.5262*nivel_socioeconomico + 0.3912*apoyo_familiar + 0.4828*estres"

Evaluación del modelo regresión lineal múltiple

Para evaluar el modelo de regresión múltiple, se ejecuta la función f_evaluacion() que devuelve los estadísticos R_square, R_square_ajustado, MSE, RMSE y MAE

El modelo de regresión lineal múltiple es óptimo en términos de calidad predictiva con un valor de r square=0.89 y r square ajustado=0.89; además con valores de RMSE y MAE alrededor de 4 y 3 unidades de margen de error en las predicciones.

f_evaluacion(list(modelo_RLM), list(datos_validacion), "rendimiento_academico", "Regresión Lineal Múltiple")
## 
## ============================
## Evaluación de Modelos
## ============================
##                      Modelo R_square R_square_ajustado    MSE   RMSE    MAE
## 1 Regresión Lineal Múltiple   0.8873            0.8856 3.3844 1.8397 1.4315

El modelo de regresión lineal múltiple tienen calidad predictiva sin embargo, presenta problemas en los postulados multicolinealidad y linealidad principalmente.

Las preguntas son ¿qué hacer para disminuir la no linealidad?, la respuesta sería construir modelo polinomial de segundo y tercer orden que permita comparar resultados co el modelo de regresión múltiple; luego la lotra pregunta sería ¿qué jacer para para disminuir colinealidad?, se puede aplicar modelo que controlan los valores de los coeficientes como Lasso y Ridge.

En este caso, se siguen dos estrategias y alternativas además del modelo original que servirán de comparación y muy ilustrativas:

  • 1 Como primera estrategia será construir modelos polinomiales de segundo y tercer orden.

    1. Como segunda estrategia, se propone construir dos modelos que puedan compararse entre si pero usando datos estandarizados y todas las variables: a) un modelo Lasso b) un modelo Ridge. Estos modelos pueden compararse en validez y calidad predictiva entre sí.

Estetegia 1. Modelos polinomiales de segundo y tercer orden

Modelo multiple polinomial de segundo orden

Modelo multiple polinomial de tercer orden

Estrategia 2. Construir modelos regresión lineal múltiple, Lasso y Ridge con datos estandarizados

Antes de construir los modelos regresión lineal múltiple, Lasso y Ridge respectivamente, se recomienda estandarizar o escalar los datos

tal vez fórmulas o haber descrito que significa esto antes.

Estandarizar datos originales

Se ejecuta la función f_estandarizar_escalar() que devuelve una lista con dos conjuntos de datos, datos estandarizados y datos escalados, a partir de ahí, se hacen nuevamente las particiones de los datos de entrenamiento y datos de validación pero con los datos ya estandarizados o escalados. Para este caso de estudio se toman los datos estandarizados (estandar Z), es decir datos alrededor de media igual a 0 y desviación estándar de 1.

datos_estandarizados_escalados <- f_estandarizar_escalar(datos)
## 
## ============================
## Transformación de datos
## ============================
## Variables numéricas transformadas: 10 
## Variables no numéricas preservadas: 0 
## Decimales aplicados: 4

Construir datos de entrenamiento y validación con los datos estandarizados

En la tabla , se observan los primeros y últimos registros de los datos de entrenamiento y de validación cuyo origen son los datos estandarizados.

datos_estandarizados_escalados <- f_estandarizar_escalar(datos)
## 
## ============================
## Transformación de datos
## ============================
## Variables numéricas transformadas: 10 
## Variables no numéricas preservadas: 0 
## Decimales aplicados: 4
particion <- f_particionar_datos(datos_estandarizados_escalados$datos_estandarizados)

datos_entrenamiento_est <- particion$datos_entrenamiento
datos_validacion_est <- particion$datos_validacion

f_visualizar_head_tail_reducido_word(datos_entrenamiento_est)

horas_estudio

tiempo_lectura

horas_sueno

uso_redes

...

nivel_socioeconomico

apoyo_familiar

estres

rendimiento_academico

-1.5783

-1.5605

0.9249

0.2365

...

0.0237

-1.5529

-0.5747

-1.2398

-1.2317

-1.5605

1.503

-1.5119

...

0.0237

0.5206

0.13

-0.8505

-0.5386

-0.193

-1.3874

-0.2006

...

0.721

1.2118

-0.927

0.894

-1.5783

-1.5605

0.3468

-0.2006

...

0.721

-1.5529

-0.927

-0.9515

-0.8852

-0.193

0.3468

1.1107

...

-1.3708

-0.8617

1.1871

0.7156

-0.5386

-0.8767

-0.2312

0.6736

...

0.721

1.2118

-0.2223

0.6958

...

...

...

...

...

...

...

...

...

-0.5386

-0.193

-0.2312

0.6736

...

0.0237

-0.1705

-1.2794

-1.1461

1.1943

1.5164

-0.2312

-0.2006

...

1.4182

0.175

0.8347

-0.755

0.1546

0.1489

0.3468

-1.5119

...

0.0237

1.5574

0.13

1.323

0.8477

0.4908

-0.2312

1.1107

...

1.4182

0.8662

-1.2794

1.0274

0.8477

1.1745

-1.3874

-1.0748

...

0.0237

-1.5529

0.4824

1.2815

-0.5386

0.4908

0.3468

0.6736

...

0.0237

-0.1705

-0.5747

0.5029

f_visualizar_head_tail_reducido_word(datos_validacion_est)

horas_estudio

tiempo_lectura

horas_sueno

uso_redes

...

nivel_socioeconomico

apoyo_familiar

estres

rendimiento_academico

1.1943

0.8326

0.9249

1.1107

...

0.721

0.5206

-0.2223

0.9967

0.1546

0.1489

0.9249

-1.5119

...

1.4182

1.5574

-1.2794

-0.8938

-1.2317

-1.2186

0.3468

0.2365

...

-0.6736

-0.8617

-1.6317

-1.7066

-0.192

-0.193

-1.3874

1.5478

...

-0.6736

1.5574

0.8347

1.7411

0.8477

1.5164

0.9249

-1.0748

...

-1.3708

1.5574

0.13

-0.4703

-0.192

-0.5349

-1.3874

0.2365

...

0.721

0.8662

-0.927

-1.0524

...

...

...

...

...

...

...

...

...

0.8477

0.8326

1.503

1.1107

...

0.721

0.5206

-1.2794

-0.6703

-0.192

0.1489

-0.2312

1.1107

...

-0.6736

-0.1705

1.1871

0.0326

0.1546

0.1489

-0.2312

0.2365

...

1.4182

1.2118

-0.2223

0.4831

-0.192

-0.193

-1.3874

-0.6377

...

-0.6736

-1.5529

1.5394

1.2869

0.1546

0.8326

0.3468

-0.6377

...

1.4182

-1.2073

-1.2794

-0.1819

-0.5386

-0.193

-1.3874

-1.5119

...

0.0237

0.175

-0.927

-0.3207

Modelo regresión múltiple con datos estandarizados

Se ejecuta la función f_construir_modelo_RLM para construir un modelo de regresión múltiple pero con datos estandarizados.

modelo_RLM_estandarizado <- f_construir_modelo_RLM(datos_entrenamiento_est, "rendimiento_academico")
## 
## ============================
## Modelo de Regresión Lineal Múltiple
## ============================
## Variable dependiente: rendimiento_academico 
## Número de observaciones: 1400 
## Número de variables independientes: 9 
## 
## Call:
## lm(formula = formula_modelo, data = datos_modelo)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -1.12852 -0.19184  0.05961  0.23149  0.73887 
## 
## Coefficients:
##                        Estimate Std. Error t value Pr(>|t|)    
## (Intercept)          -0.0001443  0.0088916  -0.016  0.98705    
## horas_estudio         0.1873331  0.0273787   6.842 1.17e-11 ***
## tiempo_lectura        0.1098519  0.0273573   4.015 6.25e-05 ***
## horas_sueno          -0.0291673  0.0088611  -3.292  0.00102 ** 
## uso_redes             0.2420368  0.0088070  27.482  < 2e-16 ***
## motivacion            0.8016122  0.0089153  89.914  < 2e-16 ***
## asistencia            0.0762048  0.0089293   8.534  < 2e-16 ***
## nivel_socioeconomico  0.1360062  0.0090256  15.069  < 2e-16 ***
## apoyo_familiar        0.2040171  0.0089028  22.916  < 2e-16 ***
## estres                0.2469644  0.0089701  27.532  < 2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.3325 on 1390 degrees of freedom
## Multiple R-squared:  0.8913, Adjusted R-squared:  0.8906 
## F-statistic:  1266 on 9 and 1390 DF,  p-value: < 2.2e-16

Multicolinealidad del modelo de regesión múltiple con datos estandarizados

Aún con los datos estandarizados el modelo de regresión múltiple sigue presentando problemas de multicolinealidad por lo que el modelo carece de de validez predictiva. Por eso la necesidad de construir modelos Lasso y Ridge.

resultado_vif <- f_multicolinealidad(modelo_RLM_estandarizado)
## 
## ============================
## Diagnóstico de Multicolinealidad (VIF)
## ============================
##                                  Variable  VIF        Interpretacion
## horas_estudio               horas_estudio 9.56 Moderada (precaución)
## tiempo_lectura             tiempo_lectura 9.54 Moderada (precaución)
## horas_sueno                   horas_sueno 1.00      Baja (aceptable)
## uso_redes                       uso_redes 1.01      Baja (aceptable)
## motivacion                     motivacion 1.00      Baja (aceptable)
## asistencia                     asistencia 1.01      Baja (aceptable)
## nivel_socioeconomico nivel_socioeconomico 1.01      Baja (aceptable)
## apoyo_familiar             apoyo_familiar 1.00      Baja (aceptable)
## estres                             estres 1.01      Baja (aceptable)

Modelo Lasso con datos estandarizados

Se ejecuta la función para construir modelo Lasso y Ridge llamando la función f_construir_modelo_lasso. Se devuelve el modelo a través del cual se pueden acceder a los estadísticos importantes del modelo.

# Modelo Lasso
res_lasso <- f_construir_modelo_lasso(
    datos_entrenamiento_est,
    "rendimiento_academico"
)
## 
## ============================
## Modelo LASSO (Regresión L1)
## ============================
## Variable dependiente: rendimiento_academico 
## Observaciones: 1400 
## Variables independientes: 9 
## Lambda.min: 0.002244 
## Lambda.1se: 0.022971 
## 
## Coeficientes (lambda.min):
## 10 x 1 sparse Matrix of class "dgCMatrix"
##                      s=0.002244332
## (Intercept)          -0.0002136894
## horas_estudio         0.1898707212
## tiempo_lectura        0.1055054242
## horas_sueno          -0.0269870037
## uso_redes             0.2397500441
## motivacion            0.7992157443
## asistencia            0.0740169102
## nivel_socioeconomico  0.1337797588
## apoyo_familiar        0.2016296365
## estres                0.2442388278
## 
## Coeficientes (lambda.1se):
## 10 x 1 sparse Matrix of class "dgCMatrix"
##                       s=0.02297144
## (Intercept)          -0.0002136894
## horas_estudio         0.1898707212
## tiempo_lectura        0.1055054242
## horas_sueno          -0.0269870037
## uso_redes             0.2397500441
## motivacion            0.7992157443
## asistencia            0.0740169102
## nivel_socioeconomico  0.1337797588
## apoyo_familiar        0.2016296365
## estres                0.2442388278
modelo_lasso <- res_lasso$modelo
lambda_min   <- res_lasso$lambda_min
lambda_1se   <- res_lasso$lambda_1se
cv_lasso     <- res_lasso$cv

Modelo Ridge con datos estandarizados

# Modelo Ridge
res_ridge <- f_construir_modelo_ridge(
  datos_entrenamiento_est,
  "rendimiento_academico"
)
## 
## ============================
## Modelo RIDGE (Regresión L2)
## ============================
## Variable dependiente: rendimiento_academico 
## Observaciones: 1400 
## Variables independientes: 9 
## Lambda.min: 0.078803 
## Lambda.1se: 0.114329 
## 
## Coeficientes (lambda.min):
## 10 x 1 sparse Matrix of class "dgCMatrix"
##                       s=0.07880281
## (Intercept)          -0.0003683282
## horas_estudio         0.1656133115
## tiempo_lectura        0.1225732580
## horas_sueno          -0.0278165975
## uso_redes             0.2226326972
## motivacion            0.7423520215
## asistencia            0.0700575226
## nivel_socioeconomico  0.1273108153
## apoyo_familiar        0.1875827350
## estres                0.2262178780
## 
## Coeficientes (lambda.1se):
## 10 x 1 sparse Matrix of class "dgCMatrix"
##                        s=0.1143294
## (Intercept)          -0.0003683282
## horas_estudio         0.1656133115
## tiempo_lectura        0.1225732580
## horas_sueno          -0.0278165975
## uso_redes             0.2226326972
## motivacion            0.7423520215
## asistencia            0.0700575226
## nivel_socioeconomico  0.1273108153
## apoyo_familiar        0.1875827350
## estres                0.2262178780
modelo_ridge <- res_ridge$modelo
lambda_ridge <- res_ridge$lambda_min

Evaluación final de modelos incluyendo Lasso y Ridge

Con la misma función llamada f_evaluacion() se presentan las evaluaciones de todos los modelos.

No existe mucha difrencia entre todos los modelos en cuanto a los estaísticos.

lambda_lasso <- res_lasso$lambda_min
lambda_ridge <- res_ridge$lambda_min

f_evaluacion(
  modelos = list(modelo_RLM, modelo_RLM_estandarizado, modelo_lasso, modelo_ridge),
  datos_validacion_list = list(
    datos_validacion, 
    datos_validacion_est,
    datos_validacion_est, 
    datos_validacion_est
  ),
  variable_dependiente = "rendimiento_academico",
  nombres = c("Múltiple", "Múltiple datos estandarizados", "Lasso estandarizado", "Ridge estandarizado"),
  lambdas = c(NA, NA, lambda_lasso, lambda_ridge)
)
## 
## ============================
## Evaluación de Modelos
## ============================
##                          Modelo R_square R_square_ajustado    MSE   RMSE    MAE
## 1                      Múltiple   0.8873            0.8856 3.3844 1.8397 1.4315
## 2 Múltiple datos estandarizados   0.8873            0.8856 0.1099 0.3316 0.2580
## 3           Lasso estandarizado   0.8873            0.8856 0.1100 0.3317 0.2582
## 4           Ridge estandarizado   0.8847            0.8830 0.1125 0.3354 0.2624

El modelo Lasso y Ridge no mejoran el coeficiente de determinación respecto a la regresión lineal múltiple, pero ofrece ventajas en términos de estabilidad del modelo y control de la multicolinealidad.

Resumen de la validez de los modelos

Ejecutando la función f_validar_postulados_modelos se resume la validez de los modelos observándose que los modelos Lasso y Ridge no se validan con los postulados solo el de normalidad dado que estos modelos buscan optimizar como tal la multicolinealidad presentada en los modelos de regresión múltiple. Ahora bien, el modelo con datos depurados reduce la multicolienealidad. La salida en modo consola:

f_validar_postulados_modelos(
    modelos = list(modelo_RLM, modelo_RLM_estandarizado,  modelo_lasso, modelo_ridge),
    datos_list = list(datos_entrenamiento, datos_entrenamiento_est, datos_entrenamiento_est, datos_entrenamiento_est),
    variable_dependiente = "rendimiento_academico",
    nombres = c("Lineal", "Lineal datos estandarizados", "Lasso", "Ridge")
)
## 
## ============================
## Validación de Postulados
## ============================
##                        Modelo VIF_Max Linealidad Homocedasticidad Normalidad
## 1                      Lineal    9.56  No cumple           Cumple  No cumple
## 2 Lineal datos estandarizados    9.56  No cumple           Cumple  No cumple
## 3                       Lasso      NA         NA               NA  No cumple
## 4                       Ridge      NA         NA               NA  No cumple
##   Independencia
## 1        Cumple
## 2        Cumple
## 3            NA
## 4            NA

Interpretación

Este caso de estudio cumple con le objetivo planteado. Se construyó un modelo de regresión lineal múltiple con datos relacionados con la calidad de servicio como variable dependiente.

Se construyó el modelo de regresión lineal múltiple con los datos originales y el modelo presenta problemas de multicolinealidad; para disminuir la multicolinealidad, se usaron dos estrategias:

Como primera estrategia para disminuir multicolinealidad, se construyó otro modelo de regresión múltiple pero con datos depurados combinando variables que evidenciaban alta correlación y/o colinealidad. Los resultados de ambos modelos el de regresión múltiple con datos originales y el de regresión múltiple con datos depurados cumplen con calidad predictiva alrededor del 89% en r square y r square ajustado; los estadísticos MSE, RMSE y MAE son muy similares., sin embargo el segundo satisface el postulado de no multicolienalidad.

Como segunda estrategia, se construyeron otros tres modelos con datos estandarizados: regresión múltiple, modelo Lasso y modelo Ridge; Los resultados de los modelos son similares en calidad predictiva sin embargo lo que ofrecen los modelos Lasso y Ridge es que hacen mas estables los coeficientes y con ello disminuyen la multicolinealidad que pudiera existir en los modelos de regresión múltiple.

Este caso de estudio sirve como evidencia para que los lectores puedan decidir las mejores estrategias con los datos y construir diversos modelos tratando de llegar a tener modelos con validez o que cumplan con los postulados de la regresión y con calidad predictiva, es decir que los estadísticos como r square y r square ajustado, MSE, RMSE y MAE sean satisfactorios.

Todos los modelos cumplen con la expectativa de tener un valor r square y r square ajustado por encima del 85% establecido como métrica inicial al principio del caso.