Crear y evaluar un modelo de regresión lineal múltiple para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad
Cargar librerías y datos
Limpiar datos si es necesario
Explorar datos
Partir los datos en datos de entrenamiento y datos de validación 70% y 30%
Crear modelo de regresión con los datos de entrenamiento
Evaluar modelo antes de predicciones con los estadísticos. R Square ajustado y Coeficientes
El modelo se acepta si presenta un valor de R Square ajustado por encima del 70%
Predicciones
Evaluar predicciones con respecto a datos reales
Determinar el estadístico rmse para evaluar con respecto a otros modelos
Interpretar el caso
En la mayoría de los problemas de investigación en los que se aplica el análisis de regresión se necesita más de una variable independiente para el modelo de regresión.
La complejidad de la mayoría de mecanismos científicos es tal que, con el fin de predecir una respuesta importante, se requiere un modelo de regresión múltiple. Cuando un modelo es lineal en los coeficientes se denomina modelo de regresión lineal múltiple.
Para el caso de k variables independientes, el modelo que da \(x_1,x_2,x_3...,x_k\), y \(y\) como la variable dependiente.
\(x_1, x_2, x_3,...,x_k\) son las variable s que afectan a la variable dependiente en el modelo de regresión lineal múltiple.
Muchos problemas de investigación y de la industria, requieren la estimación de las relaciones existentes entre el patrón de variabilidad de una variable aleatoria y los valores de una o más variables aleatorias. [@urrutiamosquera2011]
Al generar un modelo de regresión lineal múltiple es importante identificar los estadísticos de R2, que se denomina coeficiente de determinación y es una medida de la proporción de la variabilidad explicada por el modelo ajustado.
De igual forma, el valor de R2 ajustado (R Square Adjusted) o coeficiente de determinación ajustado, es una variación de R2 que proporciona un ajuste para los grados de libertad [@walpole2012].
El estadístico R Ajustado está diseñado para proporcionar un estadístico que castigue un modelo sobreajustado, de manera que se puede esperar que favorezca al modelo [@walpole2012].
Una variable Y puede predecirse conforme y de acuerdo con la siguiente fórmula de la regresión múltiple.
\[ Y = b_0 + b_1{x_1} + b_2{x_2} + b_3{x_3}+ .....b_k{x_k} \]
Para trabajar con código Python, se deben cargan las librerías de Python previamente instaladas con la función py_install() de la librería reticulate de R.
La función repl_python() se utilizar para ejecutar ventana de comando o shell de Python.
Se recomienda instalar estos paquetes de Python
py_install(packages = “pandas”)
py_install(packages = “matplotlib”)
py_install(packages = “numpy”)
py_install(packages = “sklearn”) en R cloud
py_install(“scikit-learn”) R Studio local
py_install(packages = “statsmodels.api”)
py_install(packages = “seaborn”)
En terminal de Python se puede actualizar con conda create -n py3.8 python=3.8 scikit-learn pandas numpy matplotlib
library(reticulate)
import pandas as pd
import numpy as np
import statsmodels.api as sm # Estadísticas R Adjused
import seaborn as sns # Gráficos
from sklearn import linear_model
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures # Polinomial
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn import metrics
from sklearn.metrics import mean_squared_error, r2_score
datos = pd.read_csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv")
datos
## Unnamed: 0 X TV Radio Newspaper Web Sales
## 0 1 1 230.1 37.8 69.2 306.634752 22.1
## 1 2 2 44.5 39.3 45.1 302.653070 10.4
## 2 3 3 17.2 45.9 69.3 49.498908 9.3
## 3 4 4 151.5 41.3 58.5 257.816893 18.5
## 4 5 5 180.8 10.8 58.4 195.660076 12.9
## .. ... ... ... ... ... ... ...
## 195 196 196 38.2 3.7 13.8 248.841073 7.6
## 196 197 197 94.2 4.9 8.1 118.041856 9.7
## 197 198 198 177.0 9.3 6.4 213.274671 12.8
## 198 199 199 283.6 42.0 66.2 237.498063 25.5
## 199 200 200 232.1 8.6 8.7 151.990733 13.4
##
## [200 rows x 7 columns]
print("Observaciones y variables: ", datos.shape)
## Observaciones y variables: (200, 7)
print("Columnas y tipo de dato")
# datos.columns
## Columnas y tipo de dato
datos.dtypes
## Unnamed: 0 int64
## X int64
## TV float64
## Radio float64
## Newspaper float64
## Web float64
## Sales float64
## dtype: object
Se describen las variables independientes: TV, Radio Newpaper y la variable dependiente Sales.
Valor de etiqueta o variable objetivo deendiente(ventas): que significa el volumen de ventas del producto correspondiente
Las variables independientes: (TV, Radio, Periódico, WEB):
TV: para un solo producto en un mercado determinado, el costo de la publicidad en TV (en miles) Radio: costos de publicidad invertidos en medios de difusión Periódico: costos publicitarios para medios periodísticos.
datos[['TV','Radio', 'Newspaper', 'Web', 'Sales', ]].describe()
## TV Radio Newspaper Web Sales
## count 200.000000 200.000000 200.000000 200.000000 200.000000
## mean 147.042500 23.264000 30.554000 159.587355 14.022500
## std 85.854236 14.846809 21.778621 76.815266 5.217457
## min 0.700000 0.000000 0.300000 4.308085 1.600000
## 25% 74.375000 9.975000 12.750000 99.048767 10.375000
## 50% 149.750000 22.900000 25.750000 156.862154 12.900000
## 75% 218.825000 36.525000 45.100000 212.311848 17.400000
## max 296.400000 49.600000 114.000000 358.247042 27.000000
sns.pairplot(datos, x_vars=['TV','Radio','Newspaper', 'Web'], y_vars='Sales', size=7, aspect=0.8,kind = 'reg')
plt.savefig("pairplot.jpg")
plt.show()
Se observa la relación lineal entre las variables independientes con respecto a ventas, de tal forma que es posible estimar visualmente que la variable Newspaper tal vez tenga poco impacto en las ventas esto por la alta dispersión de los datos. Sin embargo participará en el modelo de regresión lineal múltiple.
Se observa también que la variable Web tiene poca correlación lineal con la variable Sales
Quitar las primeras columnas y dejar TV Radio NewsPaper Web y Sales
print("Variables independientes ")
## Variables independientes
X_independientes = datos.iloc[:,2:6]
X_independientes
## TV Radio Newspaper Web
## 0 230.1 37.8 69.2 306.634752
## 1 44.5 39.3 45.1 302.653070
## 2 17.2 45.9 69.3 49.498908
## 3 151.5 41.3 58.5 257.816893
## 4 180.8 10.8 58.4 195.660076
## .. ... ... ... ...
## 195 38.2 3.7 13.8 248.841073
## 196 94.2 4.9 8.1 118.041856
## 197 177.0 9.3 6.4 213.274671
## 198 283.6 42.0 66.2 237.498063
## 199 232.1 8.6 8.7 151.990733
##
## [200 rows x 4 columns]
print ("Variable dependiente")
## Variable dependiente
Y_dependiente = datos.iloc[:, 6:7]
Y_dependiente
## Sales
## 0 22.1
## 1 10.4
## 2 9.3
## 3 18.5
## 4 12.9
## .. ...
## 195 7.6
## 196 9.7
## 197 12.8
## 198 25.5
## 199 13.4
##
## [200 rows x 1 columns]
Se utiliza semilla 1321 (random_state=1321)
X_entrena,X_valida,Y_entrena,Y_valida = train_test_split(X_independientes, Y_dependiente,train_size=.70, random_state=1321)
print("Estructura de datos de entrenamiento... ", X_entrena.shape)
## Estructura de datos de entrenamiento... (140, 4)
print(X_entrena)
## TV Radio Newspaper Web
## 129 59.6 12.0 43.1 197.196554
## 191 75.5 10.8 6.0 301.481194
## 152 197.6 23.3 14.2 159.522559
## 139 184.9 43.9 1.7 106.253829
## 86 76.3 27.5 16.0 193.830894
## .. ... ... ... ...
## 91 28.6 1.5 33.0 172.467947
## 56 7.3 28.1 41.4 121.328525
## 161 85.7 35.8 49.3 188.933530
## 106 25.0 11.0 29.7 15.938208
## 194 149.7 35.6 6.0 99.579981
##
## [140 rows x 4 columns]
print(X_entrena[['TV']], X_entrena[['Radio']], X_entrena[['Newspaper']])
## TV
## 129 59.6
## 191 75.5
## 152 197.6
## 139 184.9
## 86 76.3
## .. ...
## 91 28.6
## 56 7.3
## 161 85.7
## 106 25.0
## 194 149.7
##
## [140 rows x 1 columns] Radio
## 129 12.0
## 191 10.8
## 152 23.3
## 139 43.9
## 86 27.5
## .. ...
## 91 1.5
## 56 28.1
## 161 35.8
## 106 11.0
## 194 35.6
##
## [140 rows x 1 columns] Newspaper
## 129 43.1
## 191 6.0
## 152 14.2
## 139 1.7
## 86 16.0
## .. ...
## 91 33.0
## 56 41.4
## 161 49.3
## 106 29.7
## 194 6.0
##
## [140 rows x 1 columns]
Se construye el modelo de regresión lineal mútiple
modelo_rm = LinearRegression()
modelo_rm.fit(X_entrena,Y_entrena)
LinearRegression()In a Jupyter environment, please rerun this cell to show the HTML representation or trust the notebook.
LinearRegression()
Se presentan los coeficientes, la intersección \(\beta_0\) y los coeficientes para cada variable independiente, \(\beta_1, \beta_2,\beta_3, \text{ y } \beta_4\)
print ("Intercepción o b0")
## Intercepción o b0
b0 = modelo_rm.intercept_
print (b0)
## [2.01320526]
print ("Coeficientes: b1, b2, b3 y b4")
# print (modelo_rm.coef_)
## Coeficientes: b1, b2, b3 y b4
b1 = modelo_rm.coef_[0, 0:1]
b2 = modelo_rm.coef_[0, 1:2]
b3 = modelo_rm.coef_[0, 2:3]
b4 = modelo_rm.coef_[0, 3:4]
print (b1, b2, b3, b4)
## [0.04858973] [0.18704481] [-0.00358444] [0.00343834]
\[ Prediccion:\text { Y} = b_0 + b_1\cdot {x_1} + b_2\cdot{x_2} + b_3\cdot{x_3}+b_3\cdot{x_4} \]
\[ \text{Prediccion Sales} :\text { Y} = b_0 + b_1\cdot {TV} + b_2\cdot{Radio} + b_3\cdot{Newspaper}+b_3\cdot{Web} \]
Sobrepasa el 80% de tal forma que el el modelo SE ACEPTA por este criterio.
print(modelo_rm.score(X_entrena, Y_entrena))
## 0.9000221459670944
Se hacen predicciones con los datos de validación
predicciones = modelo_rm.predict(X_valida)
print(predicciones[:-1])
## [[ 8.8398969 ]
## [23.35922793]
## [16.20389489]
## [ 7.1088988 ]
## [12.72233448]
## [17.50037613]
## [10.14750455]
## [21.73026515]
## [13.80217263]
## [17.61175145]
## [17.82109903]
## [ 9.31413942]
## [12.69984599]
## [11.63255493]
## [19.65515292]
## [15.38485877]
## [13.4832293 ]
## [19.38717001]
## [ 5.848741 ]
## [ 8.50096581]
## [ 9.64420299]
## [23.27349453]
## [14.78689728]
## [20.74217913]
## [ 8.88149988]
## [10.33389456]
## [ 9.90292638]
## [14.10023251]
## [17.77627159]
## [ 8.21504786]
## [ 4.4138218 ]
## [16.66437259]
## [ 9.46547013]
## [ 8.72967366]
## [13.28172638]
## [15.7174629 ]
## [ 7.19917819]
## [16.35737719]
## [14.88397341]
## [15.39087772]
## [ 6.37906249]
## [18.98237473]
## [18.39828604]
## [12.38962188]
## [16.08803719]
## [21.22376164]
## [ 3.50059349]
## [ 7.84934849]
## [ 7.0244635 ]
## [17.09708055]
## [14.07625051]
## [18.21311769]
## [14.38384636]
## [ 9.86817314]
## [ 7.27738683]
## [18.62195748]
## [21.80129287]
## [16.27540084]
## [ 5.04498021]]
print(predicciones.shape)
## (60, 1)
Crear un data.frame llamado comparaciones a partir de la creación de un diccionario con los valores reales del conjunto de entrenamiento y las predicciones calculadas.
Se usa el type() para conocer el tipo de estructura de datos
Se usa el assign() para agregar columnas al df comparaciones
Se usa flatten().tolist() para convertir a una lista de una dimensión.
Al final se tiene un data.frame llamado comparaciones en donde las últimas columnas tienen los valores reales de ‘Sales’ y las predicciones en la variable ‘Predicho’.
print(type(X_valida))
# print(X_valida)
## <class 'pandas.core.frame.DataFrame'>
print(type(predicciones))
# print(predicciones)
## <class 'numpy.ndarray'>
comparaciones = pd.DataFrame(X_valida)
comparaciones = comparaciones.assign(Sales_Real = Y_valida)
comparaciones = comparaciones.assign(Predicho = predicciones.flatten().tolist())
print(comparaciones)
## TV Radio Newspaper Web Sales_Real Predicho
## 46 89.7 9.9 35.7 216.504015 10.6 8.839897
## 147 243.2 49.0 44.3 151.990733 25.4 23.359228
## 95 163.3 31.6 52.9 155.594877 16.9 16.203895
## 127 80.2 0.0 9.2 358.247042 8.8 7.108899
## 115 75.1 35.0 52.7 204.276714 12.6 12.722334
## 35 290.7 4.1 8.5 181.983424 12.8 17.500376
## 82 75.3 20.3 32.5 231.209829 11.3 10.147505
## 47 239.9 41.5 18.5 105.962913 23.2 21.730265
## 83 68.4 44.5 35.6 78.393104 13.6 13.802173
## 102 280.2 10.1 21.4 49.808451 14.8 17.611751
## 20 218.4 27.7 53.4 59.960554 18.0 17.821099
## 140 73.4 17.0 12.9 174.772137 10.9 9.314139
## 50 199.8 3.1 34.6 151.990733 11.4 12.699846
## 31 112.9 17.4 38.6 295.883989 11.9 11.632555
## 68 237.4 27.5 11.0 291.548597 18.9 19.655153
## 118 125.7 36.9 79.2 187.840415 15.9 15.384859
## 77 120.5 28.5 14.2 97.455125 14.2 13.483229
## 133 219.8 33.5 45.1 171.478018 19.6 19.387170
## 182 56.2 5.7 29.7 42.199287 8.7 5.848741
## 29 70.6 16.0 40.8 61.324362 10.5 8.500966
## 151 121.0 8.4 48.7 103.255212 11.6 9.644203
## 61 261.3 42.7 54.7 224.832039 24.2 23.273495
## 156 93.9 43.5 50.5 74.361939 15.3 14.786897
## 52 216.4 41.7 39.6 161.802512 22.6 20.742179
## 66 31.5 24.6 2.2 216.471397 9.5 8.881500
## 94 107.4 14.0 10.9 151.990733 11.5 10.333895
## 186 139.5 2.1 26.6 236.744035 10.3 9.902926
## 181 218.5 5.4 27.4 162.387486 12.2 14.100233
## 3 151.5 41.3 58.5 257.816893 18.5 17.776272
## 24 62.3 12.6 18.3 256.965240 9.7 8.215048
## 192 17.2 4.1 31.6 265.028644 5.9 4.413822
## 89 109.8 47.8 51.4 162.727890 16.7 16.664373
## 73 129.4 5.7 31.3 61.306191 11.0 9.465470
## 44 25.1 25.7 43.3 245.764410 8.5 8.729674
## 4 180.8 10.8 58.4 195.660076 12.9 13.281726
## 97 184.9 21.0 22.0 253.300721 15.5 15.717463
## 172 19.6 20.1 17.0 155.583662 7.6 7.199178
## 99 135.2 41.7 45.9 40.600350 17.2 16.357377
## 81 239.8 4.1 36.9 169.946395 12.3 14.883973
## 199 232.1 8.6 8.7 151.990733 13.4 15.390878
## 10 66.1 5.8 24.2 45.359029 8.6 6.379062
## 33 265.6 20.0 0.3 94.207255 17.4 18.982375
## 150 280.7 13.9 37.0 81.040617 16.1 18.398286
## 179 165.6 10.0 17.6 151.990733 12.6 12.389622
## 48 227.2 15.8 49.9 75.269182 14.8 16.088037
## 54 262.7 28.8 15.9 324.615179 20.2 21.223762
## 108 13.1 0.4 25.6 252.391353 5.3 3.500593
## 78 5.4 29.9 9.4 4.308085 5.3 7.849348
## 121 18.8 21.7 50.4 63.854924 7.0 7.024464
## 163 163.5 36.8 7.4 82.228794 18.0 17.097081
## 171 164.5 20.9 47.4 96.180391 14.5 14.076251
## 59 210.7 29.5 9.3 138.895554 18.4 18.213118
## 160 172.5 18.1 30.7 207.496801 14.4 14.383846
## 18 69.2 20.5 18.3 210.489910 11.3 9.868173
## 107 90.4 0.3 23.2 261.380879 8.7 7.277387
## 193 166.8 42.0 3.6 192.246211 19.6 18.621957
## 30 292.9 28.3 43.2 121.464347 21.4 21.801293
## 178 276.7 2.3 23.7 137.323772 11.8 16.275401
## 60 53.5 2.0 21.4 39.217153 8.1 5.044980
## 183 287.6 43.0 71.8 154.309725 26.2 24.303744
rmse Root Mean Stándard Error (Root-mean-square deviation), este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.
La raiz del Error Cuadrático Medio (rmse) es una métrica que dice qué tan lejos están los valores predichos de los valores observados o reales en un análisis de regresión, en promedio. Se calcula como:
\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]
RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.
Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.
print('Mean Squared Error: MSE', metrics.mean_squared_error(Y_valida, predicciones))
## Mean Squared Error: MSE 2.6554418415201657
print('Root Mean Squared Error RMSE:', np.sqrt(metrics.mean_squared_error(Y_valida, predicciones)))
## Root Mean Squared Error RMSE: 1.6295526507358287
Pendiente … …
Se hacen predicciones con datos nuevos. Pendiente … …
Pendiente …
Con este modelo y con estos datos interprete lo siguiente:
¿Cuál es el contexto de los datos? El objetivo es utilizar datos simulados para predecir las ventas de una empresa, en función de la inversión realizada en publicidad.
¿Cuántas observaciones se analizan y cuáles son las variables de interés? Se observa como van creciendo o decreciendo las ventas en funcion de la inversion que se le dio al area de TV, Radio, Newspaper, Web o Intersección.
¿Cuáles son las variables independientes y dependientes? Se describen las variables independientes: TV, Radio Newpaper y la variable dependiente Sales.
¿Cuál es el porcentaje de datos de entrenamiento y datos de validación ? Las observaciones se dividieron en un 70% de datos de entrenamiento y un 30% de datos de validación.
¿Son los coeficientes confiables al menos al 90% para hacer predicciones?, Web, Tv Radio
¿Cuál nivel de confianza para cada coeficiente? TV y Radio presentan niveles de confianza por encima del 99.9%; Newspaper no presenta un nivel de confianza por encima del 90%, por lo cual puede pensarse en despreciar esa variable para futuros análisis; el coeficiente para WEB presenta un nivel de confianza del 95%.
¿Que valor tiene el estadístico el R Square ajustado y que representa o qué significa? Sobrepasa el 80% de tal forma que el el modelo SE ACEPTA por este criterio 0.9000221459670944 El valor de R2 ajustado (R Square Adjusted) o coeficiente de determinación ajustado, es una variación de R2 que proporciona un ajuste para los grados de libertad [@walpole2012]. El estadístico R Ajustado está diseñado para proporcionar un estadístico que castigue un modelo sobreajustado, de manera que se puede esperar que favorezca al modelo [@walpole2012].
¿Cuál es el valor de RMSE y qué significaría este valor El valor del RMSE 1.6295526507358287 rmse Root Mean Stándard Error (Root-mean-square deviation), este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor. La raiz del Error Cuadrático Medio (rmse) es una métrica que dice qué tan lejos están los valores predichos de los valores observados o reales en un análisis de regresión, en promedio. RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos. Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.
¿Puede haber otro modelo más óptimo para estos datos? Se puede utilizar un metodo de regresion polinomica.
¿Que tan confiables son las predicciones con datos nuevos con este modelo y con estos datos? La predicción que se realiza es mas cercana debido a que se ha realizado un analisis de los datos.
Comparado con el modelo elaborado en lenguaje R cual tiene menor rmse y qué significa? El modelo elaborado en python por lo que es mas exacto.