1 Objetivo

Crear y evaluar un modelo de regresión lineal múltiple para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad

2 Descripción

  • Cargar librerías y datos

  • Limpiar datos si es necesario

  • Explorar datos

  • Partir los datos en datos de entrenamiento y datos de validación 70% y 30%

  • Crear modelo de regresión con los datos de entrenamiento

  • Evaluar modelo antes de predicciones con los estadísticos. R Square ajustado y Coeficientes

  • El modelo se acepta si presenta un valor de R Square ajustado por encima del 70%

  • Predicciones

  • Evaluar predicciones con respecto a datos reales

  • Determinar el estadístico rmse para evaluar con respecto a otros modelos

  • Interpretar el caso

3 Fundamento teórico

En la mayoría de los problemas de investigación en los que se aplica el análisis de regresión se necesita más de una variable independiente para el modelo de regresión.

La complejidad de la mayoría de mecanismos científicos es tal que, con el fin de predecir una respuesta importante, se requiere un modelo de regresión múltiple. Cuando un modelo es lineal en los coeficientes se denomina modelo de regresión lineal múltiple.

Para el caso de k variables independientes, el modelo que da \(x_1,x_2,x_3...,x_k\), y \(y\) como la variable dependiente.

\(x_1, x_2, x_3,...,x_k\) son las variable s que afectan a la variable dependiente en el modelo de regresión lineal múltiple.

Muchos problemas de investigación y de la industria, requieren la estimación de las relaciones existentes entre el patrón de variabilidad de una variable aleatoria y los valores de una o más variables aleatorias. [@urrutiamosquera2011]

Al generar un modelo de regresión lineal múltiple es importante identificar los estadísticos de R2, que se denomina coeficiente de determinación y es una medida de la proporción de la variabilidad explicada por el modelo ajustado.

De igual forma, el valor de R2 ajustado (R Square Adjusted) o coeficiente de determinación ajustado, es una variación de R2 que proporciona un ajuste para los grados de libertad [@walpole2012].

El estadístico R Ajustado está diseñado para proporcionar un estadístico que castigue un modelo sobreajustado, de manera que se puede esperar que favorezca al modelo [@walpole2012].

Una variable Y puede predecirse conforme y de acuerdo con la siguiente fórmula de la regresión múltiple.

\[ Y = b_0 + b_1{x_1} + b_2{x_2} + b_3{x_3}+ .....b_k{x_k} \]

4 Desarrollo

Para trabajar con código Python, se deben cargan las librerías de Python previamente instaladas con la función py_install() de la librería reticulate de R.

La función repl_python() se utilizar para ejecutar ventana de comando o shell de Python.

Se recomienda instalar estos paquetes de Python

  • py_install(packages = “pandas”)

  • py_install(packages = “matplotlib”)

  • py_install(packages = “numpy”)

  • py_install(packages = “sklearn”) en R cloud

  • py_install(“scikit-learn”) R Studio local

  • py_install(packages = “statsmodels.api”)

  • py_install(packages = “seaborn”)

  • En terminal de Python se puede actualizar con conda create -n py3.8 python=3.8 scikit-learn pandas numpy matplotlib

4.1 Cargar librerías

library(reticulate)
import pandas as pd
import numpy as np
import statsmodels.api as sm # Estadísticas R Adjused
import seaborn as sns  # Gráficos
from sklearn import linear_model
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures # Polinomial
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn import metrics
from sklearn.metrics import mean_squared_error, r2_score

4.2 Cargar datos

datos = pd.read_csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv")
datos
##      Unnamed: 0    X     TV  Radio  Newspaper         Web  Sales
## 0             1    1  230.1   37.8       69.2  306.634752   22.1
## 1             2    2   44.5   39.3       45.1  302.653070   10.4
## 2             3    3   17.2   45.9       69.3   49.498908    9.3
## 3             4    4  151.5   41.3       58.5  257.816893   18.5
## 4             5    5  180.8   10.8       58.4  195.660076   12.9
## ..          ...  ...    ...    ...        ...         ...    ...
## 195         196  196   38.2    3.7       13.8  248.841073    7.6
## 196         197  197   94.2    4.9        8.1  118.041856    9.7
## 197         198  198  177.0    9.3        6.4  213.274671   12.8
## 198         199  199  283.6   42.0       66.2  237.498063   25.5
## 199         200  200  232.1    8.6        8.7  151.990733   13.4
## 
## [200 rows x 7 columns]

4.3 Explorar datos

print("Observaciones y variables: ", datos.shape)
## Observaciones y variables:  (200, 7)
print("Columnas y tipo de dato")
# datos.columns
## Columnas y tipo de dato
datos.dtypes
## Unnamed: 0      int64
## X               int64
## TV            float64
## Radio         float64
## Newspaper     float64
## Web           float64
## Sales         float64
## dtype: object

Se describen las variables independientes: TV, Radio Newpaper y la variable dependiente Sales.

Valor de etiqueta o variable objetivo deendiente(ventas): que significa el volumen de ventas del producto correspondiente

Las variables independientes: (TV, Radio, Periódico, WEB):

TV: para un solo producto en un mercado determinado, el costo de la publicidad en TV (en miles) Radio: costos de publicidad invertidos en medios de difusión Periódico: costos publicitarios para medios periodísticos.

datos[['TV','Radio', 'Newspaper', 'Web', 'Sales', ]].describe()
##                TV       Radio   Newspaper         Web       Sales
## count  200.000000  200.000000  200.000000  200.000000  200.000000
## mean   147.042500   23.264000   30.554000  159.587355   14.022500
## std     85.854236   14.846809   21.778621   76.815266    5.217457
## min      0.700000    0.000000    0.300000    4.308085    1.600000
## 25%     74.375000    9.975000   12.750000   99.048767   10.375000
## 50%    149.750000   22.900000   25.750000  156.862154   12.900000
## 75%    218.825000   36.525000   45.100000  212.311848   17.400000
## max    296.400000   49.600000  114.000000  358.247042   27.000000

4.3.1 Dispersión de la variables con respecto a Sales.

sns.pairplot(datos, x_vars=['TV','Radio','Newspaper', 'Web'], y_vars='Sales', size=7, aspect=0.8,kind = 'reg')

plt.savefig("pairplot.jpg")
plt.show()

Se observa la relación lineal entre las variables independientes con respecto a ventas, de tal forma que es posible estimar visualmente que la variable Newspaper tal vez tenga poco impacto en las ventas esto por la alta dispersión de los datos. Sin embargo participará en el modelo de regresión lineal múltiple.

Se observa también que la variable Web tiene poca correlación lineal con la variable Sales

4.4 Limpiar datos

4.4.1 Identificar variables independientes y dependiente

Quitar las primeras columnas y dejar TV Radio NewsPaper Web y Sales

print("Variables independientes ")
## Variables independientes
X_independientes = datos.iloc[:,2:6]
X_independientes
##         TV  Radio  Newspaper         Web
## 0    230.1   37.8       69.2  306.634752
## 1     44.5   39.3       45.1  302.653070
## 2     17.2   45.9       69.3   49.498908
## 3    151.5   41.3       58.5  257.816893
## 4    180.8   10.8       58.4  195.660076
## ..     ...    ...        ...         ...
## 195   38.2    3.7       13.8  248.841073
## 196   94.2    4.9        8.1  118.041856
## 197  177.0    9.3        6.4  213.274671
## 198  283.6   42.0       66.2  237.498063
## 199  232.1    8.6        8.7  151.990733
## 
## [200 rows x 4 columns]
print ("Variable dependiente")
## Variable dependiente
Y_dependiente = datos.iloc[:, 6:7]
Y_dependiente
##      Sales
## 0     22.1
## 1     10.4
## 2      9.3
## 3     18.5
## 4     12.9
## ..     ...
## 195    7.6
## 196    9.7
## 197   12.8
## 198   25.5
## 199   13.4
## 
## [200 rows x 1 columns]

4.5 Datos de entrenamiento y datos de validación

Se utiliza semilla 2022 (random_state=2022)

X_entrena,X_valida,Y_entrena,Y_valida = train_test_split(X_independientes, Y_dependiente,train_size=.70,  random_state=1264)

4.5.1 Datos de entrenamiento

print("Estructura de datos de entrenamiento... ", X_entrena.shape)
## Estructura de datos de entrenamiento...  (140, 4)
print(X_entrena)
##         TV  Radio  Newspaper         Web
## 123  123.1   34.6       12.4   15.757191
## 60    53.5    2.0       21.4   39.217153
## 68   237.4   27.5       11.0  291.548597
## 198  283.6   42.0       66.2  237.498063
## 195   38.2    3.7       13.8  248.841073
## ..     ...    ...        ...         ...
## 179  165.6   10.0       17.6  151.990733
## 32    97.2    1.5       30.0  139.781089
## 170   50.0   11.6       18.4   64.014805
## 194  149.7   35.6        6.0   99.579981
## 30   292.9   28.3       43.2  121.464347
## 
## [140 rows x 4 columns]
print(X_entrena[['TV']], X_entrena[['Radio']], X_entrena[['Newspaper']])
##         TV
## 123  123.1
## 60    53.5
## 68   237.4
## 198  283.6
## 195   38.2
## ..     ...
## 179  165.6
## 32    97.2
## 170   50.0
## 194  149.7
## 30   292.9
## 
## [140 rows x 1 columns]      Radio
## 123   34.6
## 60     2.0
## 68    27.5
## 198   42.0
## 195    3.7
## ..     ...
## 179   10.0
## 32     1.5
## 170   11.6
## 194   35.6
## 30    28.3
## 
## [140 rows x 1 columns]      Newspaper
## 123       12.4
## 60        21.4
## 68        11.0
## 198       66.2
## 195       13.8
## ..         ...
## 179       17.6
## 32        30.0
## 170       18.4
## 194        6.0
## 30        43.2
## 
## [140 rows x 1 columns]

4.6 Modelo de Regresión lineal múltiple

Se construye el modelo de regresión lineal mútiple

modelo_rm = LinearRegression()
 
modelo_rm.fit(X_entrena,Y_entrena)
 
LinearRegression()
In a Jupyter environment, please rerun this cell to show the HTML representation or trust the notebook.
On GitHub, the HTML representation is unable to render, please try loading this page with nbviewer.org.

4.6.1 Evaluación del modelo antes de predicciones

Se presentan los coeficientes, la intersección \(\beta_0\) y los coeficientes para cada variable independiente, \(\beta_1, \beta_2,\beta_3, \text{ y } \beta_4\)

print ("Intercepción o b0") 
## Intercepción o b0
b0 = modelo_rm.intercept_
print (b0)
## [2.35040058]
print ("Coeficientes: b1, b2, b3 y b4") 
# print (modelo_rm.coef_)
## Coeficientes: b1, b2, b3 y b4
b1 = modelo_rm.coef_[0, 0:1]
b2 = modelo_rm.coef_[0, 1:2]
b3 = modelo_rm.coef_[0, 2:3]
b4 = modelo_rm.coef_[0, 3:4]
print (b1, b2, b3, b4)
## [0.04435321] [0.18753887] [0.0005396] [0.00389301]

\[ Prediccion:\text { Y} = b_0 + b_1\cdot {x_1} + b_2\cdot{x_2} + b_3\cdot{x_3}+b_3\cdot{x_4} \]

\[ \text{Prediccion Sales} :\text { Y} = b_0 + b_1\cdot {TV} + b_2\cdot{Radio} + b_3\cdot{Newspaper}+b_3\cdot{Web} \]

4.6.2 R Square y R Square ajustado a a partir del modelo

Sobrepasa el 80% de tal forma que el el modelo SE ACEPTA por este criterio.

print(modelo_rm.score(X_entrena, Y_entrena))
## 0.8803249921887198

4.7 Predicciones

Se hacen predicciones con los datos de validación

predicciones = modelo_rm.predict(X_valida)
print(predicciones[:-1])
## [[16.35015123]
##  [15.27600343]
##  [13.18810113]
##  [12.4039149 ]
##  [21.19609681]
##  [ 8.43869454]
##  [ 9.41423309]
##  [23.87468669]
##  [ 8.11188743]
##  [12.00729513]
##  [15.4876    ]
##  [15.32671071]
##  [ 8.0352642 ]
##  [10.09988923]
##  [11.89284612]
##  [20.79541148]
##  [ 6.80050201]
##  [17.85051895]
##  [ 8.76669741]
##  [20.64916741]
##  [14.30422145]
##  [14.8876671 ]
##  [19.6802443 ]
##  [13.96607501]
##  [10.56354724]
##  [ 5.60023236]
##  [10.26359425]
##  [18.90818351]
##  [ 4.00281999]
##  [14.22013674]
##  [11.6170822 ]
##  [20.87611762]
##  [18.01722217]
##  [ 9.41925713]
##  [19.72062897]
##  [ 4.33722525]
##  [17.49421073]
##  [12.02550679]
##  [ 8.91634384]
##  [21.14958985]
##  [11.10553766]
##  [22.04223942]
##  [11.65508951]
##  [ 8.21916392]
##  [18.21413501]
##  [12.06205139]
##  [19.78740147]
##  [ 9.76613336]
##  [24.41671297]
##  [10.51099644]
##  [15.87450785]
##  [20.3153275 ]
##  [10.3370633 ]
##  [21.26485642]
##  [15.30284143]
##  [22.4505974 ]
##  [14.98985009]
##  [13.31171456]
##  [14.73170581]]
print(predicciones.shape)
## (60, 1)

4.8 Evaluar predicciones

Crear un data.frame llamado comparaciones a partir de la creación de un diccionario con los valores reales del conjunto de entrenamiento y las predicciones calculadas.

Se usa el type() para conocer el tipo de estructura de datos

Se usa el assign() para agregar columnas al df comparaciones

Se usa flatten().tolist() para convertir a una lista de una dimensión.

Al final se tiene un data.frame llamado comparaciones en donde las últimas columnas tienen los valores reales de ‘Sales’ y las predicciones en la variable ‘Predicho’.

print(type(X_valida))
# print(X_valida)
## <class 'pandas.core.frame.DataFrame'>
print(type(predicciones))
# print(predicciones)
## <class 'numpy.ndarray'>
comparaciones = pd.DataFrame(X_valida)
comparaciones = comparaciones.assign(Sales_Real = Y_valida)
comparaciones = comparaciones.assign(Predicho = predicciones.flatten().tolist())
print(comparaciones)
##         TV  Radio  Newspaper         Web  Sales_Real   Predicho
## 99   135.2   41.7       45.9   40.600350        17.2  16.350151
## 85   193.2   18.4       65.7  223.578793        15.2  15.276003
## 4    180.8   10.8       58.4  195.660076        12.9  13.188101
## 50   199.8    3.1       34.6  151.990733        11.4  12.403915
## 47   239.9   41.5       18.5  105.962913        23.2  21.196097
## 56     7.3   28.1       41.4  121.328525         5.5   8.438695
## 73   129.4    5.7       31.3   61.306191        11.0   9.414233
## 98   289.7   42.3       51.2  183.569585        25.4  23.874687
## 34    95.7    1.4        7.4  321.174609         9.5   8.111887
## 173  168.4    7.1       12.8  218.180829        11.7  12.007295
## 97   184.9   21.0       22.0  253.300721        15.5  15.487600
## 87   110.7   40.6       63.2  107.430521        16.0  15.326711
## 129   59.6   12.0       43.1  197.196554         9.7   8.035264
## 149   44.7   25.8       20.6  235.622449        10.1  10.099889
## 148   38.0   40.3       11.9   75.207978        10.9  11.892846
## 69   216.8   43.9       27.2  149.396103        22.3  20.795411
## 22    13.2   15.9       49.6  219.882776         5.6   6.800502
## 3    151.5   41.3       58.5  257.816893        18.5  17.850519
## 51   100.4    9.6        3.6   41.335255        10.7   8.766697
## 84   213.5   43.0       33.8  191.868374        21.7  20.649167
## 110  225.8    8.2       56.5   95.185762        13.4  14.304221
## 154  187.8   21.1        9.5   63.071208        15.6  14.887667
## 176  248.4   30.2       20.3  163.852044        20.2  19.680244
## 171  164.5   20.9       47.4   96.180391        14.5  13.966075
## 72    26.8   33.0       19.3  211.990907         8.8  10.563547
## 106   25.0   11.0       29.7   15.938208         7.2   5.600232
## 180  156.6    2.6        8.3  122.116470        10.5  10.263594
## 92   217.7   33.5       59.0  150.962754        19.4  18.908184
## 108   13.1    0.4       25.6  252.391353         5.3   4.002820
## 160  172.5   18.1       30.7  207.496801        14.4  14.220137
## 75    16.9   43.7       89.4   70.234282         8.7  11.617082
## 0    230.1   37.8       69.2  306.634752        22.1  20.876118
## 153  171.3   39.7       37.7  155.016224        19.0  18.017222
## 79   116.0    7.7       23.1  120.053504        11.0   9.419257
## 28   248.8   27.1       22.9  318.644967        18.9  19.720629
## 76    27.5    1.6       20.7  117.101925         6.9   4.337225
## 20   218.4   27.7       53.4   59.960554        18.0  17.494211
## 6     57.5   32.8       23.5  246.811598        11.8  12.025507
## 125   87.2   11.8       25.9  121.090982        10.6   8.916344
## 93   250.9   36.5       72.3  202.102158        22.2  21.149590
## 136   25.6   39.0        9.3   77.230797         9.5  11.105538
## 128  220.3   49.0        3.2  187.437060        24.7  22.042239
## 86    76.3   27.5       16.0  193.830894        12.0  11.655090
## 78     5.4   29.9        9.4    4.308085         5.3   8.219164
## 141  193.7   35.4       75.6  152.284937        19.2  18.214135
## 67   139.3   14.5       10.2  207.661990        13.4  12.062051
## 104  238.2   34.3        5.3  112.155489        20.7  19.787401
## 38    43.1   26.7       35.1  122.753591        10.1   9.766133
## 175  276.9   48.9       41.8  151.990733        27.0  24.416713
## 71   109.8   14.3       31.7  151.990733        12.4  10.510996
## 40   202.5   22.3       31.6   88.212823        16.6  15.874508
## 39   228.0   37.7       32.0  196.483269        21.5  20.315328
## 94   107.4   14.0       10.9  151.990733        11.5  10.337063
## 55   198.9   49.4       60.0  204.418927        23.7  21.264856
## 25   262.9    3.5       19.5  160.562859        12.0  15.302841
## 17   281.4   39.6       55.8   41.755313        24.4  22.450597
## 156   93.9   43.5       50.5   74.361939        15.3  14.989850
## 112  175.7   15.4        2.4   71.682551        14.1  13.311715
## 162  188.4   18.1       25.6  158.461520        14.9  14.731706
## 140   73.4   17.0       12.9  174.772137        10.9   9.481438

4.8.1 RMSE

rmse Root Mean Stándard Error (Root-mean-square deviation), este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.

La raiz del Error Cuadrático Medio (rmse) es una métrica que dice qué tan lejos están los valores predichos de los valores observados o reales en un análisis de regresión, en promedio. Se calcula como:

\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]

RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.

Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.

print('Mean Squared Error: MSE', metrics.mean_squared_error(Y_valida, predicciones))
## Mean Squared Error: MSE 2.1323623658147004
print('Root Mean Squared Error RMSE:', np.sqrt(metrics.mean_squared_error(Y_valida, predicciones)))
## Root Mean Squared Error RMSE: 1.460261060843129

4.9 Graficar prediciones contra valores reales

4.10 Predicciones con datos nuevos

Se hacen predicciones con datos nuevos.

5 Interpretación

Con este modelo y con estos datos interprete lo siguiente:

  • ¿Cuál es el contexto de los datos?

Los datos tienen enfoque a la analitica de los distintos medios de cada producto, esto con el objetivo de encontrar el mejor medio de marketing

  • ¿Cuántas observaciones se analizan y cuáles son las variables de interés?

200 observacione, TV, Radio, Newspaper, Web y Sales son las variables de interes

  • ¿Cuáles son las variables independientes y dependientes?

Las variables independientes son TV, Radio, Newspaper y Web, la variable dependiente es Sales.

  • ¿Cuál es el porcentaje de datos de entrenamiento y datos de validación ?

un 70% son de entrenamiento y 30% son de validacion.

  • ¿Son los coeficientes confiables al menos al 90% para hacer predicciones?,

Todos los coeficientes son aceptables, los menos confiables serian Newspaper y Web.

  • ¿Cuál nivel de confianza para cada coeficiente?

Los coeficientes de TV y radio tienen una precisión de predicción superior al 99,9%. Sin embargo, debido a su mayor valor de error, Newspaper y Web no podemos tomarlos con la misma fiabilidad que los otros coeficientes.

  • ¿Que valor tiene el estadístico el R Square ajustado y que representa o qué significa?

Con la semilla 1264, nos da un Adjusted R-squared del 0.8803249921887198, lo que significa que es un modelo confiable al ser de un R-square mayor a 0.85

  • ¿Cuál es el valor de RMSE y qué significaría este valor

Con la semilla 1264, nos da un RMSE: 1.460261060843129, representa la dispersión o variabilidad que puede llegar a persistir entre los datos reales y los datos que son predichos a partir del modelo utilizado. Dicho esto se puede inquirir en que la cantidad no es demasiado pronunciada y existe una ligera diferencia entre los diferentes valores. Apesar de ello, el valor sigue siendo más alto que en caso anterior, lo que puede afectar a su confiabilidad.

  • ¿Puede haber otro modelo más óptimo para estos datos?

A un lado del modelo de Regresion Linear, se pueden probar otro modelo llamado Ridge Regression, que tambien funciona de manera lineal. La diferencia puede apreciarse cuando haya un mayor volumen de datos, probablemente con este volumen no habria tanta diferencia y sea mejor quedarnos con Regresion Lineal de momento.

  • ¿Que tan confiables son las predicciones con datos nuevos con este modelo y con estos datos?

En comparacion con la generacion de la semilla 2022, no existe tanta diferencia, personalmente, sí confiaria en el modelo, quizas con un mayor volumen, mejoren los coeficientes.