Objetivo

Crear y evaluar un modelo de regresión lineal múltiple para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad

Descripción

Fundamento teórico

En la mayoría de los problemas de investigación en los que se aplica el análisis de regresión se necesita más de una variable independiente para el modelo de regresión.

La complejidad de la mayoría de mecanismos científicos es tal que, con el fin de predecir una respuesta importante, se requiere un modelo de regresión múltiple. Cuando un modelo es lineal en los coeficientes se denomina modelo de regresión lineal múltiple.

Para el caso de k variables independientes, el modelo que da \(x_1,x_2,x_3...,x_k\), y \(y\) como la variable dependiente.

\(x_1, x_2, x_3,...,x_k\) son las variable s que afectan a la variable dependiente en el modelo de regresión lineal múltiple.

Muchos problemas de investigación y de la industria, requieren la estimación de las relaciones existentes entre el patrón de variabilidad de una variable aleatoria y los valores de una o más variables aleatorias. [@urrutiamosquera2011]

Al generar un modelo de regresión lineal múltiple es importante identificar los estadísticos de R2, que se denomina coeficiente de determinación y es una medida de la proporción de la variabilidad explicada por el modelo ajustado.

De igual forma, el valor de R2 ajustado (R Square Adjusted) o coeficiente de determinación ajustado, es una variación de R2 que proporciona un ajuste para los grados de libertad [@walpole2012].

El estadístico R Ajustado está diseñado para proporcionar un estadístico que castigue un modelo sobreajustado, de manera que se puede esperar que favorezca al modelo [@walpole2012].

Una variable Y puede predecirse conforme y de acuerdo con la siguiente fórmula de la regresión múltiple.

\[ Y = b_0 + b_1{x_1} + b_2{x_2} + b_3{x_3}+ .....b_k{x_k} \]

Desarrollo

Para trabajar con código Python, se deben cargan las librerías de Python previamente instaladas con la función py_install() de la librería reticulate de R.

La función repl_python() se utilizar para ejecutar ventana de comando o shell de Python.

Se recomienda instalar estos paquetes de Python

Cargar librerías

library(reticulate)
import pandas as pd
import numpy as np
import statsmodels.api as sm # Estadísticas R Adjused
import seaborn as sns  # Gráficos
from sklearn import linear_model
from sklearn.linear_model import LinearRegression
from sklearn.preprocessing import PolynomialFeatures # Polinomial

import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn import metrics
from sklearn.metrics import mean_squared_error, r2_score

Cargar datos

datos = pd.read_csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv")
datos
##      Unnamed: 0    X     TV  Radio  Newspaper         Web  Sales
## 0             1    1  230.1   37.8       69.2  306.634752   22.1
## 1             2    2   44.5   39.3       45.1  302.653070   10.4
## 2             3    3   17.2   45.9       69.3   49.498908    9.3
## 3             4    4  151.5   41.3       58.5  257.816893   18.5
## 4             5    5  180.8   10.8       58.4  195.660076   12.9
## ..          ...  ...    ...    ...        ...         ...    ...
## 195         196  196   38.2    3.7       13.8  248.841073    7.6
## 196         197  197   94.2    4.9        8.1  118.041856    9.7
## 197         198  198  177.0    9.3        6.4  213.274671   12.8
## 198         199  199  283.6   42.0       66.2  237.498063   25.5
## 199         200  200  232.1    8.6        8.7  151.990733   13.4
## 
## [200 rows x 7 columns]

Explorar datos

print("Observaciones y variables: ", datos.shape)
## Observaciones y variables:  (200, 7)
print("Columnas y tipo de dato")
# datos.columns
## Columnas y tipo de dato
datos.dtypes
## Unnamed: 0      int64
## X               int64
## TV            float64
## Radio         float64
## Newspaper     float64
## Web           float64
## Sales         float64
## dtype: object

Se describen las variables independientes: TV, Radio Newpaper y la variable dependiente Sales.

Valor de etiqueta o variable objetivo deendiente(ventas): que significa el volumen de ventas del producto correspondiente

Las variables independientes: (TV, Radio, Periódico, WEB):

TV: para un solo producto en un mercado determinado, el costo de la publicidad en TV (en miles) Radio: costos de publicidad invertidos en medios de difusión Periódico: costos publicitarios para medios periodísticos.

datos[['TV','Radio', 'Newspaper', 'Web', 'Sales', ]].describe()
##                TV       Radio   Newspaper         Web       Sales
## count  200.000000  200.000000  200.000000  200.000000  200.000000
## mean   147.042500   23.264000   30.554000  159.587355   14.022500
## std     85.854236   14.846809   21.778621   76.815266    5.217457
## min      0.700000    0.000000    0.300000    4.308085    1.600000
## 25%     74.375000    9.975000   12.750000   99.048767   10.375000
## 50%    149.750000   22.900000   25.750000  156.862154   12.900000
## 75%    218.825000   36.525000   45.100000  212.311848   17.400000
## max    296.400000   49.600000  114.000000  358.247042   27.000000

Dispersión de la variables con respecto a Sales.

sns.pairplot(datos, x_vars=['TV','Radio','Newspaper', 'Web'], y_vars='Sales', size=7, aspect=0.8,kind = 'reg')

plt.savefig("pairplot.jpg")
plt.show()

Se observa la relación lineal entre las variables independientes con respecto a ventas, de tal forma que es posible estimar visualmente que la variable Newspaper tal vez tenga poco impacto en las ventas esto por la alta dispersión de los datos. Sin embargo participará en el modelo de regresión lineal múltiple.

Se observa también que la variable Web tiene poca correlación lineal con la variable Sales

Limpiar datos

Identificar variables independientes y dependiente

Quitar las primeras columnas y dejar TV Radio NewsPaper Web y Sales

print("Variables independientes ")
## Variables independientes
X_independientes = datos.iloc[:,2:6]
X_independientes
##         TV  Radio  Newspaper         Web
## 0    230.1   37.8       69.2  306.634752
## 1     44.5   39.3       45.1  302.653070
## 2     17.2   45.9       69.3   49.498908
## 3    151.5   41.3       58.5  257.816893
## 4    180.8   10.8       58.4  195.660076
## ..     ...    ...        ...         ...
## 195   38.2    3.7       13.8  248.841073
## 196   94.2    4.9        8.1  118.041856
## 197  177.0    9.3        6.4  213.274671
## 198  283.6   42.0       66.2  237.498063
## 199  232.1    8.6        8.7  151.990733
## 
## [200 rows x 4 columns]
print ("Variable dependiente")
## Variable dependiente
Y_dependiente = datos.iloc[:, 6:7]
Y_dependiente
##      Sales
## 0     22.1
## 1     10.4
## 2      9.3
## 3     18.5
## 4     12.9
## ..     ...
## 195    7.6
## 196    9.7
## 197   12.8
## 198   25.5
## 199   13.4
## 
## [200 rows x 1 columns]

Datos de entrenamiento y datos de validación

Se utiliza semilla 1280 (random_state=1280)

X_entrena,X_valida,Y_entrena,Y_valida = train_test_split(X_independientes, Y_dependiente,train_size=.70,  random_state=1280)

Datos de entrenamiento

print("Estructura de datos de entrenamiento... ", X_entrena.shape)
## Estructura de datos de entrenamiento...  (140, 4)
print(X_entrena)
##         TV  Radio  Newspaper         Web
## 64   131.1   42.8       28.9  124.382228
## 23   228.3   16.9       26.2   51.170073
## 153  171.3   39.7       37.7  155.016224
## 141  193.7   35.4       75.6  152.284937
## 67   139.3   14.5       10.2  207.661990
## ..     ...    ...        ...         ...
## 173  168.4    7.1       12.8  218.180829
## 49    66.9   11.7       36.8  205.253501
## 178  276.7    2.3       23.7  137.323772
## 3    151.5   41.3       58.5  257.816893
## 189   18.7   12.1       23.4  222.906951
## 
## [140 rows x 4 columns]
print(X_entrena[['TV']], X_entrena[['Radio']], X_entrena[['Newspaper']])
##         TV
## 64   131.1
## 23   228.3
## 153  171.3
## 141  193.7
## 67   139.3
## ..     ...
## 173  168.4
## 49    66.9
## 178  276.7
## 3    151.5
## 189   18.7
## 
## [140 rows x 1 columns]      Radio
## 64    42.8
## 23    16.9
## 153   39.7
## 141   35.4
## 67    14.5
## ..     ...
## 173    7.1
## 49    11.7
## 178    2.3
## 3     41.3
## 189   12.1
## 
## [140 rows x 1 columns]      Newspaper
## 64        28.9
## 23        26.2
## 153       37.7
## 141       75.6
## 67        10.2
## ..         ...
## 173       12.8
## 49        36.8
## 178       23.7
## 3         58.5
## 189       23.4
## 
## [140 rows x 1 columns]

Modelo de Regresión lineal múltiple

Se construye el modelo de regresión lineal mútiple

modelo_rm = LinearRegression()
 
modelo_rm.fit(X_entrena,Y_entrena)
 
LinearRegression()
In a Jupyter environment, please rerun this cell to show the HTML representation or trust the notebook.
On GitHub, the HTML representation is unable to render, please try loading this page with nbviewer.org.

Evaluación del modelo antes de predicciones

Se presentan los coeficientes, la intersección \(\beta_0\) y los coeficientes para cada variable independiente, \(\beta_1, \beta_2,\beta_3, \text{ y } \beta_4\)

print ("Intercepción o b0") 
## Intercepción o b0
b0 = modelo_rm.intercept_
print (b0)
## [2.3017274]
print ("Coeficientes: b1, b2, b3 y b4") 
# print (modelo_rm.coef_)
## Coeficientes: b1, b2, b3 y b4
b1 = modelo_rm.coef_[0, 0:1]
b2 = modelo_rm.coef_[0, 1:2]
b3 = modelo_rm.coef_[0, 2:3]
b4 = modelo_rm.coef_[0, 3:4]
print (b1, b2, b3, b4)
## [0.04502439] [0.18182572] [0.00821787] [0.00368824]

\[ Prediccion:\text { Y} = b_0 + b_1\cdot {x_1} + b_2\cdot{x_2} + b_3\cdot{x_3}+b_3\cdot{x_4} \]

\[ \text{Prediccion Sales} :\text { Y} = b_0 + b_1\cdot {TV} + b_2\cdot{Radio} + b_3\cdot{Newspaper}+b_3\cdot{Web} \]

R Square y R Square ajustado a a partir del modelo

Sobrepasa el 80% de tal forma que el el modelo SE ACEPTA por este criterio.

print(modelo_rm.score(X_entrena, Y_entrena))
## 0.887590751347877

Predicciones

Se hacen predicciones con los datos de validación

predicciones = modelo_rm.predict(X_valida)
print(predicciones[:-1])
## [[ 9.55723431]
##  [12.22096155]
##  [18.75777207]
##  [17.74093239]
##  [22.67903345]
##  [13.23346367]
##  [11.58367739]
##  [22.7844508 ]
##  [10.62122293]
##  [14.77458399]
##  [20.94992544]
##  [ 8.24858906]
##  [11.95793495]
##  [13.94551018]
##  [20.75351685]
##  [17.1563593 ]
##  [19.29232912]
##  [19.15642422]
##  [19.44242535]
##  [21.21665167]
##  [ 7.5524368 ]
##  [23.30141628]
##  [14.94766425]
##  [20.05523426]
##  [ 5.05880741]
##  [ 9.44816783]
##  [17.11356987]
##  [12.28246619]
##  [20.69413996]
##  [ 6.26821687]
##  [14.15794284]
##  [15.12820418]
##  [13.60742097]
##  [12.70617782]
##  [19.72037125]
##  [16.71849409]
##  [ 8.11050021]
##  [23.08575043]
##  [21.43804181]
##  [13.69342166]
##  [13.77165263]
##  [17.27021586]
##  [10.69785161]
##  [17.06691391]
##  [15.73054687]
##  [ 6.69859652]
##  [21.84767203]
##  [10.07156777]
##  [14.37706798]
##  [13.96959623]
##  [10.05622915]
##  [14.42757802]
##  [11.95725093]
##  [18.24664493]
##  [ 8.52085517]
##  [21.1916941 ]
##  [12.17401015]
##  [18.07041045]
##  [20.66284756]]
print(predicciones.shape)
## (60, 1)

Evaluar predicciones

Crear un data.frame llamado comparaciones a partir de la creación de un diccionario con los valores reales del conjunto de entrenamiento y las predicciones calculadas.

Se usa el type() para conocer el tipo de estructura de datos

Se usa el assign() para agregar columnas al df comparaciones

Se usa flatten().tolist() para convertir a una lista de una dimensión.

Al final se tiene un data.frame llamado comparaciones en donde las últimas columnas tienen los valores reales de ‘Sales’ y las predicciones en la variable ‘Predicho’.

print(type(X_valida))
# print(X_valida)
## <class 'pandas.core.frame.DataFrame'>
print(type(predicciones))
# print(predicciones)
## <class 'numpy.ndarray'>
comparaciones = pd.DataFrame(X_valida)
comparaciones = comparaciones.assign(Sales_Real = Y_valida)
comparaciones = comparaciones.assign(Predicho = predicciones.flatten().tolist())
print(comparaciones)
##         TV  Radio  Newspaper         Web  Sales_Real   Predicho
## 79   116.0    7.7       23.1  120.053504        11.0   9.557234
## 7    120.2   19.6       11.6  229.971459        13.2  12.220962
## 14   204.1   32.9       46.0  245.774960        19.0  18.757772
## 59   210.7   29.5        9.3  138.895554        18.4  17.740932
## 36   266.9   43.8        5.0   96.316829        25.4  22.679033
## 115   75.1   35.0       52.7  204.276714        12.6  13.233464
## 86    76.3   27.5       16.0  193.830894        12.0  11.583677
## 17   281.4   39.6       55.8   41.755313        24.4  22.784451
## 12    23.8   35.1       65.9   87.921085         9.2  10.621223
## 110  225.8    8.2       56.5   95.185762        13.4  14.774584
## 111  241.7   38.0       23.2  180.511528        21.8  20.949925
## 129   59.6   12.0       43.1  197.196554         9.7   8.248589
## 6     57.5   32.8       23.5  246.811598        11.8  11.957935
## 181  218.5    5.4       27.4  162.387486        12.2  13.945510
## 15   195.4   47.7       52.9  148.095134        22.4  20.753517
## 187  191.1   28.7       18.2  239.275713        17.3  17.156359
## 133  219.8   33.5       45.1  171.478018        19.6  19.292329
## 68   237.4   27.5       11.0  291.548597        18.9  19.156424
## 124  229.5   32.3       74.2   88.080721        19.7  19.442425
## 42   293.6   27.7        1.8  174.716820        20.7  21.216652
## 172   19.6   20.1       17.0  155.583662         7.6   7.552437
## 101  296.4   36.3      100.9   61.005251        23.8  23.301416
## 199  232.1    8.6        8.7  151.990733        13.4  14.947664
## 53   182.6   46.2       58.7  176.050052        21.2  20.055234
## 192   17.2    4.1       31.6  265.028644         5.9   5.058807
## 140   73.4   17.0       12.9  174.772137        10.9   9.448168
## 102  280.2   10.1       21.4   49.808451        14.8  17.113570
## 5      8.7   48.9       75.0   22.072395         7.2  12.282466
## 54   262.7   28.8       15.9  324.615179        20.2  20.694140
## 182   56.2    5.7       29.7   42.199287         8.7   6.268217
## 120  141.3   26.8       46.2   65.525461        15.5  14.157943
## 156   93.9   43.5       50.5   74.361939        15.3  15.128204
## 4    180.8   10.8       58.4  195.660076        12.9  13.607421
## 50   199.8    3.1       34.6  151.990733        11.4  12.706178
## 104  238.2   34.3        5.3  112.155489        20.7  19.720371
## 163  163.5   36.8        7.4   82.228794        18.0  16.718494
## 34    95.7    1.4        7.4  321.174609         9.5   8.110500
## 147  243.2   49.0       44.3  151.990733        25.4  23.085750
## 30   292.9   28.3       43.2  121.464347        21.4  21.438042
## 16    67.8   36.6      114.0  202.638903        12.5  13.693422
## 161   85.7   35.8       49.3  188.933530        13.3  13.771653
## 62   239.3   15.5       27.3  312.209555        15.7  17.270216
## 164  117.2   14.7        5.4  109.008763        11.9  10.697852
## 74   213.4   24.6       13.1  156.284261        17.0  17.066914
## 113  209.6   20.6       10.7   42.883796        15.9  15.730547
## 10    66.1    5.8       24.2   45.359029         8.6   6.698597
## 128  220.3   49.0        3.2  187.437060        24.7  21.847672
## 18    69.2   20.5       18.3  210.489910        11.3  10.071568
## 160  172.5   18.1       30.7  207.496801        14.4  14.377068
## 100  222.4    4.3       49.8  125.627143        11.7  13.969596
## 186  139.5    2.1       26.6  236.744035        10.3  10.056229
## 19   147.3   23.9       19.1  268.735384        14.6  14.427578
## 31   112.9   17.4       38.6  295.883989        11.9  11.957251
## 33   265.6   20.0        0.3   94.207255        17.4  18.246645
## 132    8.4   27.2        2.1  238.055219         5.7   8.520855
## 47   239.9   41.5       18.5  105.962913        23.2  21.191694
## 2     17.2   45.9       69.3   49.498908         9.3  12.174010
## 150  280.7   13.9       37.0   81.040617        16.1  18.070410
## 185  205.0   45.1       19.6  208.692690        22.6  20.662848
## 85   193.2   18.4       65.7  223.578793        15.2  15.710560

RMSE

rmse Root Mean Stándard Error (Root-mean-square deviation), este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.

La raiz del Error Cuadrático Medio (rmse) es una métrica que dice qué tan lejos están los valores predichos de los valores observados o reales en un análisis de regresión, en promedio. Se calcula como:

\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]

RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.

Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.

print('Mean Squared Error: MSE', metrics.mean_squared_error(Y_valida, predicciones))
## Mean Squared Error: MSE 2.3025937240512064
print('Root Mean Squared Error RMSE:', np.sqrt(metrics.mean_squared_error(Y_valida, predicciones)))
## Root Mean Squared Error RMSE: 1.5174299733599592

Graficar prediciones contra valores reales

Pendiente … …

Predicciones con datos nuevos

Se hacen predicciones con datos nuevos. Pendiente … …

Interpretación

Pendiente …

Con este modelo y con estos datos interprete lo siguiente:

Se han reunido una cantidad definida de datos que representan, de manera simulada, las inversiones que se han efectuado y por medio de las cuales es posible predecir el rumbo de las ventas y expedir conclusiones de acuerdo a los valores que se obtengan.

Se analizan 200 observaciones en este caso. Por otro lado, las variables de interés están conformadas por TV, Radio, Newspaper, Web y Sales.

Las variables de interés están nuevamente conformadas por dos campos, las independientes que son TV, Radio, Newspaper y Web. Mientras tanto, la única variable dependiente es Sales. Cabe señalar que, analizandolo a detalle, tiene sentido que una variable como Sales o Ventas sea dependiente de más de una o dos variables independientes, tal como puede llegar a suceder en un caso real.

Los datos de entrenamiento están en un 70% y los datos de validación en un 30%.

Solamente los porcentajes de los coeficientes de TV y Radio incluso sobrepasan el 90% de confiabilidad para hacer predicciones. Sin embargo, los porcentajes que corresponden de Newspaper y Web se quedan por debajo de la métric, lo que quiere decir que eventualmente serán mucho menos confiables que los otros.

Para el coeficiente de TV y Radio sobrepasan el 99.9% de confiabilidad, mientras tanto, el coeficiente de Newspaper corresponde a un 82% aproximadamente y para Web tenemos cerca de un 37%, bastante alejado de la marca que se ha interpuesto.

El valor es de 0.887590751347877. El modelo puede tomarse como valido debido a que el resultado a sobrepasado el 80%. El porcentaje del valor es cerca del 88.75%, esto significa que las variables independientes explican aproximadamente el 88.75% del valor de la variable dependiente (Sales).

El valor es de 1.5174299733599592. Esta es una cantidad que se refiere a la diferencia que puede haber entre los datos reales y los datos predichos a través del modelo en cuestión. Cabe señalar que el resultado arrojado es mayor que el caso de la semilla “2022”.

Generalmente el modelo de regresión lineal múltiple es el óptimo para casi cualquier modelo cientifico debido a la complejidad que representan estos y la prevalencia de más de 2 variables independientes. A diferencia de los demás modelos que se han visto, que solo trabajan con 2 variables independientes, este continua siendo el más práctico para estos datos.

Podemos basarnos a partir del valor que nos ha arrojado el RMSE, donde a simple vista podemos decir que la cantidad es realmente baja. Sin embargo, la cantidad es mucho más alta que en el anterior modelo realizado con la semilla “2022”, lo que significa que hay mayor margen de errror y no resulta tan confiable de la misma manera.

En Python el valor del RMSE es de 1.5174299733599592 y en R el valor es de 1.931155, por lo tanto Python es quien posee un menor RMSE, lo que a su vez significa que tiene una menor variabilidad o dispersión entre los datos reales y los predichos por el modelo de regresión lineal múltiple.

Bibliografía