Crear y evaluar un modelo de árbol de regresión para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad.
Los algoritmos de aprendizaje basados en árbol se consideran uno de los mejores y más utilizados métodos de aprendizaje supervisado. Potencian modelos predictivos con alta precisión, estabilidad y facilidad de interpretación.
Los árboles de clasificación y regresión son métodos que proporcionan modelos que satisfacen objetivos tanto predictivos como explicativos.
Algunas ventajas son su sencillez y la representación gráfica mediante árboles y, por otro, la definición de reglas de asociación entre variables que incluye expresiones de condición que permiten explicar las predicciones.
Se pueden usar para regresiones con variables dependientes que tienen valores numéricos continuos o para clasificaciones con variables categóricas.
Utilizar un árbol de regresión para crear un modelo explicativo y predictivo para una variable cuantitativa dependiente basada en variables explicativas independientes cuantitativas y cualitativas [@xlstatbyaddinsoft].
Un árbol de regresión consiste en hacer preguntas de tipo \(¿x_k < c?\) para cada una de las covariables, de esta forma el espacio de las covariables es divido en hiper-rectángulos (con el resultado de las condicionales) de las observaciones que queden dentro de un hiper-rectángulo tendrán el mismo valor estimado \(\hat{y}\) o \(Y\) .[@hernández2021]
Por otra parte, bajo el paradigma divide y vencerás, usando árboles de regresión y decisión y correspondientes reglas, el árbol representa el modelo similar a un diagrama de flujo en el que los nodos de decisión, los nodos de hoja y las ramas definen una serie de decisiones que se pueden usar para generar predicciones. Siguiendo las reglas se encuentran predicciones en la hoja final. [@lantz2013].
library(readr) # Para importar datos
library(dplyr) # Para filtrar
library(knitr) # Para datos tabulares
library(ggplot2) # Para visualizar
library(plotly)
library(caret) # Para particionar
library(Metrics) # Para determinar rmse
library(rpart) # Para árbol
library(rpart.plot) # Para árbol
datos <- read.csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv")
Son 200 registros tres variables independientes y una variable dependiente.
La variable dependiente o variable objetivo es Sales que deberá estar en función de la inversión que se hace en TV, Radio, Newspaper o Web.
str(datos)
## 'data.frame': 200 obs. of 7 variables:
## $ X.1 : int 1 2 3 4 5 6 7 8 9 10 ...
## $ X : int 1 2 3 4 5 6 7 8 9 10 ...
## $ TV : num 230.1 44.5 17.2 151.5 180.8 ...
## $ Radio : num 37.8 39.3 45.9 41.3 10.8 48.9 32.8 19.6 2.1 2.6 ...
## $ Newspaper: num 69.2 45.1 69.3 58.5 58.4 75 23.5 11.6 1 21.2 ...
## $ Web : num 306.6 302.7 49.5 257.8 195.7 ...
## $ Sales : num 22.1 10.4 9.3 18.5 12.9 7.2 11.8 13.2 4.8 10.6 ...
summary(datos)
## X.1 X TV Radio
## Min. : 1.00 Min. : 1.00 Min. : 0.70 Min. : 0.000
## 1st Qu.: 50.75 1st Qu.: 50.75 1st Qu.: 74.38 1st Qu.: 9.975
## Median :100.50 Median :100.50 Median :149.75 Median :22.900
## Mean :100.50 Mean :100.50 Mean :147.04 Mean :23.264
## 3rd Qu.:150.25 3rd Qu.:150.25 3rd Qu.:218.82 3rd Qu.:36.525
## Max. :200.00 Max. :200.00 Max. :296.40 Max. :49.600
## Newspaper Web Sales
## Min. : 0.30 Min. : 4.308 Min. : 1.60
## 1st Qu.: 12.75 1st Qu.: 99.049 1st Qu.:10.38
## Median : 25.75 Median :156.862 Median :12.90
## Mean : 30.55 Mean :159.587 Mean :14.02
## 3rd Qu.: 45.10 3rd Qu.:212.312 3rd Qu.:17.40
## Max. :114.00 Max. :358.247 Max. :27.00
Quitar las primeras columnas
datos <- select(datos, TV, Radio, Newspaper, Web, Sales)
kable(head(datos, 20), caption = "Primeros 20 registros")
| TV | Radio | Newspaper | Web | Sales |
|---|---|---|---|---|
| 230.1 | 37.8 | 69.2 | 306.63475 | 22.1 |
| 44.5 | 39.3 | 45.1 | 302.65307 | 10.4 |
| 17.2 | 45.9 | 69.3 | 49.49891 | 9.3 |
| 151.5 | 41.3 | 58.5 | 257.81689 | 18.5 |
| 180.8 | 10.8 | 58.4 | 195.66008 | 12.9 |
| 8.7 | 48.9 | 75.0 | 22.07240 | 7.2 |
| 57.5 | 32.8 | 23.5 | 246.81160 | 11.8 |
| 120.2 | 19.6 | 11.6 | 229.97146 | 13.2 |
| 8.6 | 2.1 | 1.0 | 144.61739 | 4.8 |
| 199.8 | 2.6 | 21.2 | 111.27226 | 10.6 |
| 66.1 | 5.8 | 24.2 | 45.35903 | 8.6 |
| 214.7 | 24.0 | 4.0 | 164.97176 | 17.4 |
| 23.8 | 35.1 | 65.9 | 87.92109 | 9.2 |
| 97.5 | 7.6 | 7.2 | 173.65804 | 9.7 |
| 204.1 | 32.9 | 46.0 | 245.77496 | 19.0 |
| 195.4 | 47.7 | 52.9 | 148.09513 | 22.4 |
| 67.8 | 36.6 | 114.0 | 202.63890 | 12.5 |
| 281.4 | 39.6 | 55.8 | 41.75531 | 24.4 |
| 69.2 | 20.5 | 18.3 | 210.48991 | 11.3 |
| 147.3 | 23.9 | 19.1 | 268.73538 | 14.6 |
kable(tail(datos, 20), caption = "Últimos 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 181 | 156.6 | 2.6 | 8.3 | 122.11647 | 10.5 |
| 182 | 218.5 | 5.4 | 27.4 | 162.38749 | 12.2 |
| 183 | 56.2 | 5.7 | 29.7 | 42.19929 | 8.7 |
| 184 | 287.6 | 43.0 | 71.8 | 154.30972 | 26.2 |
| 185 | 253.8 | 21.3 | 30.0 | 181.57905 | 17.6 |
| 186 | 205.0 | 45.1 | 19.6 | 208.69269 | 22.6 |
| 187 | 139.5 | 2.1 | 26.6 | 236.74404 | 10.3 |
| 188 | 191.1 | 28.7 | 18.2 | 239.27571 | 17.3 |
| 189 | 286.0 | 13.9 | 3.7 | 151.99073 | 15.9 |
| 190 | 18.7 | 12.1 | 23.4 | 222.90695 | 6.7 |
| 191 | 39.5 | 41.1 | 5.8 | 219.89058 | 10.8 |
| 192 | 75.5 | 10.8 | 6.0 | 301.48119 | 9.9 |
| 193 | 17.2 | 4.1 | 31.6 | 265.02864 | 5.9 |
| 194 | 166.8 | 42.0 | 3.6 | 192.24621 | 19.6 |
| 195 | 149.7 | 35.6 | 6.0 | 99.57998 | 17.3 |
| 196 | 38.2 | 3.7 | 13.8 | 248.84107 | 7.6 |
| 197 | 94.2 | 4.9 | 8.1 | 118.04186 | 9.7 |
| 198 | 177.0 | 9.3 | 6.4 | 213.27467 | 12.8 |
| 199 | 283.6 | 42.0 | 66.2 | 237.49806 | 25.5 |
| 200 | 232.1 | 8.6 | 8.7 | 151.99073 | 13.4 |
n <- nrow(datos)
# Modificar la semilla estableciendo como parámetro los útimos cuatro dígitos de su no de control.
# Ej. set.seed(0732), o set.seed(1023)
# set.seed(1280)
set.seed(1280)
De manera aleatoria se construyen los datos de entrenamiento y los datos de validación.
En la variable entrena se generan los registros que van a ser los datos de entrenamiento, de tal forma que los datos de validación serán los que no sena de entrenamiento [-entrena].
entrena <- createDataPartition(y = datos$Sales, p = 0.70, list = FALSE, times = 1)
# Datos entrenamiento
datos.entrenamiento <- datos[entrena, ] # [renglones, columna]
# Datos validación
datos.validacion <- datos[-entrena, ]
kable(head(datos.entrenamiento, 20), caption = "Datos de Entrenamiento. Primeros 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 2 | 44.5 | 39.3 | 45.1 | 302.65307 | 10.4 |
| 3 | 17.2 | 45.9 | 69.3 | 49.49891 | 9.3 |
| 4 | 151.5 | 41.3 | 58.5 | 257.81689 | 18.5 |
| 6 | 8.7 | 48.9 | 75.0 | 22.07240 | 7.2 |
| 8 | 120.2 | 19.6 | 11.6 | 229.97146 | 13.2 |
| 9 | 8.6 | 2.1 | 1.0 | 144.61739 | 4.8 |
| 10 | 199.8 | 2.6 | 21.2 | 111.27226 | 10.6 |
| 11 | 66.1 | 5.8 | 24.2 | 45.35903 | 8.6 |
| 12 | 214.7 | 24.0 | 4.0 | 164.97176 | 17.4 |
| 13 | 23.8 | 35.1 | 65.9 | 87.92109 | 9.2 |
| 14 | 97.5 | 7.6 | 7.2 | 173.65804 | 9.7 |
| 15 | 204.1 | 32.9 | 46.0 | 245.77496 | 19.0 |
| 16 | 195.4 | 47.7 | 52.9 | 148.09513 | 22.4 |
| 17 | 67.8 | 36.6 | 114.0 | 202.63890 | 12.5 |
| 18 | 281.4 | 39.6 | 55.8 | 41.75531 | 24.4 |
| 19 | 69.2 | 20.5 | 18.3 | 210.48991 | 11.3 |
| 21 | 218.4 | 27.7 | 53.4 | 59.96055 | 18.0 |
| 22 | 237.4 | 5.1 | 23.5 | 296.95207 | 12.5 |
| 23 | 13.2 | 15.9 | 49.6 | 219.88278 | 5.6 |
| 24 | 228.3 | 16.9 | 26.2 | 51.17007 | 15.5 |
kable(tail(datos.entrenamiento, 20), caption = "Datos de entrenamiento ültimos 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 177 | 248.4 | 30.2 | 20.3 | 163.85204 | 20.2 |
| 178 | 170.2 | 7.8 | 35.2 | 104.91734 | 11.7 |
| 179 | 276.7 | 2.3 | 23.7 | 137.32377 | 11.8 |
| 180 | 165.6 | 10.0 | 17.6 | 151.99073 | 12.6 |
| 181 | 156.6 | 2.6 | 8.3 | 122.11647 | 10.5 |
| 182 | 218.5 | 5.4 | 27.4 | 162.38749 | 12.2 |
| 183 | 56.2 | 5.7 | 29.7 | 42.19929 | 8.7 |
| 184 | 287.6 | 43.0 | 71.8 | 154.30972 | 26.2 |
| 185 | 253.8 | 21.3 | 30.0 | 181.57905 | 17.6 |
| 186 | 205.0 | 45.1 | 19.6 | 208.69269 | 22.6 |
| 187 | 139.5 | 2.1 | 26.6 | 236.74404 | 10.3 |
| 188 | 191.1 | 28.7 | 18.2 | 239.27571 | 17.3 |
| 189 | 286.0 | 13.9 | 3.7 | 151.99073 | 15.9 |
| 190 | 18.7 | 12.1 | 23.4 | 222.90695 | 6.7 |
| 191 | 39.5 | 41.1 | 5.8 | 219.89058 | 10.8 |
| 194 | 166.8 | 42.0 | 3.6 | 192.24621 | 19.6 |
| 196 | 38.2 | 3.7 | 13.8 | 248.84107 | 7.6 |
| 197 | 94.2 | 4.9 | 8.1 | 118.04186 | 9.7 |
| 198 | 177.0 | 9.3 | 6.4 | 213.27467 | 12.8 |
| 199 | 283.6 | 42.0 | 66.2 | 237.49806 | 25.5 |
Los datos de validación deben ser diferentes a los datos den entrenamiento.
kable(head(datos.validacion, 20), caption = "Datos de Validación Primeros 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 1 | 230.1 | 37.8 | 69.2 | 306.6348 | 22.1 |
| 5 | 180.8 | 10.8 | 58.4 | 195.6601 | 12.9 |
| 7 | 57.5 | 32.8 | 23.5 | 246.8116 | 11.8 |
| 20 | 147.3 | 23.9 | 19.1 | 268.7354 | 14.6 |
| 31 | 292.9 | 28.3 | 43.2 | 121.4643 | 21.4 |
| 35 | 95.7 | 1.4 | 7.4 | 321.1746 | 9.5 |
| 43 | 293.6 | 27.7 | 1.8 | 174.7168 | 20.7 |
| 51 | 199.8 | 3.1 | 34.6 | 151.9907 | 11.4 |
| 53 | 216.4 | 41.7 | 39.6 | 161.8025 | 22.6 |
| 54 | 182.6 | 46.2 | 58.7 | 176.0501 | 21.2 |
| 64 | 102.7 | 29.6 | 8.4 | 183.0097 | 14.0 |
| 66 | 69.0 | 9.3 | 0.9 | 205.9935 | 9.3 |
| 67 | 31.5 | 24.6 | 2.2 | 216.4714 | 9.5 |
| 73 | 26.8 | 33.0 | 19.3 | 211.9909 | 8.8 |
| 77 | 27.5 | 1.6 | 20.7 | 117.1019 | 6.9 |
| 80 | 116.0 | 7.7 | 23.1 | 120.0535 | 11.0 |
| 88 | 110.7 | 40.6 | 63.2 | 107.4305 | 16.0 |
| 89 | 88.3 | 25.5 | 73.4 | 260.1019 | 12.9 |
| 90 | 109.8 | 47.8 | 51.4 | 162.7279 | 16.7 |
| 97 | 197.6 | 3.5 | 5.9 | 139.8305 | 11.7 |
kable(tail(datos.validacion, 20), caption = "Datos de validació últimos 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 151 | 280.7 | 13.9 | 37.0 | 81.04062 | 16.1 |
| 152 | 121.0 | 8.4 | 48.7 | 103.25521 | 11.6 |
| 154 | 171.3 | 39.7 | 37.7 | 155.01622 | 19.0 |
| 159 | 11.7 | 36.9 | 45.2 | 185.86608 | 7.3 |
| 160 | 131.7 | 18.4 | 34.6 | 196.37030 | 12.9 |
| 161 | 172.5 | 18.1 | 30.7 | 207.49680 | 14.4 |
| 162 | 85.7 | 35.8 | 49.3 | 188.93353 | 13.3 |
| 164 | 163.5 | 36.8 | 7.4 | 82.22879 | 18.0 |
| 167 | 17.9 | 37.6 | 21.6 | 99.93695 | 8.0 |
| 168 | 206.8 | 5.2 | 19.4 | 115.37196 | 12.2 |
| 169 | 215.4 | 23.6 | 57.6 | 203.43127 | 17.1 |
| 170 | 284.3 | 10.6 | 6.4 | 157.90011 | 15.0 |
| 173 | 19.6 | 20.1 | 17.0 | 155.58366 | 7.6 |
| 174 | 168.4 | 7.1 | 12.8 | 218.18083 | 11.7 |
| 175 | 222.4 | 3.4 | 13.1 | 144.52566 | 11.5 |
| 176 | 276.9 | 48.9 | 41.8 | 151.99073 | 27.0 |
| 192 | 75.5 | 10.8 | 6.0 | 301.48119 | 9.9 |
| 193 | 17.2 | 4.1 | 31.6 | 265.02864 | 5.9 |
| 195 | 149.7 | 35.6 | 6.0 | 99.57998 | 17.3 |
| 200 | 232.1 | 8.6 | 8.7 | 151.99073 | 13.4 |
Se construye el modelo con la función rpart
modelo_ar <- rpart(data = datos.entrenamiento,formula = Sales ~ TV + Radio + Newspaper + Web )
modelo_ar
## n= 142
##
## node), split, n, deviance, yval
## * denotes terminal node
##
## 1) root 142 3969.314000 14.110560
## 2) TV< 120.35 56 379.114300 9.578571
## 4) TV< 32.75 17 44.602350 6.652941 *
## 5) TV>=32.75 39 125.576900 10.853850
## 10) Radio< 13.3 16 12.349370 9.293750 *
## 11) Radio>=13.3 23 47.194780 11.939130 *
## 3) TV>=120.35 86 1691.063000 17.061630
## 6) Radio< 26.95 45 207.076400 13.691110
## 12) Radio< 10.05 21 19.722860 11.771430 *
## 13) Radio>=10.05 24 42.249580 15.370830 *
## 7) Radio>=26.95 41 411.677600 20.760980
## 14) TV< 193.25 11 29.949090 17.109090 *
## 15) TV>=193.25 30 181.240000 22.100000
## 30) Radio< 35.3 11 9.727273 19.345450 *
## 31) Radio>=35.3 19 39.729470 23.694740 *
summary(modelo_ar)
## Call:
## rpart(formula = Sales ~ TV + Radio + Newspaper + Web, data = datos.entrenamiento)
## n= 142
##
## CP nsplit rel error xerror xstd
## 1 0.47845457 0 1.00000000 1.0147963 0.10352830
## 2 0.27014979 1 0.52154543 0.6201171 0.05939447
## 3 0.05263756 2 0.25139564 0.3664355 0.04297324
## 4 0.05050960 3 0.19875809 0.2713993 0.02783907
## 5 0.03655644 4 0.14824849 0.2497811 0.02616886
## 6 0.03320051 5 0.11169204 0.1872608 0.01914090
## 7 0.01663581 6 0.07849153 0.1513761 0.01705254
## 8 0.01000000 7 0.06185572 0.1290389 0.01490575
##
## Variable importance
## TV Radio Web Newspaper
## 50 31 10 9
##
## Node number 1: 142 observations, complexity param=0.4784546
## mean=14.11056, MSE=27.95292
## left son=2 (56 obs) right son=3 (86 obs)
## Primary splits:
## TV < 120.35 to the left, improve=0.47845460, (0 missing)
## Radio < 28.6 to the left, improve=0.35818120, (0 missing)
## Newspaper < 50.85 to the left, improve=0.10265430, (0 missing)
## Web < 146.8313 to the left, improve=0.02979031, (0 missing)
## Surrogate splits:
## Radio < 1.7 to the left, agree=0.634, adj=0.071, (0 split)
## Web < 49.65368 to the left, agree=0.634, adj=0.071, (0 split)
## Newspaper < 2.25 to the left, agree=0.613, adj=0.018, (0 split)
##
## Node number 2: 56 observations, complexity param=0.05263756
## mean=9.578571, MSE=6.769898
## left son=4 (17 obs) right son=5 (39 obs)
## Primary splits:
## TV < 32.75 to the left, improve=0.55111350, (0 missing)
## Radio < 35.85 to the left, improve=0.16870950, (0 missing)
## Newspaper < 30.85 to the left, improve=0.06949999, (0 missing)
## Web < 47.42897 to the left, improve=0.05450405, (0 missing)
## Surrogate splits:
## Newspaper < 47.65 to the right, agree=0.75, adj=0.176, (0 split)
## Web < 30.64477 to the left, agree=0.75, adj=0.176, (0 split)
##
## Node number 3: 86 observations, complexity param=0.2701498
## mean=17.06163, MSE=19.66353
## left son=6 (45 obs) right son=7 (41 obs)
## Primary splits:
## Radio < 26.95 to the left, improve=0.63410360, (0 missing)
## TV < 194.3 to the left, improve=0.20555000, (0 missing)
## Newspaper < 50.55 to the left, improve=0.17013390, (0 missing)
## Web < 146.8313 to the left, improve=0.03402951, (0 missing)
## Surrogate splits:
## Newspaper < 31.8 to the left, agree=0.686, adj=0.341, (0 split)
## Web < 182.7765 to the left, agree=0.605, adj=0.171, (0 split)
## TV < 189.75 to the left, agree=0.593, adj=0.146, (0 split)
##
## Node number 4: 17 observations
## mean=6.652941, MSE=2.623668
##
## Node number 5: 39 observations, complexity param=0.01663581
## mean=10.85385, MSE=3.219921
## left son=10 (16 obs) right son=11 (23 obs)
## Primary splits:
## Radio < 13.3 to the left, improve=0.52583520, (0 missing)
## TV < 67.35 to the left, improve=0.27654470, (0 missing)
## Newspaper < 30.85 to the left, improve=0.19654250, (0 missing)
## Web < 233.4161 to the right, improve=0.07894701, (0 missing)
## Surrogate splits:
## Web < 50.94763 to the left, agree=0.692, adj=0.250, (0 split)
## TV < 67.35 to the left, agree=0.641, adj=0.125, (0 split)
## Newspaper < 30.85 to the left, agree=0.641, adj=0.125, (0 split)
##
## Node number 6: 45 observations, complexity param=0.03655644
## mean=13.69111, MSE=4.601699
## left son=12 (21 obs) right son=13 (24 obs)
## Primary splits:
## Radio < 10.05 to the left, improve=0.70072680, (0 missing)
## TV < 172.65 to the left, improve=0.24112190, (0 missing)
## Web < 101.003 to the right, improve=0.07227014, (0 missing)
## Newspaper < 14.9 to the right, improve=0.02571062, (0 missing)
## Surrogate splits:
## Web < 101.003 to the right, agree=0.667, adj=0.286, (0 split)
## TV < 172.65 to the left, agree=0.600, adj=0.143, (0 split)
## Newspaper < 5.2 to the right, agree=0.556, adj=0.048, (0 split)
##
## Node number 7: 41 observations, complexity param=0.0505096
## mean=20.76098, MSE=10.04092
## left son=14 (11 obs) right son=15 (30 obs)
## Primary splits:
## TV < 193.25 to the left, improve=0.4870036, (0 missing)
## Radio < 35.45 to the left, improve=0.4820009, (0 missing)
## Web < 238.3869 to the right, improve=0.1153701, (0 missing)
## Newspaper < 54.05 to the left, improve=0.1151025, (0 missing)
## Surrogate splits:
## Web < 41.17783 to the left, agree=0.756, adj=0.091, (0 split)
##
## Node number 10: 16 observations
## mean=9.29375, MSE=0.7718359
##
## Node number 11: 23 observations
## mean=11.93913, MSE=2.051947
##
## Node number 12: 21 observations
## mean=11.77143, MSE=0.9391837
##
## Node number 13: 24 observations
## mean=15.37083, MSE=1.760399
##
## Node number 14: 11 observations
## mean=17.10909, MSE=2.722645
##
## Node number 15: 30 observations, complexity param=0.03320051
## mean=22.1, MSE=6.041333
## left son=30 (11 obs) right son=31 (19 obs)
## Primary splits:
## Radio < 35.3 to the left, improve=0.7271201, (0 missing)
## TV < 264.8 to the left, improve=0.2901749, (0 missing)
## Web < 209.7224 to the right, improve=0.1137994, (0 missing)
## Newspaper < 54.05 to the left, improve=0.1118310, (0 missing)
## Surrogate splits:
## Web < 241.6365 to the right, agree=0.8, adj=0.455, (0 split)
## Newspaper < 17.2 to the left, agree=0.7, adj=0.182, (0 split)
##
## Node number 30: 11 observations
## mean=19.34545, MSE=0.8842975
##
## Node number 31: 19 observations
## mean=23.69474, MSE=2.091025
rpart.plot(modelo_ar)
predicciones <- predict(object = modelo_ar, newdata = datos.validacion)
Construir un data frame para comparar y luego evaluar
comparaciones <- data.frame(datos.validacion, predicciones)
comparaciones
## TV Radio Newspaper Web Sales predicciones
## 1 230.1 37.8 69.2 306.634752 22.1 23.694737
## 5 180.8 10.8 58.4 195.660076 12.9 15.370833
## 7 57.5 32.8 23.5 246.811598 11.8 11.939130
## 20 147.3 23.9 19.1 268.735384 14.6 15.370833
## 31 292.9 28.3 43.2 121.464347 21.4 19.345455
## 35 95.7 1.4 7.4 321.174609 9.5 9.293750
## 43 293.6 27.7 1.8 174.716820 20.7 19.345455
## 51 199.8 3.1 34.6 151.990733 11.4 11.771429
## 53 216.4 41.7 39.6 161.802512 22.6 23.694737
## 54 182.6 46.2 58.7 176.050052 21.2 17.109091
## 64 102.7 29.6 8.4 183.009750 14.0 11.939130
## 66 69.0 9.3 0.9 205.993485 9.3 9.293750
## 67 31.5 24.6 2.2 216.471397 9.5 6.652941
## 73 26.8 33.0 19.3 211.990907 8.8 6.652941
## 77 27.5 1.6 20.7 117.101925 6.9 6.652941
## 80 116.0 7.7 23.1 120.053504 11.0 9.293750
## 88 110.7 40.6 63.2 107.430521 16.0 11.939130
## 89 88.3 25.5 73.4 260.101928 12.9 11.939130
## 90 109.8 47.8 51.4 162.727890 16.7 11.939130
## 97 197.6 3.5 5.9 139.830544 11.7 11.771429
## 101 222.4 4.3 49.8 125.627143 11.7 11.771429
## 110 255.4 26.9 5.5 273.454125 19.8 15.370833
## 114 209.6 20.6 10.7 42.883796 15.9 15.370833
## 116 75.1 35.0 52.7 204.276714 12.6 11.939130
## 118 76.4 0.8 14.8 234.384501 9.4 9.293750
## 119 125.7 36.9 79.2 187.840415 15.9 17.109091
## 125 229.5 32.3 74.2 88.080721 19.7 19.345455
## 126 87.2 11.8 25.9 121.090982 10.6 9.293750
## 127 7.8 38.9 50.6 209.471977 6.6 6.652941
## 131 0.7 39.6 8.7 162.902591 1.6 6.652941
## 134 219.8 33.5 45.1 171.478018 19.6 19.345455
## 137 25.6 39.0 9.3 77.230797 9.5 6.652941
## 139 43.0 25.9 20.5 181.368740 9.6 11.939130
## 140 184.9 43.9 1.7 106.253829 20.7 17.109091
## 142 193.7 35.4 75.6 152.284937 19.2 23.694737
## 143 220.5 33.2 37.9 6.007436 20.1 19.345455
## 147 240.1 7.3 8.7 23.496943 13.2 11.771429
## 149 38.0 40.3 11.9 75.207978 10.9 11.939130
## 151 280.7 13.9 37.0 81.040617 16.1 15.370833
## 152 121.0 8.4 48.7 103.255212 11.6 11.771429
## 154 171.3 39.7 37.7 155.016224 19.0 17.109091
## 159 11.7 36.9 45.2 185.866079 7.3 6.652941
## 160 131.7 18.4 34.6 196.370304 12.9 15.370833
## 161 172.5 18.1 30.7 207.496801 14.4 15.370833
## 162 85.7 35.8 49.3 188.933530 13.3 11.939130
## 164 163.5 36.8 7.4 82.228794 18.0 17.109091
## 167 17.9 37.6 21.6 99.936953 8.0 6.652941
## 168 206.8 5.2 19.4 115.371957 12.2 11.771429
## 169 215.4 23.6 57.6 203.431267 17.1 15.370833
## 170 284.3 10.6 6.4 157.900110 15.0 15.370833
## 173 19.6 20.1 17.0 155.583662 7.6 6.652941
## 174 168.4 7.1 12.8 218.180829 11.7 11.771429
## 175 222.4 3.4 13.1 144.525662 11.5 11.771429
## 176 276.9 48.9 41.8 151.990733 27.0 23.694737
## 192 75.5 10.8 6.0 301.481194 9.9 9.293750
## 193 17.2 4.1 31.6 265.028644 5.9 6.652941
## 195 149.7 35.6 6.0 99.579981 17.3 17.109091
## 200 232.1 8.6 8.7 151.990733 13.4 11.771429
Este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.
La raiz del Error Cuadrático Medio (rmse) es una métrica que dice qué tan lejos están los valores predichos de los valores observados o reales en un análisis de regresión, en promedio. Se calcula como:
\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]
RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.
Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.
Se compara este valor de rmse con respecto al modelo de regresión múltiple
Con este modelo de árbol de regresión, los mismos datos, mismas particiones se tuvo un valor de 1.455681 por lo que se puede interpretar que este modelo de regresión fué mejor con respecto a la métrica rmse con respecto al modelo de regresión múltiple que tuvo un valor de 1.543975.
rmse <- rmse(actual = comparaciones$Sales, predicted = comparaciones$predicciones)
rmse
## [1] 1.982506
ggplot(data = comparaciones) +
geom_line(aes(x = 1:nrow(comparaciones), y = Sales), col='blue') +
geom_line(aes(x = 1:nrow(comparaciones), y = predicciones), col='yellow') +
ggtitle(label="Valores reales vs predichos Adverstising", subtitle = "Arbol de Regresión")
TV <- c(140, 160)
Radio <- c(60, 40)
Newspaper <- c(80, 90)
Web <- c(120, 145)
nuevos <- data.frame(TV, Radio, Newspaper, Web)
nuevos
## TV Radio Newspaper Web
## 1 140 60 80 120
## 2 160 40 90 145
Y.predicciones <- predict(object = modelo_ar, newdata = nuevos)
Y.predicciones
## 1 2
## 17.10909 17.10909
Con este modelo y con estos datos interprete lo siguiente:
Este caso tiene como objetivo crear y evaluar un modelo de árbol de regresión para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad. Cabe señalar que los datos que se manejan en el documento representan las inversiones realizadas por parte del departamento de publicidad, por ende se consideran los datos reales.
Se analizan 200 observaciones según los datos del documento. Además se trabaja con 4 variables independientes y 1 variable dependiente.
La variables dependiente es “Sales” y las variables independientes están conformadas por “Web”, “Radio”, “TV” y “Newspaper”.
Los datos de entrenamiento se encuentran en un 70% y los datos de validación en un 30%.
El valor es de 1.982506. Es una cantidad relativamente baja. Este concepto indica la diferencia que existe entre los datos predichos y los reales. Será necesario establecer una comparación con otro modelo o apelar a un criterio establecido con respecto al RMSE.
Posiblemente, sin embargo, el modelo de árbol de regresión es un muy buen candidato para lidiar con casos donde intervienen más de dos variables y encima determinar cuál variable independiente tiene mayor impacto sobre la variable dependiente.
Tan confiables como lo puede determinar el valor del RMSE que se ha obtenido, siendo de 1.982506. El valor no es demasiado alto, no obstante, no se puede concluir nada hasta no haberlo comparado con otro modelo.
El modelo realizado en lenguaje R tiene un valor de 1.982506 y en python un valor de 2.3819081083379596, por lo tanto R posee un RMSE menor, esto significa que el modelo que es más efectivo en términos de predicción de los datos es el del lenguaje R. El resultado ha sido así debido a que el indice que denota la diferencia que existe entre los datos predichos y los reales es un poco menor en R.
Por otra parte he de mencionar mis impresiones finales de este modelo. Me parece que tiene una característica muy peculiar e interesante, que además puede ponerle incluso por encima de los otros modelos, por ejemplo, el de regresión lineal múltiple y regresión polinomial, me refiero a la función que ofrece con respecto a determianr y ordenar el grado de importancia o impacto que tiene cada una de las variables independientes sobre la variable dependiente. En este caso fue la variable “TV” la que tiene mayor importancia. Aunque es un modelo bastante práctico, creo que la efectividad de un modelo depende más que nada de la naturaleza de los datos que analiza, esto junto con todas sus características, tales como: relaciones, procedencia, aplicaciones, etc.