1 Objetivo

Crear y evaluar un modelo de árbol de regresión para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad.

2 Descripción

  • Cargar librerías y datos
  • Limpiar datos si es necesario
  • Explorar datos
  • Partir los datos en datos de entrenamiento y datos de validación 70% y 30%
  • Crear modelo de árbol de regresión con los datos de entrenamiento
  • Hacer Predicciones con datos de validación
  • Evaluar predicciones
  • Determinar el estadístico rmse para evaluar con respecto a otros modelos
  • Interpretar el caso

3 Fundamento teórico

Los algoritmos de aprendizaje basados en árbol se consideran uno de los mejores y más utilizados métodos de aprendizaje supervisado. Potencian modelos predictivos con alta precisión, estabilidad y facilidad de interpretación.

Los árboles de clasificación y regresión son métodos que proporcionan modelos que satisfacen objetivos tanto predictivos como explicativos.

Algunas ventajas son su sencillez y la representación gráfica mediante árboles y, por otro, la definición de reglas de asociación entre variables que incluye expresiones de condición que permiten explicar las predicciones.

Se pueden usar para regresiones con variables dependientes que tienen valores numéricos continuos o para clasificaciones con variables categóricas.

Utilizar un árbol de regresión para crear un modelo explicativo y predictivo para una variable cuantitativa dependiente basada en variables explicativas independientes cuantitativas y cualitativas [@xlstatbyaddinsoft].

Un árbol de regresión consiste en hacer preguntas de tipo \(¿x_k < c?\) para cada una de las covariables, de esta forma el espacio de las covariables es divido en hiper-rectángulos (con el resultado de las condicionales) de las observaciones que queden dentro de un hiper-rectángulo tendrán el mismo valor estimado \(\hat{y}\) o \(Y\) .[@hernández2021]

Por otra parte, bajo el paradigma divide y vencerás, usando árboles de regresión y decisión y correspondientes reglas, el árbol representa el modelo similar a un diagrama de flujo en el que los nodos de decisión, los nodos de hoja y las ramas definen una serie de decisiones que se pueden usar para generar predicciones. Siguiendo las reglas se encuentran predicciones en la hoja final. [@lantz2013].

4 Desarrollo

4.1 Cargar librerías

library(readr) # Para importar datos
library(dplyr) # Para filtrar   
library(knitr) # Para datos tabulares
library(ggplot2) # Para visualizar
library(plotly)
library(caret)  # Para particionar
library(Metrics) # Para determinar rmse
library(rpart) # Para árbol
library(rpart.plot) # Para árbol

4.2 Cargar datos

datos <- read.csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv")

4.3 Explorar datos

Son 200 registros tres variables independientes y una variable dependiente.

La variable dependiente o variable objetivo es Sales que deberá estar en función de la inversión que se hace en TV, Radio, Newspaper o Web.

str(datos)
## 'data.frame':    200 obs. of  7 variables:
##  $ X.1      : int  1 2 3 4 5 6 7 8 9 10 ...
##  $ X        : int  1 2 3 4 5 6 7 8 9 10 ...
##  $ TV       : num  230.1 44.5 17.2 151.5 180.8 ...
##  $ Radio    : num  37.8 39.3 45.9 41.3 10.8 48.9 32.8 19.6 2.1 2.6 ...
##  $ Newspaper: num  69.2 45.1 69.3 58.5 58.4 75 23.5 11.6 1 21.2 ...
##  $ Web      : num  306.6 302.7 49.5 257.8 195.7 ...
##  $ Sales    : num  22.1 10.4 9.3 18.5 12.9 7.2 11.8 13.2 4.8 10.6 ...
summary(datos)
##       X.1               X                TV             Radio       
##  Min.   :  1.00   Min.   :  1.00   Min.   :  0.70   Min.   : 0.000  
##  1st Qu.: 50.75   1st Qu.: 50.75   1st Qu.: 74.38   1st Qu.: 9.975  
##  Median :100.50   Median :100.50   Median :149.75   Median :22.900  
##  Mean   :100.50   Mean   :100.50   Mean   :147.04   Mean   :23.264  
##  3rd Qu.:150.25   3rd Qu.:150.25   3rd Qu.:218.82   3rd Qu.:36.525  
##  Max.   :200.00   Max.   :200.00   Max.   :296.40   Max.   :49.600  
##    Newspaper           Web              Sales      
##  Min.   :  0.30   Min.   :  4.308   Min.   : 1.60  
##  1st Qu.: 12.75   1st Qu.: 99.049   1st Qu.:10.38  
##  Median : 25.75   Median :156.862   Median :12.90  
##  Mean   : 30.55   Mean   :159.587   Mean   :14.02  
##  3rd Qu.: 45.10   3rd Qu.:212.312   3rd Qu.:17.40  
##  Max.   :114.00   Max.   :358.247   Max.   :27.00

4.3.1 Limpiar datos

Quitar las primeras columnas

datos <- select(datos, TV, Radio, Newspaper, Web, Sales)

4.3.2 head(datos)

kable(head(datos, 20), caption = "Primeros 20 registros")
Primeros 20 registros
TV Radio Newspaper Web Sales
230.1 37.8 69.2 306.63475 22.1
44.5 39.3 45.1 302.65307 10.4
17.2 45.9 69.3 49.49891 9.3
151.5 41.3 58.5 257.81689 18.5
180.8 10.8 58.4 195.66008 12.9
8.7 48.9 75.0 22.07240 7.2
57.5 32.8 23.5 246.81160 11.8
120.2 19.6 11.6 229.97146 13.2
8.6 2.1 1.0 144.61739 4.8
199.8 2.6 21.2 111.27226 10.6
66.1 5.8 24.2 45.35903 8.6
214.7 24.0 4.0 164.97176 17.4
23.8 35.1 65.9 87.92109 9.2
97.5 7.6 7.2 173.65804 9.7
204.1 32.9 46.0 245.77496 19.0
195.4 47.7 52.9 148.09513 22.4
67.8 36.6 114.0 202.63890 12.5
281.4 39.6 55.8 41.75531 24.4
69.2 20.5 18.3 210.48991 11.3
147.3 23.9 19.1 268.73538 14.6

4.3.3 tail(datos)

kable(tail(datos, 20), caption = "Últimos 20 registros")
Últimos 20 registros
TV Radio Newspaper Web Sales
181 156.6 2.6 8.3 122.11647 10.5
182 218.5 5.4 27.4 162.38749 12.2
183 56.2 5.7 29.7 42.19929 8.7
184 287.6 43.0 71.8 154.30972 26.2
185 253.8 21.3 30.0 181.57905 17.6
186 205.0 45.1 19.6 208.69269 22.6
187 139.5 2.1 26.6 236.74404 10.3
188 191.1 28.7 18.2 239.27571 17.3
189 286.0 13.9 3.7 151.99073 15.9
190 18.7 12.1 23.4 222.90695 6.7
191 39.5 41.1 5.8 219.89058 10.8
192 75.5 10.8 6.0 301.48119 9.9
193 17.2 4.1 31.6 265.02864 5.9
194 166.8 42.0 3.6 192.24621 19.6
195 149.7 35.6 6.0 99.57998 17.3
196 38.2 3.7 13.8 248.84107 7.6
197 94.2 4.9 8.1 118.04186 9.7
198 177.0 9.3 6.4 213.27467 12.8
199 283.6 42.0 66.2 237.49806 25.5
200 232.1 8.6 8.7 151.99073 13.4

4.4 Datos de entrenamiento y validación

4.4.1 Datos de entrenamiento

n <- nrow(datos)
# Modificar la semilla estableciendo como parámetro los útimos cuatro dígitos de su no de control. 
# Ej. set.seed(0732), o set.seed(1023)
# set.seed(1321) 
set.seed(1321)

De manera aleatoria se construyen los datos de entrenamiento y los datos de validación.

En la variable entrena se generan los registros que van a ser los datos de entrenamiento, de tal forma que los datos de validación serán los que no sena de entrenamiento [-entrena].

entrena <- createDataPartition(y = datos$Sales, p = 0.70, list = FALSE, times = 1)
# Datos entrenamiento
datos.entrenamiento <- datos[entrena, ]  # [renglones, columna]
# Datos validación
datos.validacion <- datos[-entrena, ]

4.4.1.2 tail()

kable(tail(datos.entrenamiento, 20), caption = "Datos de entrenamiento ültimos 20 registros")
Datos de entrenamiento ültimos 20 registros
TV Radio Newspaper Web Sales
174 168.4 7.1 12.8 218.18083 11.7
175 222.4 3.4 13.1 144.52566 11.5
176 276.9 48.9 41.8 151.99073 27.0
177 248.4 30.2 20.3 163.85204 20.2
178 170.2 7.8 35.2 104.91734 11.7
181 156.6 2.6 8.3 122.11647 10.5
182 218.5 5.4 27.4 162.38749 12.2
183 56.2 5.7 29.7 42.19929 8.7
184 287.6 43.0 71.8 154.30972 26.2
186 205.0 45.1 19.6 208.69269 22.6
187 139.5 2.1 26.6 236.74404 10.3
188 191.1 28.7 18.2 239.27571 17.3
190 18.7 12.1 23.4 222.90695 6.7
191 39.5 41.1 5.8 219.89058 10.8
192 75.5 10.8 6.0 301.48119 9.9
194 166.8 42.0 3.6 192.24621 19.6
195 149.7 35.6 6.0 99.57998 17.3
198 177.0 9.3 6.4 213.27467 12.8
199 283.6 42.0 66.2 237.49806 25.5
200 232.1 8.6 8.7 151.99073 13.4

4.4.2 Datos de validación

Los datos de validación deben ser diferentes a los datos den entrenamiento.

4.4.2.1 head()

kable(head(datos.validacion, 20), caption = "Datos de Validación Primeros 20 registros")
Datos de Validación Primeros 20 registros
TV Radio Newspaper Web Sales
1 230.1 37.8 69.2 306.63475 22.1
4 151.5 41.3 58.5 257.81689 18.5
9 8.6 2.1 1.0 144.61739 4.8
13 23.8 35.1 65.9 87.92109 9.2
19 69.2 20.5 18.3 210.48991 11.3
29 248.8 27.1 22.9 318.64497 18.9
32 112.9 17.4 38.6 295.88399 11.9
35 95.7 1.4 7.4 321.17461 9.5
40 228.0 37.7 32.0 196.48327 21.5
44 206.9 8.4 26.4 213.60961 12.9
50 66.9 11.7 36.8 205.25350 9.7
52 100.4 9.6 3.6 41.33526 10.7
57 7.3 28.1 41.4 121.32853 5.5
59 210.8 49.6 37.7 32.41174 23.8
61 53.5 2.0 21.4 39.21715 8.1
62 261.3 42.7 54.7 224.83204 24.2
68 139.3 14.5 10.2 207.66199 13.4
73 26.8 33.0 19.3 211.99091 8.8
74 129.4 5.7 31.3 61.30619 11.0
78 120.5 28.5 14.2 97.45512 14.2

4.4.2.2 tail()

kable(tail(datos.validacion, 20), caption = "Datos de validació últimos 20 registros")
Datos de validació últimos 20 registros
TV Radio Newspaper Web Sales
125 229.5 32.3 74.2 88.08072 19.7
126 87.2 11.8 25.9 121.09098 10.6
127 7.8 38.9 50.6 209.47198 6.6
129 220.3 49.0 3.2 187.43706 24.7
139 43.0 25.9 20.5 181.36874 9.6
142 193.7 35.4 75.6 152.28494 19.2
149 38.0 40.3 11.9 75.20798 10.9
152 121.0 8.4 48.7 103.25521 11.6
153 197.6 23.3 14.2 159.52256 16.6
156 4.1 11.6 5.7 113.27071 3.2
157 93.9 43.5 50.5 74.36194 15.3
159 11.7 36.9 45.2 185.86608 7.3
170 284.3 10.6 6.4 157.90011 15.0
179 276.7 2.3 23.7 137.32377 11.8
180 165.6 10.0 17.6 151.99073 12.6
185 253.8 21.3 30.0 181.57905 17.6
189 286.0 13.9 3.7 151.99073 15.9
193 17.2 4.1 31.6 265.02864 5.9
196 38.2 3.7 13.8 248.84107 7.6
197 94.2 4.9 8.1 118.04186 9.7

4.5 Construir el modelo

Se construye el modelo con la función rpart

modelo_ar <- rpart(data = datos.entrenamiento,formula = Sales ~ TV + Radio + Newspaper )
modelo_ar
## n= 142 
## 
## node), split, n, deviance, yval
##       * denotes terminal node
## 
##  1) root 142 3853.273000 14.192960  
##    2) TV< 159.95 69  640.932500 10.484060  
##      4) TV< 29.5 17   56.658820  6.864706 *
##      5) TV>=29.5 52  288.774400 11.667310  
##       10) Radio< 13.3 19   10.501050  9.668421 *
##       11) Radio>=13.3 33  158.649100 12.818180  
##         22) TV< 108.6 20   35.308000 11.660000 *
##         23) TV>=108.6 13   55.240000 14.600000 *
##    3) TV>=159.95 73 1366.030000 17.698630  
##      6) Radio< 25.75 36  138.469700 14.047220  
##       12) Radio< 12.35 17    8.557647 12.188240 *
##       13) Radio>=12.35 19   18.597890 15.710530 *
##      7) Radio>=25.75 37  280.572400 21.251350  
##       14) Radio< 37.4 19   51.444210 19.363160 *
##       15) Radio>=37.4 18   89.884440 23.244440 *

4.5.1 resumen del modelo

summary(modelo_ar)
## Call:
## rpart(formula = Sales ~ TV + Radio + Newspaper, data = datos.entrenamiento)
##   n= 142 
## 
##           CP nsplit  rel error    xerror       xstd
## 1 0.47915387      0 1.00000000 1.0065520 0.10742388
## 2 0.24576191      1 0.52084613 0.5977078 0.06037701
## 3 0.07668785      2 0.27508423 0.2907043 0.03563731
## 4 0.03613649      3 0.19839638 0.2424678 0.02933945
## 5 0.03104485      4 0.16225988 0.2246372 0.02559783
## 6 0.02888822      5 0.13121503 0.2077365 0.02429214
## 7 0.01767357      6 0.10232682 0.1633776 0.02089610
## 8 0.01000000      7 0.08465325 0.1365454 0.01783196
## 
## Variable importance
##        TV     Radio Newspaper 
##        53        34        14 
## 
## Node number 1: 142 observations,    complexity param=0.4791539
##   mean=14.19296, MSE=27.13573 
##   left son=2 (69 obs) right son=3 (73 obs)
##   Primary splits:
##       TV        < 159.95 to the left,  improve=0.4791539, (0 missing)
##       Radio     < 27.35  to the left,  improve=0.2949005, (0 missing)
##       Newspaper < 36.35  to the left,  improve=0.0990750, (0 missing)
##   Surrogate splits:
##       Radio     < 15.1   to the left,  agree=0.585, adj=0.145, (0 split)
##       Newspaper < 30.35  to the left,  agree=0.570, adj=0.116, (0 split)
## 
## Node number 2: 69 observations,    complexity param=0.07668785
##   mean=10.48406, MSE=9.288876 
##   left son=4 (17 obs) right son=5 (52 obs)
##   Primary splits:
##       TV        < 29.5   to the left,  improve=0.46104580, (0 missing)
##       Radio     < 27.35  to the left,  improve=0.10132600, (0 missing)
##       Newspaper < 27.75  to the left,  improve=0.02379082, (0 missing)
##   Surrogate splits:
##       Newspaper < 67.45  to the right, agree=0.768, adj=0.059, (0 split)
## 
## Node number 3: 73 observations,    complexity param=0.2457619
##   mean=17.69863, MSE=18.71274 
##   left son=6 (36 obs) right son=7 (37 obs)
##   Primary splits:
##       Radio     < 25.75  to the left,  improve=0.6932409, (0 missing)
##       TV        < 266.25 to the left,  improve=0.2381627, (0 missing)
##       Newspaper < 37.35  to the left,  improve=0.1664335, (0 missing)
##   Surrogate splits:
##       Newspaper < 37.35  to the left,  agree=0.699, adj=0.389, (0 split)
##       TV        < 240.9  to the left,  agree=0.630, adj=0.250, (0 split)
## 
## Node number 4: 17 observations
##   mean=6.864706, MSE=3.332872 
## 
## Node number 5: 52 observations,    complexity param=0.03104485
##   mean=11.66731, MSE=5.553354 
##   left son=10 (19 obs) right son=11 (33 obs)
##   Primary splits:
##       Radio     < 13.3   to the left,  improve=0.4142482, (0 missing)
##       TV        < 108.6  to the left,  improve=0.3010786, (0 missing)
##       Newspaper < 45.4   to the left,  improve=0.1541979, (0 missing)
##   Surrogate splits:
##       TV < 149.75 to the right, agree=0.673, adj=0.105, (0 split)
## 
## Node number 6: 36 observations,    complexity param=0.02888822
##   mean=14.04722, MSE=3.846381 
##   left son=12 (17 obs) right son=13 (19 obs)
##   Primary splits:
##       Radio     < 12.35  to the left,  improve=0.80388820, (0 missing)
##       TV        < 201.15 to the left,  improve=0.06403606, (0 missing)
##       Newspaper < 21.6   to the left,  improve=0.02418108, (0 missing)
##   Surrogate splits:
##       Newspaper < 21.6   to the left,  agree=0.639, adj=0.235, (0 split)
##       TV        < 216.95 to the right, agree=0.611, adj=0.176, (0 split)
## 
## Node number 7: 37 observations,    complexity param=0.03613649
##   mean=21.25135, MSE=7.583039 
##   left son=14 (19 obs) right son=15 (18 obs)
##   Primary splits:
##       Radio     < 37.4   to the left,  improve=0.4962846, (0 missing)
##       TV        < 264.8  to the left,  improve=0.3852900, (0 missing)
##       Newspaper < 39.15  to the left,  improve=0.1569592, (0 missing)
##   Surrogate splits:
##       Newspaper < 18.35  to the left,  agree=0.595, adj=0.167, (0 split)
##       TV        < 199    to the right, agree=0.568, adj=0.111, (0 split)
## 
## Node number 10: 19 observations
##   mean=9.668421, MSE=0.552687 
## 
## Node number 11: 33 observations,    complexity param=0.01767357
##   mean=12.81818, MSE=4.807548 
##   left son=22 (20 obs) right son=23 (13 obs)
##   Primary splits:
##       TV        < 108.6  to the left,  improve=0.42925610, (0 missing)
##       Radio     < 28.4   to the left,  improve=0.21607070, (0 missing)
##       Newspaper < 45.4   to the left,  improve=0.06915855, (0 missing)
##   Surrogate splits:
##       Radio     < 24.25  to the right, agree=0.697, adj=0.231, (0 split)
##       Newspaper < 34.85  to the right, agree=0.636, adj=0.077, (0 split)
## 
## Node number 12: 17 observations
##   mean=12.18824, MSE=0.503391 
## 
## Node number 13: 19 observations
##   mean=15.71053, MSE=0.9788366 
## 
## Node number 14: 19 observations
##   mean=19.36316, MSE=2.70759 
## 
## Node number 15: 18 observations
##   mean=23.24444, MSE=4.99358 
## 
## Node number 22: 20 observations
##   mean=11.66, MSE=1.7654 
## 
## Node number 23: 13 observations
##   mean=14.6, MSE=4.249231

4.5.2 Representar visualmente el árbol de regresión

rpart.plot(modelo_ar)

4.6 Predecir valores con datos de validación

predicciones <- predict(object = modelo_ar, newdata = datos.validacion)

Construir un data frame para comparar y luego evaluar

comparaciones <- data.frame(datos.validacion, predicciones)
comparaciones
##        TV Radio Newspaper       Web Sales predicciones
## 1   230.1  37.8      69.2 306.63475  22.1    23.244444
## 4   151.5  41.3      58.5 257.81689  18.5    14.600000
## 9     8.6   2.1       1.0 144.61739   4.8     6.864706
## 13   23.8  35.1      65.9  87.92109   9.2     6.864706
## 19   69.2  20.5      18.3 210.48991  11.3    11.660000
## 29  248.8  27.1      22.9 318.64497  18.9    19.363158
## 32  112.9  17.4      38.6 295.88399  11.9    14.600000
## 35   95.7   1.4       7.4 321.17461   9.5     9.668421
## 40  228.0  37.7      32.0 196.48327  21.5    23.244444
## 44  206.9   8.4      26.4 213.60961  12.9    12.188235
## 50   66.9  11.7      36.8 205.25350   9.7     9.668421
## 52  100.4   9.6       3.6  41.33526  10.7     9.668421
## 57    7.3  28.1      41.4 121.32853   5.5     6.864706
## 59  210.8  49.6      37.7  32.41174  23.8    23.244444
## 61   53.5   2.0      21.4  39.21715   8.1     9.668421
## 62  261.3  42.7      54.7 224.83204  24.2    23.244444
## 68  139.3  14.5      10.2 207.66199  13.4    14.600000
## 73   26.8  33.0      19.3 211.99091   8.8     6.864706
## 74  129.4   5.7      31.3  61.30619  11.0     9.668421
## 78  120.5  28.5      14.2  97.45513  14.2    14.600000
## 82  239.8   4.1      36.9 169.94640  12.3    12.188235
## 83   75.3  20.3      32.5 231.20983  11.3    11.660000
## 84   68.4  44.5      35.6  78.39310  13.6    11.660000
## 85  213.5  43.0      33.8 191.86837  21.7    23.244444
## 88  110.7  40.6      63.2 107.43052  16.0    14.600000
## 91  134.3   4.9       9.3 258.35549  11.2     9.668421
## 92   28.6   1.5      33.0 172.46795   7.3     6.864706
## 94  250.9  36.5      72.3 202.10216  22.2    19.363158
## 101 222.4   4.3      49.8 125.62714  11.7    12.188235
## 103 280.2  10.1      21.4  49.80845  14.8    12.188235
## 104 187.9  17.2      17.9  97.08863  14.7    15.710526
## 105 238.2  34.3       5.3 112.15549  20.7    19.363158
## 106 137.9  46.4      59.0 138.76263  19.2    14.600000
## 111 225.8   8.2      56.5  95.18576  13.4    12.188235
## 115  78.2  46.8      34.5  76.77043  14.6    11.660000
## 119 125.7  36.9      79.2 187.84041  15.9    14.600000
## 121 141.3  26.8      46.2  65.52546  15.5    14.600000
## 123 224.0   2.4      15.6  89.51582  11.6    12.188235
## 125 229.5  32.3      74.2  88.08072  19.7    19.363158
## 126  87.2  11.8      25.9 121.09098  10.6     9.668421
## 127   7.8  38.9      50.6 209.47198   6.6     6.864706
## 129 220.3  49.0       3.2 187.43706  24.7    23.244444
## 139  43.0  25.9      20.5 181.36874   9.6    11.660000
## 142 193.7  35.4      75.6 152.28494  19.2    19.363158
## 149  38.0  40.3      11.9  75.20798  10.9    11.660000
## 152 121.0   8.4      48.7 103.25521  11.6     9.668421
## 153 197.6  23.3      14.2 159.52256  16.6    15.710526
## 156   4.1  11.6       5.7 113.27071   3.2     6.864706
## 157  93.9  43.5      50.5  74.36194  15.3    11.660000
## 159  11.7  36.9      45.2 185.86608   7.3     6.864706
## 170 284.3  10.6       6.4 157.90011  15.0    12.188235
## 179 276.7   2.3      23.7 137.32377  11.8    12.188235
## 180 165.6  10.0      17.6 151.99073  12.6    12.188235
## 185 253.8  21.3      30.0 181.57905  17.6    15.710526
## 189 286.0  13.9       3.7 151.99073  15.9    15.710526
## 193  17.2   4.1      31.6 265.02864   5.9     6.864706
## 196  38.2   3.7      13.8 248.84107   7.6     9.668421
## 197  94.2   4.9       8.1 118.04186   9.7     9.668421

4.7 rmse Root Mean Stándard Error (Root-mean-square deviation),

Este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.

La raiz del Error Cuadrático Medio (rmse) es una métrica que dice qué tan lejos están los valores predichos de los valores observados o reales en un análisis de regresión, en promedio. Se calcula como:

\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]

RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.

Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.

Se compara este valor de rmse con respecto al modelo de regresión múltiple

Con este modelo de árbol de regresión, los mismos datos, mismas particiones se tuvo un valor de 1.455681 por lo que se puede interpretar que este modelo de regresión fué mejor con respecto a la métrica rmse con respecto al modelo de regresión múltiple que tuvo un valor de 1.543975.

rmse <- rmse(actual = comparaciones$Sales, predicted = comparaciones$predicciones)
rmse
## [1] 1.714279

4.8 Graficar predicciones contra valores reales

ggplot(data = comparaciones) +
  geom_line(aes(x = 1:nrow(comparaciones), y = Sales), col='blue') +
  geom_line(aes(x = 1:nrow(comparaciones), y = predicciones), col='yellow') +
  ggtitle(label="Valores reales vs predichos Adverstising", subtitle = "Arbol de Regresión") 

4.9 Predicciones con datos nuevos

TV <- c(140, 160)
Radio <- c(60, 40)
Newspaper <- c(80, 90) 
nuevos <- data.frame(TV, Radio, Newspaper)  
nuevos
##    TV Radio Newspaper
## 1 140    60        80
## 2 160    40        90
Y.predicciones <- predict(object = modelo_ar, newdata = nuevos)
Y.predicciones
##        1        2 
## 14.60000 23.24444

5 Interpretación

Con este modelo y con estos datos interprete lo siguiente:

  • ¿Cuál es el contexto de los datos? Crear y evaluar un modelo de árbol de regresión para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad.

  • ¿Cuántas observaciones se analizan y cuáles son las variables de interés? 200 observaciones y 7 variables quue serían 0, X, TV, Radio, Newspaper, Web y Sales.

  • ¿Cuáles son las variables independientes y dependientes? Se describen las variables independientes: TV, Radio Newpaper y la variable dependiente Sales.

  • ¿Cuál es el porcentaje de datos de entrenamiento y datos de validación ? Se utiliza semilla 1321 (random_state=1321 La función train_test_split() parte los datos originales el 70% y 30% para datos de entrenamiento y validación y con el argumento datos.drop(columns = “Sales”), datos[‘Sales’] solo incluye las variables independientes; la semilla de aleatoriedad es 1321.

  • ¿Cuál es el valor de RMSE y qué significaría este valor Root Mean Squared Error RMSE: 1.714279 Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.

  • ¿Puede haber otro modelo más óptimo para estos datos? Si el modelo de regresion lineal

  • ¿Que tan confiables son las predicciones con datos nuevos con este modelo y con estos datos? La predicción que se realiza es mas cercana debido a que se ha realizado un analisis de los datos.

6 Bibliografía