Objetivo

Crear y evaluar un modelo de árbol de regresión para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad.

Descripción

Fundamento teórico

Los algoritmos de aprendizaje basados en árbol se consideran uno de los mejores y más utilizados métodos de aprendizaje supervisado. Potencian modelos predictivos con alta precisión, estabilidad y facilidad de interpretación.

Los árboles de clasificación y regresión son métodos que proporcionan modelos que satisfacen objetivos tanto predictivos como explicativos.

Algunas ventajas son su sencillez y la representación gráfica mediante árboles y, por otro, la definición de reglas de asociación entre variables que incluye expresiones de condición que permiten explicar las predicciones.

Se pueden usar para regresiones con variables dependientes que tienen valores numéricos continuos o para clasificaciones con variables categóricas.

Utilizar un árbol de regresión para crear un modelo explicativo y predictivo para una variable cuantitativa dependiente basada en variables explicativas independientes cuantitativas y cualitativas (xlstatbyaddinsoft?).

Un árbol de regresión consiste en hacer preguntas de tipo ¿xk<c? para cada una de las covariables, de esta forma el espacio de las covariables es divido en hiper-rectángulos (con el resultado de las condicionales) de las observaciones que queden dentro de un hiper-rectángulo tendrán el mismo valor estimado y^ o Y .(Hernández 2021)

Por otra parte, bajo el paradigma divide y vencerás, usando árboles de regresión y decisión y correspondientes reglas, el árbol representa el modelo similar a un diagrama de flujo en el que los nodos de decisión, los nodos de hoja y las ramas definen una serie de decisiones que se pueden usar para generar predicciones. Siguiendo las reglas se encuentran predicciones en la hoja final. (Lantz 2013).

#Desarrollo

Cargar librerías

library(readr) # Para importar datos
library(dplyr) # Para filtrar   
library(knitr) # Para datos tabulares
library(ggplot2) # Para visualizar
library(plotly)
library(caret)  # Para particionar
library(Metrics) # Para determinar rmse

library(rpart) # Para árbol
library(rpart.plot) # Para árbol

Cargar datos

datos <- read.csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv")

Explorar datos

Son 200 registros tres variables independientes y una variable dependiente.

La variable dependiente o variable objetivo es Sales que deberá estar en función de la inversión que se hace en TV, Radio, Newspaper o Web.

str(datos)
## 'data.frame':    200 obs. of  7 variables:
##  $ X.1      : int  1 2 3 4 5 6 7 8 9 10 ...
##  $ X        : int  1 2 3 4 5 6 7 8 9 10 ...
##  $ TV       : num  230.1 44.5 17.2 151.5 180.8 ...
##  $ Radio    : num  37.8 39.3 45.9 41.3 10.8 48.9 32.8 19.6 2.1 2.6 ...
##  $ Newspaper: num  69.2 45.1 69.3 58.5 58.4 75 23.5 11.6 1 21.2 ...
##  $ Web      : num  306.6 302.7 49.5 257.8 195.7 ...
##  $ Sales    : num  22.1 10.4 9.3 18.5 12.9 7.2 11.8 13.2 4.8 10.6 ...
summary(datos)
##       X.1               X                TV             Radio       
##  Min.   :  1.00   Min.   :  1.00   Min.   :  0.70   Min.   : 0.000  
##  1st Qu.: 50.75   1st Qu.: 50.75   1st Qu.: 74.38   1st Qu.: 9.975  
##  Median :100.50   Median :100.50   Median :149.75   Median :22.900  
##  Mean   :100.50   Mean   :100.50   Mean   :147.04   Mean   :23.264  
##  3rd Qu.:150.25   3rd Qu.:150.25   3rd Qu.:218.82   3rd Qu.:36.525  
##  Max.   :200.00   Max.   :200.00   Max.   :296.40   Max.   :49.600  
##    Newspaper           Web              Sales      
##  Min.   :  0.30   Min.   :  4.308   Min.   : 1.60  
##  1st Qu.: 12.75   1st Qu.: 99.049   1st Qu.:10.38  
##  Median : 25.75   Median :156.862   Median :12.90  
##  Mean   : 30.55   Mean   :159.587   Mean   :14.02  
##  3rd Qu.: 45.10   3rd Qu.:212.312   3rd Qu.:17.40  
##  Max.   :114.00   Max.   :358.247   Max.   :27.00

Limpiar datos

Quitar las primeras columnas

datos <- select(datos, TV, Radio, Newspaper, Web, Sales)

head(datos)

Primeros 20 registros

kable(head(datos, 20), caption = "Primeros 20 registros")
Primeros 20 registros
TV Radio Newspaper Web Sales
230.1 37.8 69.2 306.63475 22.1
44.5 39.3 45.1 302.65307 10.4
17.2 45.9 69.3 49.49891 9.3
151.5 41.3 58.5 257.81689 18.5
180.8 10.8 58.4 195.66008 12.9
8.7 48.9 75.0 22.07240 7.2
57.5 32.8 23.5 246.81160 11.8
120.2 19.6 11.6 229.97146 13.2
8.6 2.1 1.0 144.61739 4.8
199.8 2.6 21.2 111.27226 10.6
66.1 5.8 24.2 45.35903 8.6
214.7 24.0 4.0 164.97176 17.4
23.8 35.1 65.9 87.92109 9.2
97.5 7.6 7.2 173.65804 9.7
204.1 32.9 46.0 245.77496 19.0
195.4 47.7 52.9 148.09513 22.4
67.8 36.6 114.0 202.63890 12.5
281.4 39.6 55.8 41.75531 24.4
69.2 20.5 18.3 210.48991 11.3
147.3 23.9 19.1 268.73538 14.6

tail(datos)

Últimos 20 registros

kable(tail(datos, 20), caption = "Últimos 20 registros")
Últimos 20 registros
TV Radio Newspaper Web Sales
181 156.6 2.6 8.3 122.11647 10.5
182 218.5 5.4 27.4 162.38749 12.2
183 56.2 5.7 29.7 42.19929 8.7
184 287.6 43.0 71.8 154.30972 26.2
185 253.8 21.3 30.0 181.57905 17.6
186 205.0 45.1 19.6 208.69269 22.6
187 139.5 2.1 26.6 236.74404 10.3
188 191.1 28.7 18.2 239.27571 17.3
189 286.0 13.9 3.7 151.99073 15.9
190 18.7 12.1 23.4 222.90695 6.7
191 39.5 41.1 5.8 219.89058 10.8
192 75.5 10.8 6.0 301.48119 9.9
193 17.2 4.1 31.6 265.02864 5.9
194 166.8 42.0 3.6 192.24621 19.6
195 149.7 35.6 6.0 99.57998 17.3
196 38.2 3.7 13.8 248.84107 7.6
197 94.2 4.9 8.1 118.04186 9.7
198 177.0 9.3 6.4 213.27467 12.8
199 283.6 42.0 66.2 237.49806 25.5
200 232.1 8.6 8.7 151.99073 13.4

Datos de entrenamiento y validación

Datos de entrenamiento

n <- nrow(datos)

# Modificar la semilla estableciendo como parámetro los útimos cuatro dígitos de su no de control. 
# Ej. set.seed(0732), o set.seed(1023)
# set.seed(2022) 
set.seed(1301)

De manera aleatoria se construyen los datos de entrenamiento y los datos de validación.

En la variable entrena se generan los registros que van a ser los datos de entrenamiento, de tal forma que los datos de validación serán los que no sena de entrenamiento [-entrena].

entrena <- createDataPartition(y = datos$Sales, p = 0.70, list = FALSE, times = 1)

# Datos entrenamiento
datos.entrenamiento <- datos[entrena, ]  # [renglones, columna]

# Datos validación
datos.validacion <- datos[-entrena, ]

tail()

Datos de entrenamiento ültimos 20 registros

kable(tail(datos.entrenamiento, 20), caption = "Datos de entrenamiento ültimos 20 registros")
Datos de entrenamiento ültimos 20 registros
TV Radio Newspaper Web Sales
174 168.4 7.1 12.8 218.18083 11.7
178 170.2 7.8 35.2 104.91734 11.7
180 165.6 10.0 17.6 151.99073 12.6
181 156.6 2.6 8.3 122.11647 10.5
182 218.5 5.4 27.4 162.38749 12.2
183 56.2 5.7 29.7 42.19929 8.7
185 253.8 21.3 30.0 181.57905 17.6
186 205.0 45.1 19.6 208.69269 22.6
187 139.5 2.1 26.6 236.74404 10.3
188 191.1 28.7 18.2 239.27571 17.3
189 286.0 13.9 3.7 151.99073 15.9
190 18.7 12.1 23.4 222.90695 6.7
191 39.5 41.1 5.8 219.89058 10.8
192 75.5 10.8 6.0 301.48119 9.9
193 17.2 4.1 31.6 265.02864 5.9
195 149.7 35.6 6.0 99.57998 17.3
196 38.2 3.7 13.8 248.84107 7.6
198 177.0 9.3 6.4 213.27467 12.8
199 283.6 42.0 66.2 237.49806 25.5
200 232.1 8.6 8.7 151.99073 13.4

Datos de validación

Los datos de validación deben ser diferentes a los datos den entrenamiento.

head()

Datos de Validación Primeros 20 registros

kable(head(datos.validacion, 20), caption = "Datos de Validación Primeros 20 registros")
Datos de Validación Primeros 20 registros
TV Radio Newspaper Web Sales
3 17.2 45.9 69.3 49.49891 9.3
8 120.2 19.6 11.6 229.97146 13.2
14 97.5 7.6 7.2 173.65804 9.7
20 147.3 23.9 19.1 268.73538 14.6
23 13.2 15.9 49.6 219.88278 5.6
26 262.9 3.5 19.5 160.56286 12.0
30 70.6 16.0 40.8 61.32436 10.5
35 95.7 1.4 7.4 321.17461 9.5
36 290.7 4.1 8.5 181.98342 12.8
39 43.1 26.7 35.1 122.75359 10.1
40 228.0 37.7 32.0 196.48327 21.5
44 206.9 8.4 26.4 213.60961 12.9
47 89.7 9.9 35.7 216.50402 10.6
51 199.8 3.1 34.6 151.99073 11.4
55 262.7 28.8 15.9 324.61518 20.2
56 198.9 49.4 60.0 204.41893 23.7
58 136.2 19.2 16.6 60.45435 13.2
59 210.8 49.6 37.7 32.41174 23.8
61 53.5 2.0 21.4 39.21715 8.1
65 131.1 42.8 28.9 124.38223 18.0

tail()

Datos de validació últimos 20 registros

kable(tail(datos.validacion, 20), caption = "Datos de validació últimos 20 registros")
Datos de validació últimos 20 registros
TV Radio Newspaper Web Sales
140 184.9 43.9 1.7 106.25383 20.7
141 73.4 17.0 12.9 174.77214 10.9
147 240.1 7.3 8.7 23.49694 13.2
152 121.0 8.4 48.7 103.25521 11.6
153 197.6 23.3 14.2 159.52256 16.6
158 149.8 1.3 24.3 145.80321 10.1
164 163.5 36.8 7.4 82.22879 18.0
166 234.5 3.4 84.8 135.02491 11.9
167 17.9 37.6 21.6 99.93695 8.0
170 284.3 10.6 6.4 157.90011 15.0
171 50.0 11.6 18.4 64.01480 8.4
172 164.5 20.9 47.4 96.18039 14.5
173 19.6 20.1 17.0 155.58366 7.6
175 222.4 3.4 13.1 144.52566 11.5
176 276.9 48.9 41.8 151.99073 27.0
177 248.4 30.2 20.3 163.85204 20.2
179 276.7 2.3 23.7 137.32377 11.8
184 287.6 43.0 71.8 154.30972 26.2
194 166.8 42.0 3.6 192.24621 19.6
197 94.2 4.9 8.1 118.04186 9.7

Construir el modelo

Se construye el modelo con la función rpart

modelo_ar <- rpart(data = datos.entrenamiento,formula = Sales ~ TV + Radio + Newspaper + Web)
modelo_ar
## n= 142 
## 
## node), split, n, deviance, yval
##       * denotes terminal node
## 
##  1) root 142 3798.87700 13.92113  
##    2) TV< 170.75 80  924.90990 10.66125  
##      4) TV< 30.05 20   70.78800  6.46000 *
##      5) TV>=30.05 60  383.44180 12.06167  
##       10) Radio< 26.75 36   65.88222 10.67778 *
##       11) Radio>=26.75 24  145.19620 14.13750  
##         22) TV< 89.8 12   22.86667 12.16667 *
##         23) TV>=89.8 12   29.10917 16.10833 *
##    3) TV>=170.75 62  926.86340 18.12742  
##      6) Radio< 25.45 28  102.77860 14.59286  
##       12) Radio< 12.35 10    6.68400 12.34000 *
##       13) Radio>=12.35 18   17.14444 15.84444 *
##      7) Radio>=25.45 34  186.20030 21.03824  
##       14) Radio< 35.85 18   24.48944 19.29444 *
##       15) Radio>=35.85 16   45.40000 23.00000 *

resumen del modelo

summary(modelo_ar)
## Call:
## rpart(formula = Sales ~ TV + Radio + Newspaper + Web, data = datos.entrenamiento)
##   n= 142 
## 
##           CP nsplit  rel error    xerror       xstd
## 1 0.51254714      0 1.00000000 1.0193263 0.10334906
## 2 0.16791399      1 0.48745286 0.5893909 0.05682002
## 3 0.12389980      2 0.31953887 0.3583817 0.04563761
## 4 0.04537219      3 0.19563907 0.2429666 0.02807733
## 5 0.03061717      4 0.15026688 0.1984878 0.02093659
## 6 0.02453894      5 0.11964971 0.1689154 0.01971437
## 7 0.02078249      6 0.09511077 0.1552796 0.01889566
## 8 0.01000000      7 0.07432827 0.1319198 0.01712750
## 
## Variable importance
##        TV     Radio Newspaper       Web 
##        56        25        13         6 
## 
## Node number 1: 142 observations,    complexity param=0.5125471
##   mean=13.92113, MSE=26.75265 
##   left son=2 (80 obs) right son=3 (62 obs)
##   Primary splits:
##       TV        < 170.75   to the left,  improve=0.5125471, (0 missing)
##       Radio     < 13.25    to the left,  improve=0.2367273, (0 missing)
##       Newspaper < 52.8     to the left,  improve=0.1283148, (0 missing)
##       Web       < 203.854  to the right, improve=0.0168262, (0 missing)
##   Surrogate splits:
##       Newspaper < 52.8     to the left,  agree=0.620, adj=0.129, (0 split)
##       Radio     < 15.15    to the left,  agree=0.599, adj=0.081, (0 split)
##       Web       < 182.2944 to the right, agree=0.577, adj=0.032, (0 split)
## 
## Node number 2: 80 observations,    complexity param=0.1238998
##   mean=10.66125, MSE=11.56137 
##   left son=4 (20 obs) right son=5 (60 obs)
##   Primary splits:
##       TV        < 30.05    to the left,  improve=0.50889290, (0 missing)
##       Radio     < 40.45    to the left,  improve=0.18303410, (0 missing)
##       Newspaper < 45.45    to the left,  improve=0.15043150, (0 missing)
##       Web       < 110.9507 to the right, improve=0.04161827, (0 missing)
##   Surrogate splits:
##       Web       < 31.33637 to the left,  agree=0.775, adj=0.10, (0 split)
##       Newspaper < 2.15     to the left,  agree=0.762, adj=0.05, (0 split)
## 
## Node number 3: 62 observations,    complexity param=0.167914
##   mean=18.12742, MSE=14.94941 
##   left son=6 (28 obs) right son=7 (34 obs)
##   Primary splits:
##       Radio     < 25.45    to the left,  improve=0.68821850, (0 missing)
##       TV        < 239.6    to the left,  improve=0.23107940, (0 missing)
##       Newspaper < 32.7     to the left,  improve=0.13784270, (0 missing)
##       Web       < 147.9772 to the left,  improve=0.02287006, (0 missing)
##   Surrogate splits:
##       Newspaper < 32.7     to the left,  agree=0.710, adj=0.357, (0 split)
##       TV        < 189.75   to the left,  agree=0.629, adj=0.179, (0 split)
##       Web       < 95.7513  to the left,  agree=0.597, adj=0.107, (0 split)
## 
## Node number 4: 20 observations
##   mean=6.46, MSE=3.5394 
## 
## Node number 5: 60 observations,    complexity param=0.04537219
##   mean=12.06167, MSE=6.390697 
##   left son=10 (36 obs) right son=11 (24 obs)
##   Primary splits:
##       Radio     < 26.75    to the left,  improve=0.4495163, (0 missing)
##       Newspaper < 45.4     to the left,  improve=0.3620326, (0 missing)
##       TV        < 109.05   to the left,  improve=0.2495479, (0 missing)
##       Web       < 196.7834 to the right, improve=0.1221241, (0 missing)
##   Surrogate splits:
##       Newspaper < 44.1     to the left,  agree=0.800, adj=0.500, (0 split)
##       Web       < 102.2487 to the right, agree=0.717, adj=0.292, (0 split)
##       TV        < 44.6     to the right, agree=0.633, adj=0.083, (0 split)
## 
## Node number 6: 28 observations,    complexity param=0.02078249
##   mean=14.59286, MSE=3.670663 
##   left son=12 (10 obs) right son=13 (18 obs)
##   Primary splits:
##       Radio     < 12.35    to the left,  improve=0.76815750, (0 missing)
##       TV        < 234.75   to the left,  improve=0.14845140, (0 missing)
##       Web       < 94.69651 to the right, improve=0.14189080, (0 missing)
##       Newspaper < 21.6     to the left,  improve=0.02706265, (0 missing)
## 
## Node number 7: 34 observations,    complexity param=0.03061717
##   mean=21.03824, MSE=5.476479 
##   left son=14 (18 obs) right son=15 (16 obs)
##   Primary splits:
##       Radio     < 35.85    to the left,  improve=0.6246545, (0 missing)
##       TV        < 239.05   to the left,  improve=0.3297288, (0 missing)
##       Web       < 238.3869 to the right, improve=0.1058607, (0 missing)
##       Newspaper < 39.15    to the left,  improve=0.0945503, (0 missing)
##   Surrogate splits:
##       TV        < 239.05   to the left,  agree=0.618, adj=0.188, (0 split)
##       Newspaper < 18.35    to the left,  agree=0.618, adj=0.188, (0 split)
##       Web       < 238.3869 to the right, agree=0.618, adj=0.188, (0 split)
## 
## Node number 10: 36 observations
##   mean=10.67778, MSE=1.830062 
## 
## Node number 11: 24 observations,    complexity param=0.02453894
##   mean=14.1375, MSE=6.049844 
##   left son=22 (12 obs) right son=23 (12 obs)
##   Primary splits:
##       TV        < 89.8     to the left,  improve=0.6420305, (0 missing)
##       Radio     < 41.2     to the left,  improve=0.2046291, (0 missing)
##       Newspaper < 45.4     to the left,  improve=0.1611870, (0 missing)
##       Web       < 188.387  to the right, improve=0.1308438, (0 missing)
##   Surrogate splits:
##       Web       < 188.387  to the right, agree=0.708, adj=0.417, (0 split)
##       Radio     < 31.2     to the right, agree=0.625, adj=0.250, (0 split)
##       Newspaper < 45.8     to the left,  agree=0.625, adj=0.250, (0 split)
## 
## Node number 12: 10 observations
##   mean=12.34, MSE=0.6684 
## 
## Node number 13: 18 observations
##   mean=15.84444, MSE=0.9524691 
## 
## Node number 14: 18 observations
##   mean=19.29444, MSE=1.360525 
## 
## Node number 15: 16 observations
##   mean=23, MSE=2.8375 
## 
## Node number 22: 12 observations
##   mean=12.16667, MSE=1.905556 
## 
## Node number 23: 12 observations
##   mean=16.10833, MSE=2.425764

Representar visualmente el árbol de regresión

rpart.plot(modelo_ar)

Predecir valores con datos de validación

predicciones <- predict(object = modelo_ar, newdata = datos.validacion)

Construir un data frame para comparar y luego evaluar

comparaciones <- data.frame(datos.validacion, predicciones)
kable(comparaciones, caption = "Predicciones VS datos Rales")
Predicciones VS datos Rales
TV Radio Newspaper Web Sales predicciones
3 17.2 45.9 69.3 49.49891 9.3 6.46000
8 120.2 19.6 11.6 229.97146 13.2 10.67778
14 97.5 7.6 7.2 173.65804 9.7 10.67778
20 147.3 23.9 19.1 268.73538 14.6 10.67778
23 13.2 15.9 49.6 219.88278 5.6 6.46000
26 262.9 3.5 19.5 160.56286 12.0 12.34000
30 70.6 16.0 40.8 61.32436 10.5 10.67778
35 95.7 1.4 7.4 321.17461 9.5 10.67778
36 290.7 4.1 8.5 181.98342 12.8 12.34000
39 43.1 26.7 35.1 122.75359 10.1 10.67778
40 228.0 37.7 32.0 196.48327 21.5 23.00000
44 206.9 8.4 26.4 213.60961 12.9 12.34000
47 89.7 9.9 35.7 216.50402 10.6 10.67778
51 199.8 3.1 34.6 151.99073 11.4 12.34000
55 262.7 28.8 15.9 324.61518 20.2 19.29444
56 198.9 49.4 60.0 204.41893 23.7 23.00000
58 136.2 19.2 16.6 60.45435 13.2 10.67778
59 210.8 49.6 37.7 32.41174 23.8 23.00000
61 53.5 2.0 21.4 39.21715 8.1 10.67778
65 131.1 42.8 28.9 124.38223 18.0 16.10833
72 109.8 14.3 31.7 151.99073 12.4 10.67778
75 213.4 24.6 13.1 156.28426 17.0 15.84444
76 16.9 43.7 89.4 70.23428 8.7 6.46000
77 27.5 1.6 20.7 117.10193 6.9 6.46000
82 239.8 4.1 36.9 169.94640 12.3 12.34000
84 68.4 44.5 35.6 78.39310 13.6 12.16667
90 109.8 47.8 51.4 162.72789 16.7 16.10833
96 163.3 31.6 52.9 155.59488 16.9 16.10833
99 289.7 42.3 51.2 183.56958 25.4 23.00000
103 280.2 10.1 21.4 49.80845 14.8 12.34000
112 241.7 38.0 23.2 180.51153 21.8 23.00000
113 175.7 15.4 2.4 71.68255 14.1 15.84444
114 209.6 20.6 10.7 42.88380 15.9 15.84444
118 76.4 0.8 14.8 234.38450 9.4 10.67778
123 224.0 2.4 15.6 89.51582 11.6 12.34000
129 220.3 49.0 3.2 187.43706 24.7 23.00000
132 265.2 2.9 43.0 172.15666 12.7 12.34000
139 43.0 25.9 20.5 181.36874 9.6 10.67778
140 184.9 43.9 1.7 106.25383 20.7 23.00000
141 73.4 17.0 12.9 174.77214 10.9 10.67778
147 240.1 7.3 8.7 23.49694 13.2 12.34000
152 121.0 8.4 48.7 103.25521 11.6 10.67778
153 197.6 23.3 14.2 159.52256 16.6 15.84444
158 149.8 1.3 24.3 145.80321 10.1 10.67778
164 163.5 36.8 7.4 82.22879 18.0 16.10833
166 234.5 3.4 84.8 135.02491 11.9 12.34000
167 17.9 37.6 21.6 99.93695 8.0 6.46000
170 284.3 10.6 6.4 157.90011 15.0 12.34000
171 50.0 11.6 18.4 64.01480 8.4 10.67778
172 164.5 20.9 47.4 96.18039 14.5 10.67778
173 19.6 20.1 17.0 155.58366 7.6 6.46000
175 222.4 3.4 13.1 144.52566 11.5 12.34000
176 276.9 48.9 41.8 151.99073 27.0 23.00000
177 248.4 30.2 20.3 163.85204 20.2 19.29444
179 276.7 2.3 23.7 137.32377 11.8 12.34000
184 287.6 43.0 71.8 154.30972 26.2 23.00000
194 166.8 42.0 3.6 192.24621 19.6 16.10833
197 94.2 4.9 8.1 118.04186 9.7 10.67778

Predicciones VS datos Rales

rmse Root Mean Stándard Error (Root-mean-square deviation),

Este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.

La raiz del Error Cuadrático Medio (rmse) es una métrica que dice qué tan lejos están los valores predichos de los valores observados o reales en un análisis de regresión, en promedio. Se calcula como:

rmse=∑(predichoi−reali)2n−−−−−−−−−−−−−−−−−−√

RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.

Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.

Se compara este valor de rmse con respecto al modelo de regresión múltiple

Con este modelo de árbol de regresión, los mismos datos, mismas particiones se tuvo un valor de 1.455681 por lo que se puede interpretar que este modelo de regresión fué mejor con respecto a la métrica rmse con respecto al modelo de regresión múltiple que tuvo un valor de 1.543975.

rmse <- rmse(actual = comparaciones$Sales, predicted = comparaciones$predicciones)
rmse
## [1] 1.732723

Graficar predicciones contra valores reales

ggplot(data = comparaciones) +
  geom_line(aes(x = 1:nrow(comparaciones), y = Sales), col='blue') +
  geom_line(aes(x = 1:nrow(comparaciones), y = predicciones), col='yellow') +
  ggtitle(label="Valores reales vs predichos Adverstising", subtitle = "Arbol de Regresión") 

Predicciones con datos nuevos

TV <- c(140, 160)
Radio <- c(60, 40)
Newspaper <- c(80, 90) 
Web <- c(120, 145)

nuevos <- data.frame(TV, Radio, Newspaper, Web)  
nuevos
##    TV Radio Newspaper Web
## 1 140    60        80 120
## 2 160    40        90 145
Y.predicciones <- predict(object = modelo_ar, newdata = nuevos)
Y.predicciones
##        1        2 
## 16.10833 16.10833

Interpretación

Con este modelo y con estos datos interprete lo siguiente: Con respecto a los resultados arrojados en R, este modelo no es muy indicado para este caso, debido a que R arroja mejores resultados, siendo mucho menores.

¿Cuál es el contexto de los datos? predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad.

¿Cuántas observaciones se analizan y cuáles son las variables de interés? se realizan 200 observaciones. Nos interesan las ventas.

¿Cuáles son las variables independientes y dependientes? Son cuatro variables, las variables independientes TV, Radio, Periódico, WEB.

¿Cuál es el porcentaje de datos de entrenamiento y datos de validación ? 70% datos de entrenamiento y 30% de datos de validacion.

¿Cuál es el valor de RMSE y qué significaría este valor? 1.9391624004009553, significa una forma útil de verificar qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos. Proporciona además una mejor forma de encontrar la estimación, en caso de que los errores sean aleatorios o parciales.

¿Puede haber otro modelo más óptimo para estos datos? se tendría que comparar con otros resultados realizados en este mismo modelo para generar una conclusion, sobre si es óptimo o no lo es. En los resultados este modelo no es tan optimo como el generado en R.

¿Que tan confiables son las predicciones con datos nuevos con este modelo y con estos datos? Son aceptables, pero comparadas con los resultados generados en R, este se queda corto.

Comparado con el modelo elaborado en lenguaje R cual tiene menor rmse y qué significa? R arrojó un mejor RMSE, indicando que este modelo y el análisis de esta cantidad de datos es mejor interpretada en el lenguaje R.

Bibliografía

Hernández, Freddy. 2021. Modelos Predictivos. https://fhernanb.github.io/libro_mod_pred/; Lantz, Brett. 2013. Machine Learning with r. Kindle.