title: ” Caso 4 R Arbol de regresión con datos Advertising” author: “Jorge Alejandro Ibara Diaz” date: “2022-10-23” output: html_document
Crear y evaluar un modelo de árbol de regresión para predecir las ventas con datos simulados de una empresa dependiendo de las inversiones realizadas en publicidad.
Los algoritmos de aprendizaje basados en árbol se consideran uno de los mejores y más utilizados métodos de aprendizaje supervisado. Potencian modelos predictivos con alta precisión, estabilidad y facilidad de interpretación.
Los árboles de clasificación y regresión son métodos que proporcionan modelos que satisfacen objetivos tanto predictivos como explicativos.
Algunas ventajas son su sencillez y la representación gráfica mediante árboles y, por otro, la definición de reglas de asociación entre variables que incluye expresiones de condición que permiten explicar las predicciones.
Se pueden usar para regresiones con variables dependientes que tienen valores numéricos continuos o para clasificaciones con variables categóricas.
Utilizar un árbol de regresión para crear un modelo explicativo y predictivo para una variable cuantitativa dependiente basada en variables explicativas independientes cuantitativas y cualitativas [@xlstatbyaddinsoft].
Un árbol de regresión consiste en hacer preguntas de tipo \(¿x_k < c?\) para cada una de las covariables, de esta forma el espacio de las covariables es divido en hiper-rectángulos (con el resultado de las condicionales) de las observaciones que queden dentro de un hiper-rectángulo tendrán el mismo valor estimado \(\hat{y}\) o \(Y\) .[@hernández2021]
Por otra parte, bajo el paradigma divide y vencerás, usando árboles de regresión y decisión y correspondientes reglas, el árbol representa el modelo similar a un diagrama de flujo en el que los nodos de decisión, los nodos de hoja y las ramas definen una serie de decisiones que se pueden usar para generar predicciones. Siguiendo las reglas se encuentran predicciones en la hoja final. [@lantz2013].
library(readr) # Para importar datos
library(dplyr) # Para filtrar
library(knitr) # Para datos tabulares
library(ggplot2) # Para visualizar
library(plotly)
library(caret) # Para particionar
library(Metrics) # Para determinar rmse
library(rpart) # Para árbol
library(rpart.plot) # Para árbol
datos <- read.csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv")
Son 200 registros tres variables independientes y una variable dependiente.
La variable dependiente o variable objetivo es Sales que deberá estar en función de la inversión que se hace en TV, Radio, Newspaper o Web.
str(datos)
## 'data.frame': 200 obs. of 7 variables:
## $ X.1 : int 1 2 3 4 5 6 7 8 9 10 ...
## $ X : int 1 2 3 4 5 6 7 8 9 10 ...
## $ TV : num 230.1 44.5 17.2 151.5 180.8 ...
## $ Radio : num 37.8 39.3 45.9 41.3 10.8 48.9 32.8 19.6 2.1 2.6 ...
## $ Newspaper: num 69.2 45.1 69.3 58.5 58.4 75 23.5 11.6 1 21.2 ...
## $ Web : num 306.6 302.7 49.5 257.8 195.7 ...
## $ Sales : num 22.1 10.4 9.3 18.5 12.9 7.2 11.8 13.2 4.8 10.6 ...
summary(datos)
## X.1 X TV Radio
## Min. : 1.00 Min. : 1.00 Min. : 0.70 Min. : 0.000
## 1st Qu.: 50.75 1st Qu.: 50.75 1st Qu.: 74.38 1st Qu.: 9.975
## Median :100.50 Median :100.50 Median :149.75 Median :22.900
## Mean :100.50 Mean :100.50 Mean :147.04 Mean :23.264
## 3rd Qu.:150.25 3rd Qu.:150.25 3rd Qu.:218.82 3rd Qu.:36.525
## Max. :200.00 Max. :200.00 Max. :296.40 Max. :49.600
## Newspaper Web Sales
## Min. : 0.30 Min. : 4.308 Min. : 1.60
## 1st Qu.: 12.75 1st Qu.: 99.049 1st Qu.:10.38
## Median : 25.75 Median :156.862 Median :12.90
## Mean : 30.55 Mean :159.587 Mean :14.02
## 3rd Qu.: 45.10 3rd Qu.:212.312 3rd Qu.:17.40
## Max. :114.00 Max. :358.247 Max. :27.00
Quitar las primeras columnas
datos <- select(datos, TV, Radio, Newspaper, Web, Sales)
kable(head(datos, 20), caption = "Primeros 20 registros")
| TV | Radio | Newspaper | Web | Sales |
|---|---|---|---|---|
| 230.1 | 37.8 | 69.2 | 306.63475 | 22.1 |
| 44.5 | 39.3 | 45.1 | 302.65307 | 10.4 |
| 17.2 | 45.9 | 69.3 | 49.49891 | 9.3 |
| 151.5 | 41.3 | 58.5 | 257.81689 | 18.5 |
| 180.8 | 10.8 | 58.4 | 195.66008 | 12.9 |
| 8.7 | 48.9 | 75.0 | 22.07240 | 7.2 |
| 57.5 | 32.8 | 23.5 | 246.81160 | 11.8 |
| 120.2 | 19.6 | 11.6 | 229.97146 | 13.2 |
| 8.6 | 2.1 | 1.0 | 144.61739 | 4.8 |
| 199.8 | 2.6 | 21.2 | 111.27226 | 10.6 |
| 66.1 | 5.8 | 24.2 | 45.35903 | 8.6 |
| 214.7 | 24.0 | 4.0 | 164.97176 | 17.4 |
| 23.8 | 35.1 | 65.9 | 87.92109 | 9.2 |
| 97.5 | 7.6 | 7.2 | 173.65804 | 9.7 |
| 204.1 | 32.9 | 46.0 | 245.77496 | 19.0 |
| 195.4 | 47.7 | 52.9 | 148.09513 | 22.4 |
| 67.8 | 36.6 | 114.0 | 202.63890 | 12.5 |
| 281.4 | 39.6 | 55.8 | 41.75531 | 24.4 |
| 69.2 | 20.5 | 18.3 | 210.48991 | 11.3 |
| 147.3 | 23.9 | 19.1 | 268.73538 | 14.6 |
kable(tail(datos, 20), caption = "Últimos 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 181 | 156.6 | 2.6 | 8.3 | 122.11647 | 10.5 |
| 182 | 218.5 | 5.4 | 27.4 | 162.38749 | 12.2 |
| 183 | 56.2 | 5.7 | 29.7 | 42.19929 | 8.7 |
| 184 | 287.6 | 43.0 | 71.8 | 154.30972 | 26.2 |
| 185 | 253.8 | 21.3 | 30.0 | 181.57905 | 17.6 |
| 186 | 205.0 | 45.1 | 19.6 | 208.69269 | 22.6 |
| 187 | 139.5 | 2.1 | 26.6 | 236.74404 | 10.3 |
| 188 | 191.1 | 28.7 | 18.2 | 239.27571 | 17.3 |
| 189 | 286.0 | 13.9 | 3.7 | 151.99073 | 15.9 |
| 190 | 18.7 | 12.1 | 23.4 | 222.90695 | 6.7 |
| 191 | 39.5 | 41.1 | 5.8 | 219.89058 | 10.8 |
| 192 | 75.5 | 10.8 | 6.0 | 301.48119 | 9.9 |
| 193 | 17.2 | 4.1 | 31.6 | 265.02864 | 5.9 |
| 194 | 166.8 | 42.0 | 3.6 | 192.24621 | 19.6 |
| 195 | 149.7 | 35.6 | 6.0 | 99.57998 | 17.3 |
| 196 | 38.2 | 3.7 | 13.8 | 248.84107 | 7.6 |
| 197 | 94.2 | 4.9 | 8.1 | 118.04186 | 9.7 |
| 198 | 177.0 | 9.3 | 6.4 | 213.27467 | 12.8 |
| 199 | 283.6 | 42.0 | 66.2 | 237.49806 | 25.5 |
| 200 | 232.1 | 8.6 | 8.7 | 151.99073 | 13.4 |
n <- nrow(datos)
# Modificar la semilla estableciendo como parámetro los útimos cuatro dígitos de su no de control.
# Ej. set.seed(0732), o set.seed(1023)
# set.seed(1270)
set.seed(1270)
De manera aleatoria se construyen los datos de entrenamiento y los datos de validación.
En la variable entrena se generan los registros que van a ser los datos de entrenamiento, de tal forma que los datos de validación serán los que no sena de entrenamiento [-entrena].
entrena <- createDataPartition(y = datos$Sales, p = 0.70, list = FALSE, times = 1)
# Datos entrenamiento
datos.entrenamiento <- datos[entrena, ] # [renglones, columna]
# Datos validación
datos.validacion <- datos[-entrena, ]
kable(head(datos.entrenamiento, 20), caption = "Datos de Entrenamiento. Primeros 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 2 | 44.5 | 39.3 | 45.1 | 302.65307 | 10.4 |
| 4 | 151.5 | 41.3 | 58.5 | 257.81689 | 18.5 |
| 5 | 180.8 | 10.8 | 58.4 | 195.66008 | 12.9 |
| 8 | 120.2 | 19.6 | 11.6 | 229.97146 | 13.2 |
| 9 | 8.6 | 2.1 | 1.0 | 144.61739 | 4.8 |
| 10 | 199.8 | 2.6 | 21.2 | 111.27226 | 10.6 |
| 11 | 66.1 | 5.8 | 24.2 | 45.35903 | 8.6 |
| 12 | 214.7 | 24.0 | 4.0 | 164.97176 | 17.4 |
| 13 | 23.8 | 35.1 | 65.9 | 87.92109 | 9.2 |
| 14 | 97.5 | 7.6 | 7.2 | 173.65804 | 9.7 |
| 18 | 281.4 | 39.6 | 55.8 | 41.75531 | 24.4 |
| 19 | 69.2 | 20.5 | 18.3 | 210.48991 | 11.3 |
| 21 | 218.4 | 27.7 | 53.4 | 59.96055 | 18.0 |
| 22 | 237.4 | 5.1 | 23.5 | 296.95207 | 12.5 |
| 23 | 13.2 | 15.9 | 49.6 | 219.88278 | 5.6 |
| 24 | 228.3 | 16.9 | 26.2 | 51.17007 | 15.5 |
| 27 | 142.9 | 29.3 | 12.6 | 275.51248 | 15.0 |
| 29 | 248.8 | 27.1 | 22.9 | 318.64497 | 18.9 |
| 30 | 70.6 | 16.0 | 40.8 | 61.32436 | 10.5 |
| 31 | 292.9 | 28.3 | 43.2 | 121.46435 | 21.4 |
kable(tail(datos.entrenamiento, 20), caption = "Datos de entrenamiento ültimos 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 178 | 170.2 | 7.8 | 35.2 | 104.91734 | 11.7 |
| 179 | 276.7 | 2.3 | 23.7 | 137.32377 | 11.8 |
| 180 | 165.6 | 10.0 | 17.6 | 151.99073 | 12.6 |
| 181 | 156.6 | 2.6 | 8.3 | 122.11647 | 10.5 |
| 182 | 218.5 | 5.4 | 27.4 | 162.38749 | 12.2 |
| 183 | 56.2 | 5.7 | 29.7 | 42.19929 | 8.7 |
| 185 | 253.8 | 21.3 | 30.0 | 181.57905 | 17.6 |
| 186 | 205.0 | 45.1 | 19.6 | 208.69269 | 22.6 |
| 187 | 139.5 | 2.1 | 26.6 | 236.74404 | 10.3 |
| 188 | 191.1 | 28.7 | 18.2 | 239.27571 | 17.3 |
| 189 | 286.0 | 13.9 | 3.7 | 151.99073 | 15.9 |
| 190 | 18.7 | 12.1 | 23.4 | 222.90695 | 6.7 |
| 191 | 39.5 | 41.1 | 5.8 | 219.89058 | 10.8 |
| 193 | 17.2 | 4.1 | 31.6 | 265.02864 | 5.9 |
| 194 | 166.8 | 42.0 | 3.6 | 192.24621 | 19.6 |
| 195 | 149.7 | 35.6 | 6.0 | 99.57998 | 17.3 |
| 196 | 38.2 | 3.7 | 13.8 | 248.84107 | 7.6 |
| 198 | 177.0 | 9.3 | 6.4 | 213.27467 | 12.8 |
| 199 | 283.6 | 42.0 | 66.2 | 237.49806 | 25.5 |
| 200 | 232.1 | 8.6 | 8.7 | 151.99073 | 13.4 |
Los datos de validación deben ser diferentes a los datos den entrenamiento.
kable(head(datos.validacion, 20), caption = "Datos de Validación Primeros 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 1 | 230.1 | 37.8 | 69.2 | 306.63475 | 22.1 |
| 3 | 17.2 | 45.9 | 69.3 | 49.49891 | 9.3 |
| 6 | 8.7 | 48.9 | 75.0 | 22.07240 | 7.2 |
| 7 | 57.5 | 32.8 | 23.5 | 246.81160 | 11.8 |
| 15 | 204.1 | 32.9 | 46.0 | 245.77496 | 19.0 |
| 16 | 195.4 | 47.7 | 52.9 | 148.09513 | 22.4 |
| 17 | 67.8 | 36.6 | 114.0 | 202.63890 | 12.5 |
| 20 | 147.3 | 23.9 | 19.1 | 268.73538 | 14.6 |
| 25 | 62.3 | 12.6 | 18.3 | 256.96524 | 9.7 |
| 26 | 262.9 | 3.5 | 19.5 | 160.56286 | 12.0 |
| 28 | 240.1 | 16.7 | 22.9 | 228.15744 | 15.9 |
| 37 | 266.9 | 43.8 | 5.0 | 96.31683 | 25.4 |
| 39 | 43.1 | 26.7 | 35.1 | 122.75359 | 10.1 |
| 41 | 202.5 | 22.3 | 31.6 | 88.21282 | 16.6 |
| 47 | 89.7 | 9.9 | 35.7 | 216.50402 | 10.6 |
| 54 | 182.6 | 46.2 | 58.7 | 176.05005 | 21.2 |
| 55 | 262.7 | 28.8 | 15.9 | 324.61518 | 20.2 |
| 56 | 198.9 | 49.4 | 60.0 | 204.41893 | 23.7 |
| 60 | 210.7 | 29.5 | 9.3 | 138.89555 | 18.4 |
| 63 | 239.3 | 15.5 | 27.3 | 312.20956 | 15.7 |
kable(tail(datos.validacion, 20), caption = "Datos de validació últimos 20 registros")
| TV | Radio | Newspaper | Web | Sales | |
|---|---|---|---|---|---|
| 136 | 48.3 | 47.0 | 8.5 | 61.22732 | 11.6 |
| 137 | 25.6 | 39.0 | 9.3 | 77.23080 | 9.5 |
| 139 | 43.0 | 25.9 | 20.5 | 181.36874 | 9.6 |
| 146 | 140.3 | 1.9 | 9.0 | 231.88339 | 10.3 |
| 147 | 240.1 | 7.3 | 8.7 | 23.49694 | 13.2 |
| 149 | 38.0 | 40.3 | 11.9 | 75.20798 | 10.9 |
| 152 | 121.0 | 8.4 | 48.7 | 103.25521 | 11.6 |
| 153 | 197.6 | 23.3 | 14.2 | 159.52256 | 16.6 |
| 156 | 4.1 | 11.6 | 5.7 | 113.27071 | 3.2 |
| 159 | 11.7 | 36.9 | 45.2 | 185.86608 | 7.3 |
| 160 | 131.7 | 18.4 | 34.6 | 196.37030 | 12.9 |
| 165 | 117.2 | 14.7 | 5.4 | 109.00876 | 11.9 |
| 169 | 215.4 | 23.6 | 57.6 | 203.43127 | 17.1 |
| 172 | 164.5 | 20.9 | 47.4 | 96.18039 | 14.5 |
| 173 | 19.6 | 20.1 | 17.0 | 155.58366 | 7.6 |
| 174 | 168.4 | 7.1 | 12.8 | 218.18083 | 11.7 |
| 175 | 222.4 | 3.4 | 13.1 | 144.52566 | 11.5 |
| 184 | 287.6 | 43.0 | 71.8 | 154.30972 | 26.2 |
| 192 | 75.5 | 10.8 | 6.0 | 301.48119 | 9.9 |
| 197 | 94.2 | 4.9 | 8.1 | 118.04186 | 9.7 |
Se construye el modelo con la función rpart
modelo_ar <- rpart(data = datos.entrenamiento,formula = Sales ~ TV + Radio + Newspaper )
modelo_ar
## n= 142
##
## node), split, n, deviance, yval
## * denotes terminal node
##
## 1) root 142 3766.99400 13.989440
## 2) TV< 120.35 57 422.96210 9.652632
## 4) TV< 66.5 28 74.42429 7.564286
## 8) TV< 21.6 13 15.37692 6.284615 *
## 9) TV>=21.6 15 19.30933 8.673333 *
## 5) TV>=66.5 29 108.52210 11.668970
## 10) Radio< 17.2 16 15.68000 10.300000 *
## 11) Radio>=17.2 13 25.95231 13.353850 *
## 3) TV>=120.35 85 1553.08000 16.897650
## 6) Radio< 26.85 45 183.34800 13.626670
## 12) Radio< 10.05 21 17.00286 11.871430 *
## 13) Radio>=10.05 24 45.03625 15.162500 *
## 7) Radio>=26.85 40 346.60970 20.577500
## 14) TV< 199.35 14 40.13429 17.857140 *
## 15) TV>=199.35 26 147.08350 22.042310
## 30) Radio< 38.8 15 19.43733 20.286670 *
## 31) Radio>=38.8 11 18.36545 24.436360 *
summary(modelo_ar)
## Call:
## rpart(formula = Sales ~ TV + Radio + Newspaper, data = datos.entrenamiento)
## n= 142
##
## CP nsplit rel error xerror xstd
## 1 0.47543278 0 1.00000000 1.0116866 0.10422425
## 2 0.27160164 1 0.52456722 0.5635229 0.05737972
## 3 0.06371546 2 0.25296558 0.2940793 0.03372281
## 4 0.04231278 3 0.18925012 0.2356747 0.02664868
## 5 0.03220310 4 0.14693734 0.2135714 0.02345894
## 6 0.02901005 5 0.11473424 0.1998100 0.02222046
## 7 0.01775680 6 0.08572419 0.1565095 0.01930339
## 8 0.01054900 7 0.06796739 0.1230138 0.01450328
## 9 0.01000000 8 0.05741839 0.1223406 0.01435373
##
## Variable importance
## TV Radio Newspaper
## 54 35 10
##
## Node number 1: 142 observations, complexity param=0.4754328
## mean=13.98944, MSE=26.52813
## left son=2 (57 obs) right son=3 (85 obs)
## Primary splits:
## TV < 120.35 to the left, improve=0.47543280, (0 missing)
## Radio < 26.75 to the left, improve=0.32262470, (0 missing)
## Newspaper < 50.9 to the left, improve=0.08371286, (0 missing)
## Surrogate splits:
## Radio < 2.05 to the left, agree=0.655, adj=0.14, (0 split)
##
## Node number 2: 57 observations, complexity param=0.06371546
## mean=9.652632, MSE=7.420388
## left son=4 (28 obs) right son=5 (29 obs)
## Primary splits:
## TV < 66.5 to the left, improve=0.56746400, (0 missing)
## Radio < 39.1 to the left, improve=0.20247590, (0 missing)
## Newspaper < 33.7 to the left, improve=0.08613013, (0 missing)
## Surrogate splits:
## Radio < 21.1 to the right, agree=0.579, adj=0.143, (0 split)
## Newspaper < 18.35 to the right, agree=0.579, adj=0.143, (0 split)
##
## Node number 3: 85 observations, complexity param=0.2716016
## mean=16.89765, MSE=18.27152
## left son=6 (45 obs) right son=7 (40 obs)
## Primary splits:
## Radio < 26.85 to the left, improve=0.6587697, (0 missing)
## TV < 210.2 to the left, improve=0.1932115, (0 missing)
## Newspaper < 37.35 to the left, improve=0.1756323, (0 missing)
## Surrogate splits:
## Newspaper < 37.35 to the left, agree=0.694, adj=0.350, (0 split)
## TV < 215.55 to the left, agree=0.612, adj=0.175, (0 split)
##
## Node number 4: 28 observations, complexity param=0.010549
## mean=7.564286, MSE=2.65801
## left son=8 (13 obs) right son=9 (15 obs)
## Primary splits:
## TV < 21.6 to the left, improve=0.53393900, (0 missing)
## Radio < 31.45 to the left, improve=0.23341720, (0 missing)
## Newspaper < 42.35 to the left, improve=0.02380815, (0 missing)
## Surrogate splits:
## Radio < 11.85 to the right, agree=0.643, adj=0.231, (0 split)
## Newspaper < 21.5 to the right, agree=0.643, adj=0.231, (0 split)
##
## Node number 5: 29 observations, complexity param=0.0177568
## mean=11.66897, MSE=3.74214
## left son=10 (16 obs) right son=11 (13 obs)
## Primary splits:
## Radio < 17.2 to the left, improve=0.61637010, (0 missing)
## Newspaper < 39.85 to the left, improve=0.32176400, (0 missing)
## TV < 101.55 to the left, improve=0.07901989, (0 missing)
## Surrogate splits:
## Newspaper < 43.25 to the left, agree=0.759, adj=0.462, (0 split)
## TV < 79.2 to the right, agree=0.621, adj=0.154, (0 split)
##
## Node number 6: 45 observations, complexity param=0.0322031
## mean=13.62667, MSE=4.0744
## left son=12 (21 obs) right son=13 (24 obs)
## Primary splits:
## Radio < 10.05 to the left, improve=0.66163190, (0 missing)
## TV < 171.35 to the left, improve=0.16992590, (0 missing)
## Newspaper < 7.35 to the right, improve=0.07330524, (0 missing)
## Surrogate splits:
## TV < 195.4 to the right, agree=0.600, adj=0.143, (0 split)
## Newspaper < 4.95 to the right, agree=0.556, adj=0.048, (0 split)
##
## Node number 7: 40 observations, complexity param=0.04231278
## mean=20.5775, MSE=8.665244
## left son=14 (14 obs) right son=15 (26 obs)
## Primary splits:
## TV < 199.35 to the left, improve=0.4598601, (0 missing)
## Radio < 37.25 to the left, improve=0.3775045, (0 missing)
## Newspaper < 18.35 to the left, improve=0.1377977, (0 missing)
## Surrogate splits:
## Newspaper < 18.35 to the left, agree=0.7, adj=0.143, (0 split)
##
## Node number 8: 13 observations
## mean=6.284615, MSE=1.18284
##
## Node number 9: 15 observations
## mean=8.673333, MSE=1.287289
##
## Node number 10: 16 observations
## mean=10.3, MSE=0.98
##
## Node number 11: 13 observations
## mean=13.35385, MSE=1.996331
##
## Node number 12: 21 observations
## mean=11.87143, MSE=0.8096599
##
## Node number 13: 24 observations
## mean=15.1625, MSE=1.87651
##
## Node number 14: 14 observations
## mean=17.85714, MSE=2.866735
##
## Node number 15: 26 observations, complexity param=0.02901005
## mean=22.04231, MSE=5.657056
## left son=30 (15 obs) right son=31 (11 obs)
## Primary splits:
## Radio < 38.8 to the left, improve=0.74298410, (0 missing)
## TV < 258.35 to the left, improve=0.20942850, (0 missing)
## Newspaper < 38.75 to the left, improve=0.09740414, (0 missing)
## Surrogate splits:
## TV < 217.4 to the right, agree=0.692, adj=0.273, (0 split)
## Newspaper < 34.85 to the left, agree=0.615, adj=0.091, (0 split)
##
## Node number 30: 15 observations
## mean=20.28667, MSE=1.295822
##
## Node number 31: 11 observations
## mean=24.43636, MSE=1.669587
rpart.plot(modelo_ar)
predicciones <- predict(object = modelo_ar, newdata = datos.validacion)
Construir un data frame para comparar y luego evaluar
comparaciones <- data.frame(datos.validacion, predicciones)
comparaciones
## TV Radio Newspaper Web Sales predicciones
## 1 230.1 37.8 69.2 306.63475 22.1 20.286667
## 3 17.2 45.9 69.3 49.49891 9.3 6.284615
## 6 8.7 48.9 75.0 22.07240 7.2 6.284615
## 7 57.5 32.8 23.5 246.81160 11.8 8.673333
## 15 204.1 32.9 46.0 245.77496 19.0 20.286667
## 16 195.4 47.7 52.9 148.09513 22.4 17.857143
## 17 67.8 36.6 114.0 202.63890 12.5 13.353846
## 20 147.3 23.9 19.1 268.73538 14.6 15.162500
## 25 62.3 12.6 18.3 256.96524 9.7 8.673333
## 26 262.9 3.5 19.5 160.56286 12.0 11.871429
## 28 240.1 16.7 22.9 228.15744 15.9 15.162500
## 37 266.9 43.8 5.0 96.31683 25.4 24.436364
## 39 43.1 26.7 35.1 122.75359 10.1 8.673333
## 41 202.5 22.3 31.6 88.21282 16.6 15.162500
## 47 89.7 9.9 35.7 216.50402 10.6 10.300000
## 54 182.6 46.2 58.7 176.05005 21.2 17.857143
## 55 262.7 28.8 15.9 324.61518 20.2 20.286667
## 56 198.9 49.4 60.0 204.41893 23.7 17.857143
## 60 210.7 29.5 9.3 138.89555 18.4 20.286667
## 63 239.3 15.5 27.3 312.20956 15.7 15.162500
## 66 69.0 9.3 0.9 205.99349 9.3 10.300000
## 70 216.8 43.9 27.2 149.39610 22.3 24.436364
## 71 199.1 30.6 38.7 210.75214 18.3 17.857143
## 74 129.4 5.7 31.3 61.30619 11.0 11.871429
## 83 75.3 20.3 32.5 231.20983 11.3 13.353846
## 84 68.4 44.5 35.6 78.39310 13.6 13.353846
## 85 213.5 43.0 33.8 191.86837 21.7 24.436364
## 90 109.8 47.8 51.4 162.72789 16.7 13.353846
## 93 217.7 33.5 59.0 150.96275 19.4 20.286667
## 100 135.2 41.7 45.9 40.60035 17.2 17.857143
## 102 296.4 36.3 100.9 61.00525 23.8 20.286667
## 111 225.8 8.2 56.5 95.18576 13.4 11.871429
## 119 125.7 36.9 79.2 187.84041 15.9 17.857143
## 123 224.0 2.4 15.6 89.51582 11.6 11.871429
## 124 123.1 34.6 12.4 15.75719 15.2 17.857143
## 130 59.6 12.0 43.1 197.19655 9.7 8.673333
## 131 0.7 39.6 8.7 162.90259 1.6 6.284615
## 135 36.9 38.6 65.6 81.24675 10.8 8.673333
## 136 48.3 47.0 8.5 61.22732 11.6 8.673333
## 137 25.6 39.0 9.3 77.23080 9.5 8.673333
## 139 43.0 25.9 20.5 181.36874 9.6 8.673333
## 146 140.3 1.9 9.0 231.88339 10.3 11.871429
## 147 240.1 7.3 8.7 23.49694 13.2 11.871429
## 149 38.0 40.3 11.9 75.20798 10.9 8.673333
## 152 121.0 8.4 48.7 103.25521 11.6 11.871429
## 153 197.6 23.3 14.2 159.52256 16.6 15.162500
## 156 4.1 11.6 5.7 113.27071 3.2 6.284615
## 159 11.7 36.9 45.2 185.86608 7.3 6.284615
## 160 131.7 18.4 34.6 196.37030 12.9 15.162500
## 165 117.2 14.7 5.4 109.00876 11.9 10.300000
## 169 215.4 23.6 57.6 203.43127 17.1 15.162500
## 172 164.5 20.9 47.4 96.18039 14.5 15.162500
## 173 19.6 20.1 17.0 155.58366 7.6 6.284615
## 174 168.4 7.1 12.8 218.18083 11.7 11.871429
## 175 222.4 3.4 13.1 144.52566 11.5 11.871429
## 184 287.6 43.0 71.8 154.30972 26.2 24.436364
## 192 75.5 10.8 6.0 301.48119 9.9 10.300000
## 197 94.2 4.9 8.1 118.04186 9.7 10.300000
Este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.
La raiz del Error Cuadrático Medio (rmse) es una métrica que dice qué tan lejos están los valores predichos de los valores observados o reales en un análisis de regresión, en promedio. Se calcula como:
\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]
RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.
Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.
Se compara este valor de rmse con respecto al modelo de regresión múltiple
Con este modelo de árbol de regresión, los mismos datos, mismas particiones se tuvo un valor de 1.455681 por lo que se puede interpretar que este modelo de regresión fué mejor con respecto a la métrica rmse con respecto al modelo de regresión múltiple que tuvo un valor de 1.543975.
rmse <- rmse(actual = comparaciones$Sales, predicted = comparaciones$predicciones)
rmse
## [1] 2.014992
ggplot(data = comparaciones) +
geom_line(aes(x = 1:nrow(comparaciones), y = Sales), col='blue') +
geom_line(aes(x = 1:nrow(comparaciones), y = predicciones), col='yellow') +
ggtitle(label="Valores reales vs predichos Adverstising", subtitle = "Arbol de Regresión")
TV <- c(140, 160)
Radio <- c(60, 40)
Newspaper <- c(80, 90)
nuevos <- data.frame(TV, Radio, Newspaper)
nuevos
## TV Radio Newspaper
## 1 140 60 80
## 2 160 40 90
Y.predicciones <- predict(object = modelo_ar, newdata = nuevos)
Y.predicciones
## 1 2
## 17.85714 17.85714
Pendiente …
Con este modelo y con estos datos interprete lo siguiente:
R.- En esta caso en particular se tiene como meta la creación y la evaluación un modelo de árbol de regresión para predecir las ventas con datos simulados de una empresa dependiendo de la inversión que se realiza por medio de la publicidad. Los datos utilizados en este documento nos representan las inversiones que se han realizado junto a los costos por cada departamento de publicidad, por lo tanto se consideran datos reales.
R.- Se analizan un total de 200 observaciones según datos del documento. Además se trabaja con 4 variables independientes y 1 variable dependiente.
R.- La variables dependiente es “Sales” y las variables independientes están cofnromadas por “Web”, “Radio”, “TV” y “Newspaper”.
R.- Los datos de entrenamiento se encuentran en un 70% y los datos de validación en un 30%.
¿Cuál es el valor de *RMSE* y qué significaría este valor
R.- 2.014992, Esto significaría que existe una diferencia marcada entre los datos predichos y los reales, que los distancia más uno del otro.
R.- Este modelo es uno de los adecuados para este tipo de evaluaciones, ya que se utiliza para operaciones predictivas y explicativas. Puede que haya más modelos adecuados pero este es el mas certero, pero tambien se debe de tener en cuenta que todo depende del entorno del caso.
R.-Son muy confiables ya que fueron evaluados por el metodo.
R.- El de R tiene menor R, esto significa que el tiene menor varianza, si no hubiera varianza el valor de rmse seria 0, por la tanto mientras menor sea mejor.