Objetivo

Evaluar y comparar los modelos de regresión lineal simple y polinomial de segunda y quinta pontecia con datos de Adverstising_WEB.csv

Descripción

Se cargan los datos de la dirección:https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv

Los datos contienen variables que en el contexto se interpreta que son inversiones hechas de una empresa y las ventas de la misma, a tanta inversión de marketing en medios tales como TV, Radio, NewsPapers (medios impresos) y Web (digital) existe en relacuón a las ventas (Sales) generadas.

Se trata de comparar modelos predictivos para evaluar cuál es mejor con respecto a los estadísticos R Square y RMSE.

Las variables de interés serán:

Se construyen el modelo de regresión lineal simple con los datos de entrenamiento y se evaluán los siguiente aspectos:

Se construye el modelo polinomial a la segunda potencia y quinta potencia con los datos de entrenamiento y se evalúan los siguientes aspectos.

Desarrollo

Cargar librerías

library(readr)   # Sirve para importar datos
library(Metrics) # Sirve para construir métricas y valorar modelos 
library (ggplot2) # Sirve para gráficos
library(caret)    # Para partir los datos Entrenamiento y Validación.
library(knitr)

Cargar datos

datos <- read.csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/Advertising_Web.csv")

Describir datos

summary(datos)
##       X.1               X                TV             Radio       
##  Min.   :  1.00   Min.   :  1.00   Min.   :  0.70   Min.   : 0.000  
##  1st Qu.: 50.75   1st Qu.: 50.75   1st Qu.: 74.38   1st Qu.: 9.975  
##  Median :100.50   Median :100.50   Median :149.75   Median :22.900  
##  Mean   :100.50   Mean   :100.50   Mean   :147.04   Mean   :23.264  
##  3rd Qu.:150.25   3rd Qu.:150.25   3rd Qu.:218.82   3rd Qu.:36.525  
##  Max.   :200.00   Max.   :200.00   Max.   :296.40   Max.   :49.600  
##    Newspaper           Web              Sales      
##  Min.   :  0.30   Min.   :  4.308   Min.   : 1.60  
##  1st Qu.: 12.75   1st Qu.: 99.049   1st Qu.:10.38  
##  Median : 25.75   Median :156.862   Median :12.90  
##  Mean   : 30.55   Mean   :159.587   Mean   :14.02  
##  3rd Qu.: 45.10   3rd Qu.:212.312   3rd Qu.:17.40  
##  Max.   :114.00   Max.   :358.247   Max.   :27.00
str(datos)
## 'data.frame':    200 obs. of  7 variables:
##  $ X.1      : int  1 2 3 4 5 6 7 8 9 10 ...
##  $ X        : int  1 2 3 4 5 6 7 8 9 10 ...
##  $ TV       : num  230.1 44.5 17.2 151.5 180.8 ...
##  $ Radio    : num  37.8 39.3 45.9 41.3 10.8 48.9 32.8 19.6 2.1 2.6 ...
##  $ Newspaper: num  69.2 45.1 69.3 58.5 58.4 75 23.5 11.6 1 21.2 ...
##  $ Web      : num  306.6 302.7 49.5 257.8 195.7 ...
##  $ Sales    : num  22.1 10.4 9.3 18.5 12.9 7.2 11.8 13.2 4.8 10.6 ...

Visualizar la dispersión de los datos

ggplot(datos, aes(x = TV, y = Sales)) + 
  geom_point(colour = "blue") + 
  geom_smooth(colour = 'orange', method = lm) +
  geom_smooth(colour = 'red') 

Se observa que la relación entre las dos variables no es del todo lineal.

Construir Datos de entrenamiento y validación

Los datos de entrenamiento son el 70% de los datos originales y los de validación el 30%.

Se siembra una semilla del año en curso 2022 para generar los mismos valores cada vez que se cnstruya el documento markdown.

set.seed(1270)

Los datos se particionan usando la función createDataPartition() al 70 % el resultado es vector con los registros que pertenecen a datos de entrenamiento de los datos originales.

  • datos[entrena, ], son los datos de entrenamiento y

  • datos[- entrena, ] son los datos de validación.

entrena <- createDataPartition(y = datos$Sales, p = 0.70, list = FALSE, times = 1)
# Datos entrenamiento
datos.entrenamiento <- datos[entrena, ]  # [renglones, columna]
# Datos validación
datos.validacion <- datos[-entrena, ]

Datos de entrenamiento 70%

Se despliegan los primeros diez registros de los datos de entrenamiento y no deben aparecer en los datos de validación deben ser diferentes unos con otros.

head(datos.entrenamiento, 10)
##    X.1  X    TV Radio Newspaper       Web Sales
## 2    2  2  44.5  39.3      45.1 302.65307  10.4
## 4    4  4 151.5  41.3      58.5 257.81689  18.5
## 5    5  5 180.8  10.8      58.4 195.66008  12.9
## 8    8  8 120.2  19.6      11.6 229.97146  13.2
## 9    9  9   8.6   2.1       1.0 144.61739   4.8
## 10  10 10 199.8   2.6      21.2 111.27226  10.6
## 11  11 11  66.1   5.8      24.2  45.35903   8.6
## 12  12 12 214.7  24.0       4.0 164.97176  17.4
## 13  13 13  23.8  35.1      65.9  87.92109   9.2
## 14  14 14  97.5   7.6       7.2 173.65804   9.7
paste("Número de observaciones en datos de entrenamiento ", nrow(datos.entrenamiento))
## [1] "Número de observaciones en datos de entrenamiento  142"

Datos de validación 30%

Se despliegan los primeros diez registros y no deben estar en los datos de entrenamiento

head(datos.validacion, 10)
##    X.1  X    TV Radio Newspaper       Web Sales
## 1    1  1 230.1  37.8      69.2 306.63475  22.1
## 3    3  3  17.2  45.9      69.3  49.49891   9.3
## 6    6  6   8.7  48.9      75.0  22.07240   7.2
## 7    7  7  57.5  32.8      23.5 246.81160  11.8
## 15  15 15 204.1  32.9      46.0 245.77496  19.0
## 16  16 16 195.4  47.7      52.9 148.09513  22.4
## 17  17 17  67.8  36.6     114.0 202.63890  12.5
## 20  20 20 147.3  23.9      19.1 268.73538  14.6
## 25  25 25  62.3  12.6      18.3 256.96524   9.7
## 26  26 26 262.9   3.5      19.5 160.56286  12.0
paste("Número de observaciones en datos de entrenamiento ", nrow(datos.validacion))
## [1] "Número de observaciones en datos de entrenamiento  58"

Modelo de regresión lineal simple

La variable dependiente Sales está en función de la variable independiente TV y se designa con el argumento Formula = Sales ~ TV de los datos (data) de entrenamiento.

modelo.simple <- lm(data = datos.entrenamiento, formula = Sales ~ TV)

Resumen del modelo

Generando el resumen del modelo

resumen <- summary(modelo.simple)
resumen
## 
## Call:
## lm(formula = Sales ~ TV, data = datos.entrenamiento)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -8.1184 -1.9059 -0.1432  1.9769  7.4247 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 6.951325   0.548626   12.67   <2e-16 ***
## TV          0.046863   0.003172   14.77   <2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 3.243 on 140 degrees of freedom
## Multiple R-squared:  0.6092, Adjusted R-squared:  0.6064 
## F-statistic: 218.3 on 1 and 140 DF,  p-value: < 2.2e-16

El valor de los coeficientes a y b

a <- modelo.simple$coefficients[1]
b <- modelo.simple$coefficients[2]
a; b
## (Intercept) 
##    6.951325
##         TV 
## 0.04686332

Los coeficientes tienen un nivel de confianza a 99% (‘***’) por lo que el modelo tiene buenos predictores o al 99% de confianza.

Valor de R Square

El valor de Multiple R-squared es de 0.6466 o del 64.66% por lo que SI SE ACEPTA EL MODELO por encima del 60% como inicialmente se estableció como meta.

resumen$r.squared
## [1] 0.6092314

Predicciones del modelo

Con la función predict() se generan predicciones de los datos de validación.

Las predicciones estarán en función de la fórmula y de los valores de los coeficentes a y b:

\[ Y = a + b \cdot x_i \\ \therefore\\ Y = 6.801923 + 0.05013817 \cdot TV_i \]

predicciones <- predict(object = modelo.simple, newdata = datos.validacion)

Estimación lineal

ggplot(data = datos.entrenamiento, aes(x = TV, y = Sales)) + 
  geom_point(colour = "blue") + 
  geom_line(aes(x = TV, y = modelo.simple$fitted.values, colour = 'red'))

Generar tabla comparativa

Se construye una tabla comparativa con los datos de validación y las predicciones generadas para comparar y generar el estadístico rmse.

tabla <- data.frame(TV = datos.validacion$TV, Sales.real = datos.validacion$Sales, Sales.predicciones = predicciones)
tabla
##        TV Sales.real Sales.predicciones
## 1   230.1       22.1          17.734575
## 3    17.2        9.3           7.757374
## 6     8.7        7.2           7.359035
## 7    57.5       11.8           9.645966
## 15  204.1       19.0          16.516129
## 16  195.4       22.4          16.108418
## 17   67.8       12.5          10.128658
## 20  147.3       14.6          13.854292
## 25   62.3        9.7           9.870910
## 26  262.9       12.0          19.271692
## 28  240.1       15.9          18.203208
## 37  266.9       25.4          19.459145
## 39   43.1       10.1           8.971134
## 41  202.5       16.6          16.441147
## 47   89.7       10.6          11.154965
## 54  182.6       21.2          15.508567
## 55  262.7       20.2          19.262320
## 56  198.9       23.7          16.272440
## 60  210.7       18.4          16.825427
## 63  239.3       15.7          18.165718
## 66   69.0        9.3          10.184894
## 70  216.8       22.3          17.111293
## 71  199.1       18.3          16.281812
## 74  129.4       11.0          13.015439
## 83   75.3       11.3          10.480133
## 84   68.4       13.6          10.156776
## 85  213.5       21.7          16.956644
## 90  109.8       16.7          12.096917
## 93  217.7       19.4          17.153470
## 100 135.2       17.2          13.287246
## 102 296.4       23.8          20.841614
## 111 225.8       13.4          17.533063
## 119 125.7       15.9          12.842044
## 123 224.0       11.6          17.448709
## 124 123.1       15.2          12.720200
## 130  59.6        9.7           9.744379
## 131   0.7        1.6           6.984129
## 135  36.9       10.8           8.680581
## 136  48.3       11.6           9.214823
## 137  25.6        9.5           8.151026
## 139  43.0        9.6           8.966447
## 146 140.3       10.3          13.526249
## 147 240.1       13.2          18.203208
## 149  38.0       10.9           8.732131
## 152 121.0       11.6          12.621787
## 153 197.6       16.6          16.211517
## 156   4.1        3.2           7.143464
## 159  11.7        7.3           7.499625
## 160 131.7       12.9          13.123224
## 165 117.2       11.9          12.443706
## 169 215.4       17.1          17.045684
## 172 164.5       14.5          14.660341
## 173  19.6        7.6           7.869846
## 174 168.4       11.7          14.843108
## 175 222.4       11.5          17.373728
## 184 287.6       26.2          20.429216
## 192  75.5        9.9          10.489505
## 197  94.2        9.7          11.365850

Evaluar predicciones con rmse

Se determina la variación de los valores reales contra las predicciones por medio del estadístico rmse (Root Mean Stándar Error) que servirá para compararse con otro modelo concluyendo que en el que tenga menor error es mas eficiente el modelo.

rmse Root Mean Stándar Error, este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.

RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.

Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.

\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]

Se obtiene la métrica con la función rmse() de la librería Metrics previamente argada.

rmse.lineal <- rmse(actual = tabla$Sales.real, predicted = tabla$Sales.predicciones)
rmse.lineal
## [1] 3.315773

El valor de rmse es de: 3.3157734 y habrá que compararse con otro modelo que se haya construído con los mismos datos y las mismas variables, ejemplo modelos de regresión polinomial.


Modelo de regresión polinomial de segundo nivel

La variable dependiente Sales está en función de la variable independiente TV y se designa con el argumento Formula = Sales ~ TV de los datos (data) de entrenamiento pero en función de elevar al cuadrado el valor del coeficiente TV.

\[ Y = \beta0 + \beta_1\cdot x_i+\beta_2\cdot x_i^2 + ... \beta_n \cdot x_i^n \]

Usando argumento Poly

modelo.poly2 <- lm(data = datos.entrenamiento, formula = Sales ~ poly(x = TV, degree = 2, raw = TRUE))

Usando argumento I

modelo.poly2.I <- lm(Sales ~ TV + I(x = TV ^ 2), data = datos.entrenamiento)

Resumen del modelo

Generando el resumen del modelo

resumen <- summary(modelo.poly2)
resumen
## 
## Call:
## lm(formula = Sales ~ poly(x = TV, degree = 2, raw = TRUE), data = datos.entrenamiento)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -7.4122 -1.7853 -0.4416  1.8201  7.7822 
## 
## Coefficients:
##                                         Estimate Std. Error t value Pr(>|t|)
## (Intercept)                            5.934e+00  7.934e-01   7.479 7.69e-12
## poly(x = TV, degree = 2, raw = TRUE)1  6.816e-02  1.248e-02   5.461 2.12e-07
## poly(x = TV, degree = 2, raw = TRUE)2 -7.289e-05  4.134e-05  -1.763   0.0801
##                                          
## (Intercept)                           ***
## poly(x = TV, degree = 2, raw = TRUE)1 ***
## poly(x = TV, degree = 2, raw = TRUE)2 .  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 3.218 on 139 degrees of freedom
## Multiple R-squared:  0.6178, Adjusted R-squared:  0.6123 
## F-statistic: 112.3 on 2 and 139 DF,  p-value: < 2.2e-16

Los coeficientes tienen un nivel de confianza a 99% (‘***’) excepto el predictor b2 que tienen un nivel de confianza por debajo del 90%. Sin embargo se aceptan los predictores.

El valor de los coeficientes con modelo Poly

b0 <- modelo.poly2$coefficients[1]
b1 <- modelo.poly2$coefficients[2]
b2 <- modelo.poly2$coefficients[3]
b0; b1; b2
## (Intercept) 
##    5.933878
## poly(x = TV, degree = 2, raw = TRUE)1 
##                            0.06815586
## poly(x = TV, degree = 2, raw = TRUE)2 
##                         -7.288663e-05

Coeficientes con el modelo I

bI0 <- modelo.poly2$coefficients[1]
bI1 <- modelo.poly2$coefficients[2]
bI2 <- modelo.poly2$coefficients[3]
bI0; bI1; bI2
## (Intercept) 
##    5.933878
## poly(x = TV, degree = 2, raw = TRUE)1 
##                            0.06815586
## poly(x = TV, degree = 2, raw = TRUE)2 
##                         -7.288663e-05

Deben ser los mismos valores.

Valor de R Square

El valor de Multiple R-squared es de 0.6299282 o del 62.99% por lo que SI SE ACEPTA EL MODELO por encima del 60% como inicialmente se estableció como meta.

resumen$r.squared
## [1] 0.6177794

Predicciones del modelo

Con la función predict() se generan predicciones de los datos de validación.

Las predicciones estarán en función de la fórmula y de los valores de los coeficentes a y b:

\[ Y = \beta0 + \beta_1\cdot x+\beta_2\cdot x^2 + ... \beta_n \cdot x^n \\ \therefore Y = 6.108493 + 0.06526148 \cdot TV_i + -5.309162e-05 \cdot TV_i^2 \]

predicciones <- predict(object = modelo.poly2, newdata = datos.validacion)

Curva de estimación

ggplot(data = datos.entrenamiento, aes(x = TV, y = Sales)) + 
  geom_point(colour = "blue") + 
  geom_line(aes(x = TV, y = modelo.poly2$fitted.values, colour = 'red'))

Generar tabla comparativa

Se construye una tabla comparativa con los datos de validación y las predicciones generadas para comparar y generar el estadístico rmse.

tabla <- data.frame(TV = datos.validacion$TV, Sales.real = datos.validacion$Sales, Sales.predicciones = predicciones)
tabla
##        TV Sales.real Sales.predicciones
## 1   230.1       22.1          17.757486
## 3    17.2        9.3           7.084596
## 6     8.7        7.2           6.521317
## 7    57.5       11.8           9.611859
## 15  204.1       19.0          16.808265
## 16  195.4       22.4          16.468638
## 17   67.8       12.5          10.219797
## 20  147.3       14.6          14.391794
## 25   62.3        9.7           9.897094
## 26  262.9       12.0          18.814393
## 28  240.1       15.9          18.096332
## 37  266.9       25.4          18.932555
## 39   43.1       10.1           8.736001
## 41  202.5       16.6          16.746633
## 47   89.7       10.6          11.461007
## 54  182.6       21.2          15.948897
## 55  262.7       20.2          18.808423
## 56  198.9       23.7          16.606596
## 60  210.7       18.4          17.058554
## 63  239.3       15.7          18.069761
## 66   69.0        9.3          10.289619
## 70  216.8       22.3          17.284235
## 71  199.1       18.3          16.614426
## 74  129.4       11.0          13.532807
## 83   75.3       11.3          10.652741
## 84   68.4       13.6          10.254735
## 85  213.5       21.7          17.162818
## 90  109.8       16.7          12.538668
## 93  217.7       19.4          17.317073
## 100 135.2       17.2          13.816253
## 102 296.4       23.8          19.731970
## 111 225.8       13.4          17.607301
## 119 125.7       15.9          13.349426
## 123 224.0       11.6          17.543632
## 124 123.1       15.2          13.219369
## 130  59.6        9.7           9.737062
## 131   0.7        1.6           5.981551
## 135  36.9       10.8           8.349586
## 136  48.3       11.6           9.055770
## 137  25.6        9.5           7.630901
## 139  43.0        9.6           8.729813
## 146 140.3       10.3          14.061439
## 147 240.1       13.2          18.096332
## 149  38.0       10.9           8.418552
## 152 121.0       11.6          13.113604
## 153 197.6       16.6          16.555563
## 156   4.1        3.2           6.212092
## 159  11.7        7.3           6.721324
## 160 131.7       12.9          13.645795
## 165 117.2       11.9          12.920586
## 169 215.4       17.1          17.232919
## 172 164.5       14.5          15.173187
## 173  19.6        7.6           7.241733
## 174 168.4       11.7          15.344366
## 175 222.4       11.5          17.486641
## 184 287.6       26.2          19.506778
## 192  75.5        9.9          10.664174
## 197  94.2        9.7          11.707391

Evaluar predicciones con rmse

Se determina la variación de los valores reales contra las predicciones por medio del estadístico rmse (Root Mean Stándar Error) que servirá para compararse con otro modelo concluyendo que en el que tenga menor error es mas eficiente el modelo.

rmse Root Mean Stándar Error, este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.

RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.

Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.

\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]

Se obtiene la métrica con la función rmse() de la librería Metrics previamente argada.

rmse.poly2 <- rmse(actual = tabla$Sales.real, predicted = tabla$Sales.predicciones)
rmse.poly2
## [1] 3.297263

El valor de rmse es de: 3.2972626 y habrá que compararse con otro modelo que se haya construido con los mismos datos y las mismas variables, ejemplo modelos de regresión polinomial.


Modelo de regresión polinomial de quinto nivel

La variable dependiente Sales está en función de la variable independiente TV y se designa con el argumento Formula = Sales ~ TV de los datos (data) de entrenamiento pero en función de elevar a la quinta potencia el valor del coeficiente TV.

\[ Y = \beta0 + \beta_1\cdot x_i+\beta_2\cdot x_i^2 + ... \beta_5\cdot x_i^5 \]

Usando argumento Poly

modelo.poly5 <- lm(data = datos.entrenamiento, formula = Sales ~ poly(x = TV, degree = 5, raw = TRUE))

Resumen del modelo

Generando el resumen del modelo

resumen <- summary(modelo.poly5)
resumen
## 
## Call:
## lm(formula = Sales ~ poly(x = TV, degree = 5, raw = TRUE), data = datos.entrenamiento)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -7.5597 -1.8231 -0.2442  1.7189  7.6379 
## 
## Coefficients:
##                                         Estimate Std. Error t value Pr(>|t|)  
## (Intercept)                            4.801e+00  1.907e+00   2.517    0.013 *
## poly(x = TV, degree = 5, raw = TRUE)1  1.337e-01  1.365e-01   0.979    0.329  
## poly(x = TV, degree = 5, raw = TRUE)2 -9.139e-04  2.791e-03  -0.327    0.744  
## poly(x = TV, degree = 5, raw = TRUE)3  3.530e-06  2.330e-05   0.151    0.880  
## poly(x = TV, degree = 5, raw = TRUE)4 -3.109e-09  8.513e-08  -0.037    0.971  
## poly(x = TV, degree = 5, raw = TRUE)5 -5.566e-12  1.128e-10  -0.049    0.961  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 3.241 on 136 degrees of freedom
## Multiple R-squared:  0.6208, Adjusted R-squared:  0.6069 
## F-statistic: 44.54 on 5 and 136 DF,  p-value: < 2.2e-16

Los coeficientes tienen un nivel de confianza por encima del 90% (‘***’) excepto el predictor b5 que tienen un nivel de confianza por debajo del 90%. Sin embargo se aceptan los predictores.

El valor de los coeficientes con modelo Poly

b0 <- modelo.poly5$coefficients[1]
b1 <- modelo.poly5$coefficients[2]
b2 <- modelo.poly5$coefficients[3]
b3 <- modelo.poly5$coefficients[4]
b4 <- modelo.poly5$coefficients[5]
b5 <- modelo.poly5$coefficients[6]
b0; b1; b2; b3; b4; b5
## (Intercept) 
##    4.801157
## poly(x = TV, degree = 5, raw = TRUE)1 
##                             0.1337166
## poly(x = TV, degree = 5, raw = TRUE)2 
##                         -0.0009138894
## poly(x = TV, degree = 5, raw = TRUE)3 
##                          3.529903e-06
## poly(x = TV, degree = 5, raw = TRUE)4 
##                         -3.108767e-09
## poly(x = TV, degree = 5, raw = TRUE)5 
##                         -5.566317e-12

Valor de R Square

El valor de Multiple R-squared es de 0.6426 o del 64.26% por lo que SI SE ACEPTA EL MODELO por encima del 60% como inicialmente se estableció como meta.

resumen$r.squared
## [1] 0.6208403

Predicciones del modelo

Con la función predict() se generan predicciones de los datos de validación.

Las predicciones estarán en función de la fórmula y de los valores de los coeficentes a y b:

\[ Y = \beta0 + \beta_1\cdot x+\beta_2\cdot x^2 \beta_3\cdot x^3+ \beta_4\cdot x^4 + \beta_5\cdot x^5 \\ \therefore \\ Y = 3.200194 + 0.2979779\cdot TV_i + -0.004548809 \cdot TV_i^2 + 3.519913e-05 \cdot TV_i^3 + -1.218158e-07 \cdot TV_i^4 + 1.547874e-10 \cdot TV_i^5 \]

predicciones <- predict(object = modelo.poly5, newdata = datos.validacion)

Curva de estimación

ggplot(data = datos.entrenamiento, aes(x = TV, y = Sales)) + 
  geom_point(colour = "blue") + 
  geom_line(aes(x = TV, y = modelo.poly5$fitted.values, colour = 'red'))

Generar tabla comparativa

Se construye una tabla comparativa con los datos de validación y las predicciones generadas para comparar y generar el estadístico rmse.

tabla <- data.frame(TV = datos.validacion$TV, Sales.real = datos.validacion$Sales, Sales.predicciones = predicciones)
tabla
##        TV Sales.real Sales.predicciones
## 1   230.1       22.1          17.881713
## 3    17.2        9.3           6.848399
## 6     8.7        7.2           5.897626
## 7    57.5       11.8          10.101901
## 15  204.1       19.0          16.668732
## 16  195.4       22.4          16.253661
## 17   67.8       12.5          10.692623
## 20  147.3       14.6          14.100781
## 25   62.3        9.7          10.386122
## 26  262.9       12.0          19.089797
## 28  240.1       15.9          18.308177
## 37  266.9       25.4          19.187511
## 39   43.1       10.1           9.137752
## 41  202.5       16.6          16.592283
## 47   89.7       10.6          11.756367
## 54  182.6       21.2          15.651511
## 55  262.7       20.2          19.084538
## 56  198.9       23.7          16.420382
## 60  210.7       18.4          16.983559
## 63  239.3       15.7          18.275453
## 66   69.0        9.3          10.757007
## 70  216.8       22.3          17.272136
## 71  199.1       18.3          16.429924
## 74  129.4       11.0          13.376340
## 83   75.3       11.3          11.081880
## 84   68.4       13.6          10.724921
## 85  213.5       21.7          17.116444
## 90  109.8       16.7          12.597386
## 93  217.7       19.4          17.314379
## 100 135.2       17.2          13.608001
## 102 296.4       23.8          19.336463
## 111 225.8       13.4          17.688703
## 119 125.7       15.9          13.229449
## 123 224.0       11.6          17.606590
## 124 123.1       15.2          13.126442
## 130  59.6        9.7          10.228285
## 131   0.7        1.6           4.894312
## 135  36.9       10.8           8.662149
## 136  48.3       11.6           9.507028
## 137  25.6        9.5           7.683201
## 139  43.0        9.6           9.130395
## 146 140.3       10.3          13.813845
## 147 240.1       13.2          18.308177
## 149  38.0       10.9           8.749501
## 152 121.0       11.6          13.043282
## 153 197.6       16.6          16.358395
## 156   4.1        3.2           5.334275
## 159  11.7        7.3           6.246133
## 160 131.7       12.9          13.467955
## 165 117.2       11.9          12.892658
## 169 215.4       17.1          17.206228
## 172 164.5       14.5          14.833597
## 173  19.6        7.6           7.097026
## 174 168.4       11.7          15.005852
## 175 222.4       11.5          17.533037
## 184 287.6       26.2          19.416533
## 192  75.5        9.9          11.091855
## 197  94.2        9.7          11.952294

Evaluar predicciones con rmse

Se determina la variación de los valores reales contra las predicciones por medio del estadístico rmse (Root Mean Stándar Error) que servirá para compararse con otro modelo concluyendo que en el que tenga menor error es mas eficiente el modelo.

rmse Root Mean Stándar Error, este valor normalmente se compara contra otro modelo y el que esté mas cerca de cero es mejor.

RMSE es una forma útil de ver qué tan bien un modelo de regresión puede ajustarse a un conjunto de datos.

Cuanto mayor sea el rmse, mayor será la diferencia entre los valores predichos y reales, lo que significa que peor se ajusta un modelo de regresión a los datos. Por el contrario, cuanto más pequeño sea el rmse, mejor podrá un modelo ajustar los datos.

\[ rmse = \sqrt{\frac{\sum(predicho_i - real_i)^{2}}{n}} \]

Se obtiene la métrica con la función rmse() de la librería Metrics previamente argada.

rmse.poly5 <- rmse(actual = tabla$Sales.real, predicted = tabla$Sales.predicciones)
rmse.poly5
## [1] 3.290378

El valor de rmse es de: 3.2903777 y habrá que compararse con otro modelo que se haya construido con los mismos datos y las mismas variables, ejemplo modelos de regresión polinomial.

Interpretación

Los tres modelos tienen un R Square por encima del 60% por lo que se acepta el modelo conforme a la métrica establecida como estadístico de medición. Estosignifica que la variable TV explica al menos el 60% a la variable Sales.

Los coeficientes de los tres modelos son diferents de 0 con nivees de confianza en su mayoría por encima del 90%

La tabla siguiente resume cual modelo es más eficiente dado que tiene menor error de variación rmse = Root Mean Stándar Error.

modelos <- c("Lineal Simple", "Polinomial Segundo nivel", "Polinomial Quinto nivel")
rmse <- c(c(rmse.lineal, rmse.poly2, rmse.poly5))
comparativo.rmse <- data.frame(modelos, rmse)
kable(x = comparativo.rmse, caption = "Comparativo con rmse", )
Comparativo con rmse
modelos rmse
Lineal Simple 3.315773
Polinomial Segundo nivel 3.297263
Polinomial Quinto nivel 3.290378

El modelo más óptimo en cuanto a la métrica de rmse es Polinomial Segundo nivel con un valor de 3.092417 comparado con los otros dos y que significa que las predicciones tienen menor variación o diferencia con respecto a los valores reales.