Paula Cazali

Fiabilidad

8.3.1 Fitting Classification Trees

Se cargará la librería tree:

library(tree)

Se usarán árboles de clasificación para analizar el dataset Carseats. En este dataset Sales es una variable continua, por lo que primero se transformará a una variable binaria. Se usará la función ifelse() para crear una variable High la cual tendrá un valor de Yes si la variable Sales sobrepasa \(8\) y un valor de No si no lo sobrepasa.

library(ISLR)
High <- ifelse(Sales <= 8, "No", "Yes")

Luego se usará la función data.frame() para unir la variable High que creamos con el resto del dataset.

Carseats2 <- data.frame(Carseats,High)
attach(Carseats2)

Ahora se usará la función tree() para ajustar un árbol de clasificación para poder predecir la variable High usando todas las variables menos Sales, la cual usamos para crear la variable High.

tree.carseats <- tree(High ~ .-Sales, Carseats2)

La función summary() lista las variables que fueron usadas como nodos internos en el árbol, el número de nodos terminales y la tasa de error del training.

summary(tree.carseats)

Classification tree:
tree(formula = High ~ . - Sales, data = Carseats2)
Variables actually used in tree construction:
[1] "ShelveLoc"   "Price"       "Income"      "CompPrice"   "Population"  "Advertising" "Age"         "US"         
Number of terminal nodes:  27 
Residual mean deviance:  0.4575 = 170.7 / 373 
Misclassification error rate: 0.09 = 36 / 400 

Se puede ver que la tasa de error de training es del \(9\%\).

Una de las propiedades más atractivas de los árboles es que puede ser mostrada la estructura del árbol graficamente usando la función plot() y con la función text() se puede desplegar las etiquetas de los nodos.

plot(tree.carseats)
text(tree.carseats, pretty = 0)

Se puede ver que el indicador más importante de Sales parece ser la ubicación en las estanterias, esta rama diferencia entre Good, Bad y Medium con respecto a las ubicaciones. Si solo escribimos el nombre del objeto del árbol, R despliega la salida corresponndiente para cada rama del árbol. Las ramas que llevan a nodos terminales están indicados usando asteriscos.

tree.carseats
node), split, n, deviance, yval, (yprob)
      * denotes terminal node

  1) root 400 541.500 No ( 0.59000 0.41000 )  
    2) ShelveLoc: Bad,Medium 315 390.600 No ( 0.68889 0.31111 )  
      4) Price < 92.5 46  56.530 Yes ( 0.30435 0.69565 )  
        8) Income < 57 10  12.220 No ( 0.70000 0.30000 )  
         16) CompPrice < 110.5 5   0.000 No ( 1.00000 0.00000 ) *
         17) CompPrice > 110.5 5   6.730 Yes ( 0.40000 0.60000 ) *
        9) Income > 57 36  35.470 Yes ( 0.19444 0.80556 )  
         18) Population < 207.5 16  21.170 Yes ( 0.37500 0.62500 ) *
         19) Population > 207.5 20   7.941 Yes ( 0.05000 0.95000 ) *
      5) Price > 92.5 269 299.800 No ( 0.75465 0.24535 )  
       10) Advertising < 13.5 224 213.200 No ( 0.81696 0.18304 )  
         20) CompPrice < 124.5 96  44.890 No ( 0.93750 0.06250 )  
           40) Price < 106.5 38  33.150 No ( 0.84211 0.15789 )  
             80) Population < 177 12  16.300 No ( 0.58333 0.41667 )  
              160) Income < 60.5 6   0.000 No ( 1.00000 0.00000 ) *
              161) Income > 60.5 6   5.407 Yes ( 0.16667 0.83333 ) *
             81) Population > 177 26   8.477 No ( 0.96154 0.03846 ) *
           41) Price > 106.5 58   0.000 No ( 1.00000 0.00000 ) *
         21) CompPrice > 124.5 128 150.200 No ( 0.72656 0.27344 )  
           42) Price < 122.5 51  70.680 Yes ( 0.49020 0.50980 )  
             84) ShelveLoc: Bad 11   6.702 No ( 0.90909 0.09091 ) *
             85) ShelveLoc: Medium 40  52.930 Yes ( 0.37500 0.62500 )  
              170) Price < 109.5 16   7.481 Yes ( 0.06250 0.93750 ) *
              171) Price > 109.5 24  32.600 No ( 0.58333 0.41667 )  
                342) Age < 49.5 13  16.050 Yes ( 0.30769 0.69231 ) *
                343) Age > 49.5 11   6.702 No ( 0.90909 0.09091 ) *
           43) Price > 122.5 77  55.540 No ( 0.88312 0.11688 )  
             86) CompPrice < 147.5 58  17.400 No ( 0.96552 0.03448 ) *
             87) CompPrice > 147.5 19  25.010 No ( 0.63158 0.36842 )  
              174) Price < 147 12  16.300 Yes ( 0.41667 0.58333 )  
                348) CompPrice < 152.5 7   5.742 Yes ( 0.14286 0.85714 ) *
                349) CompPrice > 152.5 5   5.004 No ( 0.80000 0.20000 ) *
              175) Price > 147 7   0.000 No ( 1.00000 0.00000 ) *
       11) Advertising > 13.5 45  61.830 Yes ( 0.44444 0.55556 )  
         22) Age < 54.5 25  25.020 Yes ( 0.20000 0.80000 )  
           44) CompPrice < 130.5 14  18.250 Yes ( 0.35714 0.64286 )  
             88) Income < 100 9  12.370 No ( 0.55556 0.44444 ) *
             89) Income > 100 5   0.000 Yes ( 0.00000 1.00000 ) *
           45) CompPrice > 130.5 11   0.000 Yes ( 0.00000 1.00000 ) *
         23) Age > 54.5 20  22.490 No ( 0.75000 0.25000 )  
           46) CompPrice < 122.5 10   0.000 No ( 1.00000 0.00000 ) *
           47) CompPrice > 122.5 10  13.860 No ( 0.50000 0.50000 )  
             94) Price < 125 5   0.000 Yes ( 0.00000 1.00000 ) *
             95) Price > 125 5   0.000 No ( 1.00000 0.00000 ) *
    3) ShelveLoc: Good 85  90.330 Yes ( 0.22353 0.77647 )  
      6) Price < 135 68  49.260 Yes ( 0.11765 0.88235 )  
       12) US: No 17  22.070 Yes ( 0.35294 0.64706 )  
         24) Price < 109 8   0.000 Yes ( 0.00000 1.00000 ) *
         25) Price > 109 9  11.460 No ( 0.66667 0.33333 ) *
       13) US: Yes 51  16.880 Yes ( 0.03922 0.96078 ) *
      7) Price > 135 17  22.070 No ( 0.64706 0.35294 )  
       14) Income < 46 6   0.000 No ( 1.00000 0.00000 ) *
       15) Income > 46 11  15.160 Yes ( 0.45455 0.54545 ) *

A manera de evaluar bien el desempeño del árbol de clasificación en este dataset, se de estimar el error de testing y compararlo con el error de training. Se dividirán las observaciones en un training set y un test set. Se construirá el árbol usando el training set y se evaluará su desempeño con el test set. La función predict() puede ser usada para este propósito. En el caso del árbol de clasificación, el argumento type = "class" devuleve la clase actual de esa predección. Este enfoque lleva a predicciones correctas alrededor de \(71.5\%\) de las localizaciones en el test set.

set.seed(2)
train <- sample(1:nrow(Carseats2), 200)
Carseats.test <- Carseats2[-train,]
High.test <- High[-train]
tree.carseats <- tree(High ~ .-Sales,Carseats2, subset = train)
tree.pred <- predict(tree.carseats, Carseats.test, type = "class")
table(tree.pred, High.test)
         High.test
tree.pred No Yes
      No  86  27
      Yes 30  57
(86+57)/200
[1] 0.715

La función cv.tree() realiza un cross-validation para determinar el nivel óptimo de la complejidad del árbol. Se usa el argumento FUN = prune.misclass para indicar que se quiere una tasa de error de clasificación para guiar la cross-validation comparado con el default para cv.tree().

set.seed(3)
cv.carseats <- cv.tree(tree.carseats, FUN = prune.misclass)
names(cv.carseats)
[1] "size"   "dev"    "k"      "method"
cv.carseats$size
[1] 19 17 14 13  9  7  3  2  1
cv.carseats$dev
[1] 55 55 53 52 50 56 69 65 80
cv.carseats$k
[1]       -Inf  0.0000000  0.6666667  1.0000000  1.7500000
[6]  2.0000000  4.2500000  5.0000000 23.0000000
cv.carseats$method
[1] "misclass"
attr(cv.carseats,"class")
[1] "prune"         "tree.sequence"

La variable dev corresponde al error de cross-validation. El árbol con \(9\) nodos terminales resulta en el error más pequeño de cross-validation. Con \(50\) errores de cross-validation. Ahora se grafica el error como una función de size y de k:

par(mfrow = c(1,2))
plot(cv.carseats$size, cv.carseats$dec, type = "b")
plot(cv.carseats$k, cv.carseats$dev, type = "b")

Aplicamos la función prune.misclass():

prune.carseats <- prune.misclass(tree.carseats, best = 9)
plot(prune.carseats)
text(prune.carseats, pretty = 0)

Aplicamos la función predict():

tree.pred <- predict(prune.carseats, Carseats.test, type = "class")
table(tree.pred, High.test)
         High.test
tree.pred No Yes
      No  94  24
      Yes 22  60
(94+60)/200
[1] 0.77

Ahora el \(77\%\) de las observaciones del test están correctamente clasificadas. Si se incrementa el valor para best.

prune.carseats <- prune.misclass(tree.carseats, best = 15)
plot(prune.carseats)
text(prune.carseats, pretty = 0)

tree.pred <- predict(prune.carseats, Carseats.test, type = "class")
table(tree.pred, High.test)
         High.test
tree.pred No Yes
      No  86  22
      Yes 30  62
(86+62)/200
[1] 0.74

8.3.2 Fitting Regression Trees

Ahora se hará un árbol para el dataset Boston. Primero creamos el training set y creamos el árbol para el training.

library(MASS)
set.seed(1)
train <- sample(1:nrow(Boston), nrow(Boston)/2)
tree.boston <- tree(medv ~ ., Boston, subset = train)
summary(tree.boston)

Regression tree:
tree(formula = medv ~ ., data = Boston, subset = train)
Variables actually used in tree construction:
[1] "lstat" "rm"    "dis"  
Number of terminal nodes:  8 
Residual mean deviance:  12.65 = 3099 / 245 
Distribution of residuals:
     Min.   1st Qu.    Median      Mean   3rd Qu. 
-14.10000  -2.04200  -0.05357   0.00000   1.96000 
     Max. 
 12.60000 

Hay que notar que la salida de summary() indica que solamente tres de las variables fueron usadas para construir el árbol. Para este caso la desviación es solamente la suma de los cuadrados de los errores para el árbol. Ahora se grafica el árbol.

plot(tree.boston)
text(tree.boston, pretty = 0)

El árbol indica que para valores más bajos de lstat corresponden a casas más caras. El árbol predice como media un precio de \(\$46,400\) para casas grandes en los suburbios. Ahora se usa la función cv.tree() para mejorar el desempeño.

cv.boston <- cv.tree(tree.boston)
plot(cv.boston$size, cv.boston$dev, type = 'b')

En este caso el árbol más complejo se selecciona por cross-validation.

prune.boston <- prune.tree(tree.boston, best = 5)
plot(prune.boston)
text(prune.boston, pretty = 0)

yhat <- predict(tree.boston, newdata = Boston[-train,])
boston.test = Boston[-train, "medv"]
plot(yhat, boston.test)
abline(0,1)

mean((yhat - boston.test)^2)
[1] 25.04559

Por lo que el MSE para el test set asociado con la regresión del árbol es de \(25.05\).

8.3.3 Bagging and Random Forests

Ahora se aplicará el método de bagging y random forests al dataset Boston usando el paquete randomForest

library(randomForest)
set.seed(1)
bag.boston <- randomForest(medv ~ ., data = Boston, subset = train, mtry = 13, importance = TRUE)
bag.boston

Call:
 randomForest(formula = medv ~ ., data = Boston, mtry = 13, importance = TRUE,      subset = train) 
               Type of random forest: regression
                     Number of trees: 500
No. of variables tried at each split: 13

          Mean of squared residuals: 11.15723
                    % Var explained: 86.49

El argumento mtry = 13 indica que \(13\) predicciones deben ser consideradas para cada split del árbol. Por lo que debe hacerse bagging.

yhat.bag <- predict(bag.boston, newdata = Boston[-train,])
plot(yhat.bag, boston.test)
abline(0,1)

mean((yhat.bag - boston.test)^2)
[1] 13.50808

Ahora se aplicarán los RandomForests:

set.seed(1)
rf.boston <- randomForest(medv ~ ., data = Boston, subset = train, mtry = 6, importance = TRUE)
yhat.rf <- predict(rf.boston, newdata = Boston[-train,])
mean((yhat.rf - boston.test)^2)
[1] 11.66454

Por lo que el MSE del test es de \(11.31\%\) por lo que se ve que el random forest hace una mejora comparado con el bagging. La función importance() puede desplegar la importancia de cada variable.

importance(rf.boston)
          %IncMSE IncNodePurity
crim    12.132320     986.50338
zn       1.955579      57.96945
indus    9.069302     882.78261
chas     2.210835      45.22941
nox     11.104823    1044.33776
rm      31.784033    6359.31971
age     10.962684     516.82969
dis     15.015236    1224.11605
rad      4.118011      95.94586
tax      8.587932     502.96719
ptratio 12.503896     830.77523
black    6.702609     341.30361
lstat   30.695224    7505.73936

Se puede graficar la importancia de las variables:

varImpPlot(rf.boston)

8.3.4 Boosting

Se usa el paquete gbm y la función gbm() para una regresión de tipo boosted en los árboles del dataset Boston.

library(gbm)
set.seed(1)
boost.boston <- gbm(medv ~ ., data = Boston[train,], distribution = "gaussian", n.trees = 5000, interaction.depth = 4)

La función summary() produce una influencia relativa:

summary(boost.boston)
            var    rel.inf
lstat     lstat 37.0661275
rm           rm 25.3533123
dis         dis 11.7903016
crim       crim  8.0388750
black     black  4.2531659
nox         nox  3.5058570
age         age  3.4868724
ptratio ptratio  2.2500385
indus     indus  1.7725070
tax         tax  1.1836592
chas       chas  0.7441319
rad         rad  0.4274311
zn           zn  0.1277206

Se puede ver que lstat y rm son por mucho las variables más importantes. En este caso se puede esérar que la media del precio de las casas incrementen con rm y decrementen con lstat.

par(mfrow = c(1,2))
plot(boost.boston, i = "rm")

plot(boost.boston, i = "lstat")

Ahora se usara el modelo boosted para predecir medv en el test set.

yhat.boost <- predict(boost.boston, newdata = Boston[-train,], n.trees = 5000)
mean((yhat.boost - boston.test)^2)
[1] 10.81479
boost.boston <- gbm(medv ~ ., data = Boston[train,], distribution = "gaussian", n.trees = 5000, interaction.depth = 4, shrinkage = 0.2, verbose = F)
yhat.boost <- predict(boost.boston, newdata = Boston[-train,], n.trees = 5000)
mean((yhat.boost - boston.test)^2)
[1] 11.51109
---
title: "Laboratorio 8.3: Decision Trees"
output: html_notebook
---
## Paula Cazali
### Fiabilidad

### 8.3.1 Fitting Classification Trees

Se cargará la librería `tree`:
```{r}
library(tree)
```

Se usarán árboles de clasificación para analizar el dataset `Carseats`. En este dataset `Sales` es una variable continua, por lo que primero se transformará a una variable binaria. Se usará la función `ifelse()` para crear una variable `High` la cual tendrá un valor de `Yes` si la variable `Sales` sobrepasa $8$ y un valor de `No` si no lo sobrepasa.
```{r}
library(ISLR)
High <- ifelse(Sales <= 8, "No", "Yes")
```

Luego se usará la función `data.frame()` para unir la variable `High` que creamos con el resto del dataset.
```{r}
Carseats2 <- data.frame(Carseats,High)
attach(Carseats2)
```

Ahora se usará la función `tree()` para ajustar un árbol de clasificación para poder predecir la variable `High` usando todas las variables menos `Sales`, la cual usamos para crear la variable `High`.

```{r}
tree.carseats <- tree(High ~ .-Sales, Carseats2)
```


La función `summary()` lista las variables que fueron usadas como nodos internos en el árbol, el número de nodos terminales y la tasa de error del training.

```{r}
summary(tree.carseats)
```

Se puede ver que la tasa de error de training es del $9\%$. 

Una de las propiedades más atractivas de los árboles es que puede ser mostrada la estructura del árbol graficamente usando la función `plot()` y con la función `text()` se puede desplegar las etiquetas de los nodos.

```{r}
plot(tree.carseats)
text(tree.carseats, pretty = 0)
```

Se puede ver que el indicador más importante de `Sales` parece ser la ubicación en las estanterias, esta rama diferencia entre `Good`, `Bad` y `Medium` con respecto a las ubicaciones.
Si solo escribimos el nombre del objeto del árbol, R despliega la salida corresponndiente para cada rama del árbol. Las ramas que llevan a nodos terminales están indicados usando asteriscos.

```{r}
tree.carseats
```

A manera de evaluar bien el desempeño del árbol de clasificación en este dataset, se de estimar el error de testing y compararlo con el error de training. Se dividirán las observaciones en un training set y un test set. Se construirá el árbol usando el training set y se evaluará su desempeño con el test set. La función `predict()` puede ser usada para este propósito. En el caso del árbol de clasificación, el argumento `type = "class"` devuleve la clase actual de esa predección. Este enfoque lleva a predicciones correctas alrededor de $71.5\%$ de las localizaciones en el test set.

```{r}
set.seed(2)
train <- sample(1:nrow(Carseats2), 200)
Carseats.test <- Carseats2[-train,]
High.test <- High[-train]
tree.carseats <- tree(High ~ .-Sales,Carseats2, subset = train)
tree.pred <- predict(tree.carseats, Carseats.test, type = "class")
table(tree.pred, High.test)
```

```{r}
(86+57)/200
```

La función `cv.tree()` realiza un cross-validation para determinar el nivel óptimo de la complejidad del árbol. Se usa el argumento `FUN = prune.misclass` para indicar que se quiere una tasa de error de clasificación para guiar la cross-validation comparado con el default para `cv.tree()`.

```{r}
set.seed(3)
cv.carseats <- cv.tree(tree.carseats, FUN = prune.misclass)
names(cv.carseats)
cv.carseats$size
cv.carseats$dev
cv.carseats$k
cv.carseats$method
attr(cv.carseats,"class")
```

La variable `dev` corresponde al error de cross-validation. El árbol con $9$ nodos terminales resulta en el error más pequeño de cross-validation. Con $50$ errores de cross-validation. 
Ahora se grafica el error como una función de `size` y de `k`:

```{r}
par(mfrow = c(1,2))
plot(cv.carseats$size, cv.carseats$dec, type = "b")
plot(cv.carseats$k, cv.carseats$dev, type = "b")
```

Aplicamos la función `prune.misclass()`:
```{r}
prune.carseats <- prune.misclass(tree.carseats, best = 9)
plot(prune.carseats)
text(prune.carseats, pretty = 0)
```

Aplicamos la función `predict()`:
```{r}
tree.pred <- predict(prune.carseats, Carseats.test, type = "class")
table(tree.pred, High.test)
```
```{r}
(94+60)/200
```

Ahora el $77\%$ de las observaciones del test están correctamente clasificadas. Si se incrementa el valor para `best`.
```{r}
prune.carseats <- prune.misclass(tree.carseats, best = 15)
plot(prune.carseats)
text(prune.carseats, pretty = 0)
```

```{r}
tree.pred <- predict(prune.carseats, Carseats.test, type = "class")
table(tree.pred, High.test)
```
```{r}
(86+62)/200
```

### 8.3.2 Fitting Regression Trees
Ahora se hará un árbol para el dataset `Boston`. Primero creamos el training set y creamos el árbol para el training.
```{r}
library(MASS)
```

```{r}
set.seed(1)
train <- sample(1:nrow(Boston), nrow(Boston)/2)
tree.boston <- tree(medv ~ ., Boston, subset = train)
summary(tree.boston)
```

Hay que notar que la salida de `summary()` indica que solamente tres de las variables fueron usadas para construir el árbol. Para este caso la desviación es solamente la suma de los cuadrados de los errores para el árbol. Ahora se grafica el árbol.
```{r}
plot(tree.boston)
text(tree.boston, pretty = 0)
```

El árbol indica que para valores más bajos de `lstat` corresponden a casas más caras. El árbol predice como media un precio de $\$46,400$ para casas grandes en los suburbios.
Ahora se usa la función `cv.tree()` para mejorar el desempeño.
```{r}
cv.boston <- cv.tree(tree.boston)
plot(cv.boston$size, cv.boston$dev, type = 'b')
```

En este caso el árbol más complejo se selecciona por cross-validation.
```{r}
prune.boston <- prune.tree(tree.boston, best = 5)
plot(prune.boston)
text(prune.boston, pretty = 0)
```

```{r}
yhat <- predict(tree.boston, newdata = Boston[-train,])
boston.test = Boston[-train, "medv"]
plot(yhat, boston.test)
abline(0,1)
```

```{r}
mean((yhat - boston.test)^2)
```

Por lo que el MSE para el test set asociado con la regresión del árbol es de $25.05$.

### 8.3.3 Bagging and Random Forests 
Ahora se aplicará el método de bagging y random forests al dataset `Boston` usando el paquete `randomForest`

```{r}
library(randomForest)
```

```{r}
set.seed(1)
bag.boston <- randomForest(medv ~ ., data = Boston, subset = train, mtry = 13, importance = TRUE)
bag.boston
```

El argumento `mtry = 13` indica que $13$ predicciones deben ser consideradas para cada split del árbol. Por lo que debe hacerse bagging.
```{r}
yhat.bag <- predict(bag.boston, newdata = Boston[-train,])
plot(yhat.bag, boston.test)
abline(0,1)
```
```{r}
mean((yhat.bag - boston.test)^2)
```

Ahora se aplicarán los RandomForests:
```{r}
set.seed(1)
rf.boston <- randomForest(medv ~ ., data = Boston, subset = train, mtry = 6, importance = TRUE)
yhat.rf <- predict(rf.boston, newdata = Boston[-train,])
mean((yhat.rf - boston.test)^2)
```
Por lo que el MSE del test es de $11.31\%$ por lo que se ve que el random forest hace una mejora comparado con el bagging.
La función `importance()` puede desplegar la importancia de cada variable.
```{r}
importance(rf.boston)
```

Se puede graficar la importancia de las variables:
```{r}
varImpPlot(rf.boston)
```

### 8.3.4 Boosting

Se usa el paquete `gbm` y la función `gbm()` para una regresión de tipo boosted en los árboles del dataset Boston. 

```{r}
library(gbm)
```

```{r}
set.seed(1)
boost.boston <- gbm(medv ~ ., data = Boston[train,], distribution = "gaussian", n.trees = 5000, interaction.depth = 4)
```

La función `summary()` produce una influencia relativa:
```{r}
summary(boost.boston)
```

Se puede ver que `lstat` y `rm` son por mucho las variables más importantes. En este caso se puede esérar que la media del precio de las casas incrementen con `rm` y decrementen con `lstat`.
```{r}
par(mfrow = c(1,2))
plot(boost.boston, i = "rm")
```

```{r}
plot(boost.boston, i = "lstat")
```

Ahora se usara el modelo boosted para predecir `medv` en el test set.
```{r}
yhat.boost <- predict(boost.boston, newdata = Boston[-train,], n.trees = 5000)
mean((yhat.boost - boston.test)^2)
```

```{r}
boost.boston <- gbm(medv ~ ., data = Boston[train,], distribution = "gaussian", n.trees = 5000, interaction.depth = 4, shrinkage = 0.2, verbose = F)
yhat.boost <- predict(boost.boston, newdata = Boston[-train,], n.trees = 5000)
mean((yhat.boost - boston.test)^2)
```



