1 Objetivo

Implementar el modelo de árbol de clasificación con datos relacionados a una condición de salud de las personas para predecir anomalías de corazón y evaluar la exactitud del modelo mediante la matriz de confusión.

2 Descripción

Se cargan librerías y se descargan los datos: https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/heart_2020_cleaned.csv

Los datos están relacionados con aspectos médicos y son valores numéricos de varias variables que caracterizan el estado de salud de 319,795 personas.

Se construye un modelo supervisado basado en el algoritmo de árbol de clasificación para resolver la tarea de clasificación binaria e identificar si una persona padece del corazón o no.

Se construyen datos de entrenamiento y validación al 80% y 20% cada uno.

Se desarrollan los modelos de:

  • Regresión Logística binaria

  • Árbol de Clasificación tipo class

  • K Means

  • SVM Lineal

  • SVM Polinomial

  • SVM Radial

Los modelo se aceptan si tienen un valor de exactitud por encima del 70%..

3 Fundamento teórico

4 Desarrollo

4.1 Cargar librerías

library(readr)
library(dplyr)
library(caret)
library(rpart)
library(rpart.plot)
library(knitr)
library(e1071)        # Vectores de Soporte SVM
library(rpart)        # Arboles de clasificación

4.2 Cargar datos

Cargar datos de manera local.

datos <- read.csv("https://raw.githubusercontent.com/rpizarrog/Analisis-Inteligente-de-datos/main/datos/heart_2020_cleaned.csv")
#datos <- read.csv("../../datos/heart_2020_cleaned.csv", encoding = "UTF-8", stringsAsFactors = TRUE)

4.3 Explorar datos

str(datos)
## 'data.frame':    319795 obs. of  18 variables:
##  $ HeartDisease    : chr  "No" "No" "No" "No" ...
##  $ BMI             : num  16.6 20.3 26.6 24.2 23.7 ...
##  $ Smoking         : chr  "Yes" "No" "Yes" "No" ...
##  $ AlcoholDrinking : chr  "No" "No" "No" "No" ...
##  $ Stroke          : chr  "No" "Yes" "No" "No" ...
##  $ PhysicalHealth  : num  3 0 20 0 28 6 15 5 0 0 ...
##  $ MentalHealth    : num  30 0 30 0 0 0 0 0 0 0 ...
##  $ DiffWalking     : chr  "No" "No" "No" "No" ...
##  $ Sex             : chr  "Female" "Female" "Male" "Female" ...
##  $ AgeCategory     : chr  "55-59" "80 or older" "65-69" "75-79" ...
##  $ Race            : chr  "White" "White" "White" "White" ...
##  $ Diabetic        : chr  "Yes" "No" "Yes" "No" ...
##  $ PhysicalActivity: chr  "Yes" "Yes" "Yes" "No" ...
##  $ GenHealth       : chr  "Very good" "Very good" "Fair" "Good" ...
##  $ SleepTime       : num  5 7 8 6 8 12 4 9 5 10 ...
##  $ Asthma          : chr  "Yes" "No" "Yes" "No" ...
##  $ KidneyDisease   : chr  "No" "No" "No" "No" ...
##  $ SkinCancer      : chr  "Yes" "No" "No" "Yes" ...
summary(datos)
##  HeartDisease            BMI          Smoking          AlcoholDrinking   
##  Length:319795      Min.   :12.02   Length:319795      Length:319795     
##  Class :character   1st Qu.:24.03   Class :character   Class :character  
##  Mode  :character   Median :27.34   Mode  :character   Mode  :character  
##                     Mean   :28.33                                        
##                     3rd Qu.:31.42                                        
##                     Max.   :94.85                                        
##     Stroke          PhysicalHealth    MentalHealth    DiffWalking       
##  Length:319795      Min.   : 0.000   Min.   : 0.000   Length:319795     
##  Class :character   1st Qu.: 0.000   1st Qu.: 0.000   Class :character  
##  Mode  :character   Median : 0.000   Median : 0.000   Mode  :character  
##                     Mean   : 3.372   Mean   : 3.898                     
##                     3rd Qu.: 2.000   3rd Qu.: 3.000                     
##                     Max.   :30.000   Max.   :30.000                     
##      Sex            AgeCategory            Race             Diabetic        
##  Length:319795      Length:319795      Length:319795      Length:319795     
##  Class :character   Class :character   Class :character   Class :character  
##  Mode  :character   Mode  :character   Mode  :character   Mode  :character  
##                                                                             
##                                                                             
##                                                                             
##  PhysicalActivity    GenHealth           SleepTime         Asthma         
##  Length:319795      Length:319795      Min.   : 1.000   Length:319795     
##  Class :character   Class :character   1st Qu.: 6.000   Class :character  
##  Mode  :character   Mode  :character   Median : 7.000   Mode  :character  
##                                        Mean   : 7.097                     
##                                        3rd Qu.: 8.000                     
##                                        Max.   :24.000                     
##  KidneyDisease       SkinCancer       
##  Length:319795      Length:319795     
##  Class :character   Class :character  
##  Mode  :character   Mode  :character  
##                                       
##                                       
## 

4.4 Limpiar datos

No es necesario alguna transformación

4.5 Las variables de interés

Todas las variables son de entrada o variables independientes:

  • BMI”: Indice de masa corporal con valores entre 12.02 y 94.85.

  • Smoking”: Si la persona es fumadora o no con valores categóritos de ‘Yes’ o ‘No’.

  • AlcoholDrinking” : Si consume alcohol o no, con valores categóricos de ‘Yes’ o ‘No’.

  • Stroke”: Si padece alguna anomalía cerebrovascular, apoplejia o algo similar, con valores categóricos de ‘Yes’ o ‘No’.

  • PhysicalHealth” Estado físico en lo general con valores entre 0 y 30.

  • MentalHealth”. Estado mental en lo general con valores entre 0 y 30.

  • DiffWalking” . Que si se le dificulta caminar o tiene algún padecimiento al caminar, con valores categóritoc de ‘Yes’ o ‘No’.

  • Sex”: Género de la persona, con valores de ‘Female’ y ‘Male’ para distinguir al género femenino y masculino respectivamente.

  • AgeCategory”: Una clasificación de la edad de la persona de entre 18 y 80 años. La primera categoría con un rango de edad entre 18-24, a partir de 25 con rangos de 5 en 5 hasta la clase de 75-80 y una última categoría mayores de 80 años.

  • Race”. Raza u origen de la persona con valores categóricos de ‘American Indian/Alaskan Native’, ’Asian’,’Black’, ’Hispanic’, ’Other’ y’White’.

  • Diabetic”. Si padece o ha padecido de diabetes en cuatro condiciones siendo Yes y No para si o no: ‘No’, ‘borderline diabetes’ condición antes de detectarse diabetes tipo 2, ‘Yes’, y ‘Yes (during pregnancy)’ durante embarazo.

  • PhysicalActivity” que si realiza actividad física, con valores categóricos de ‘Yes’ o ‘No’.

  • GenHealth”: EStado general de salud de la persona con valores categóricos de ‘Excellent’, ‘Very good’, ’Good’, ’Fair’ y ’Poor’ con significado en español de excelente, muy buena, buena, regular y pobre o deficiente.

  • SleepTime”: valor numérico de las horas de sueño u horas que duerme la persona con valores en un rango entre 1 y 24.

  • Asthma”: si padece de asma o no, con valores categóricos de ‘Yes’ o ‘No’.

  • KidneyDisease”: si tiene algún padecimiento en los riñones, con valores categóricos de ‘Yes’ o ‘No’.

  • SkinCancer”: si padece algún tipo de cáncer de piel, con valores categóricos de ‘Yes’ o ‘No’.

La variable de interés como dependiente o variable de salida es la de daño al corazón (HeartDisease), con valores categóricos de ‘Yes’ o ‘No’.

4.6 Datos de entrenamiento y validación

Se parten los datos en en datos de entrenamiento con el 80% y datos de validación con el 20%.

set.seed(1271)
entrena <- createDataPartition(y = datos$HeartDisease, 
                               p = 0.8, 
                               list = FALSE, 
                               times = 1)
# Datos entrenamiento
datos.entrenamiento <- datos[entrena, ]  # [renglones, columna]
# Datos validación
datos.validacion <- datos[-entrena, ]

4.6.1 Datos de entrenamiento

Se muestran los primeros 20 registros datos de entrenamiento

kable(head(datos.entrenamiento, 20), caption = "Primeros 20 registros de datos de entrenamiento")
Primeros 20 registros de datos de entrenamiento
HeartDisease BMI Smoking AlcoholDrinking Stroke PhysicalHealth MentalHealth DiffWalking Sex AgeCategory Race Diabetic PhysicalActivity GenHealth SleepTime Asthma KidneyDisease SkinCancer
1 No 16.60 Yes No No 3 30 No Female 55-59 White Yes Yes Very good 5 Yes No Yes
2 No 20.34 No No Yes 0 0 No Female 80 or older White No Yes Very good 7 No No No
3 No 26.58 Yes No No 20 30 No Male 65-69 White Yes Yes Fair 8 Yes No No
4 No 24.21 No No No 0 0 No Female 75-79 White No No Good 6 No No Yes
5 No 23.71 No No No 28 0 Yes Female 40-44 White No Yes Very good 8 No No No
6 Yes 28.87 Yes No No 6 0 Yes Female 75-79 Black No No Fair 12 No No No
7 No 21.63 No No No 15 0 No Female 70-74 White No Yes Fair 4 Yes No Yes
8 No 31.64 Yes No No 5 0 Yes Female 80 or older White Yes No Good 9 Yes No No
9 No 26.45 No No No 0 0 No Female 80 or older White No, borderline diabetes No Fair 5 No Yes No
10 No 40.69 No No No 0 0 Yes Male 65-69 White No Yes Good 10 No No No
13 No 28.37 Yes No No 0 0 Yes Male 75-79 White Yes Yes Very good 8 No No No
16 No 29.18 No No No 1 0 No Female 50-54 White No Yes Very good 6 No No No
17 No 26.26 No No No 5 2 No Female 70-74 White No No Very good 10 No No No
18 No 22.59 Yes No No 0 30 Yes Male 70-74 White No, borderline diabetes Yes Good 8 No No No
19 No 29.86 Yes No No 0 0 Yes Female 75-79 Black Yes No Fair 5 No Yes No
20 No 18.13 No No No 0 0 No Male 80 or older White No Yes Excellent 8 No No Yes
21 No 21.16 No No No 0 0 No Female 80 or older Black No, borderline diabetes No Good 8 No No No
24 No 25.82 Yes No No 0 30 No Male 80 or older White Yes Yes Fair 8 No No No
27 No 34.34 Yes No No 21 8 Yes Female 65-69 White No Yes Fair 9 No No No
28 No 31.66 Yes No No 5 0 No Male 60-64 White No Yes Very good 5 No No No

4.6.2 Datos de validación

Se muestran los primeros 20 registros de datos de validación .

kable(head(datos.validacion, 20), caption = "Primeros 20 registros de datos de validación")
Primeros 20 registros de datos de validación
HeartDisease BMI Smoking AlcoholDrinking Stroke PhysicalHealth MentalHealth DiffWalking Sex AgeCategory Race Diabetic PhysicalActivity GenHealth SleepTime Asthma KidneyDisease SkinCancer
11 Yes 34.30 Yes No No 30 0 Yes Male 60-64 White Yes No Poor 15 Yes No No
12 No 28.71 Yes No No 0 0 No Female 55-59 White No Yes Very good 5 No No No
14 No 28.15 No No No 7 0 Yes Female 80 or older White No No Good 7 No No No
15 No 29.29 Yes No No 0 30 Yes Female 60-64 White No No Good 5 No No No
22 No 28.90 No No No 2 5 No Female 70-74 White Yes No Very good 7 No No No
23 No 26.17 Yes No No 0 15 No Female 45-49 White No Yes Very good 6 No No No
25 No 25.75 No No No 0 0 No Female 80 or older White No Yes Very good 6 No No Yes
26 No 29.18 Yes No No 30 30 Yes Female 60-64 White No No Poor 6 Yes No No
30 No 36.58 No No No 0 0 No Female 60-64 White Yes No Good 5 No No Yes
31 No 25.84 Yes No No 5 0 No Male 70-74 Black No Yes Good 8 No No No
32 No 30.67 No No No 4 4 Yes Female 80 or older White No Yes Fair 8 Yes No No
37 No 24.62 No No No 5 0 No Female 80 or older White No Yes Good 6 No No No
48 No 25.11 No No No 5 5 No Female 65-69 Black No Yes Good 7 No No No
51 No 26.61 No No No 0 0 No Female 65-69 White No Yes Good 12 Yes No No
57 No 32.55 Yes No No 0 0 No Male 75-79 White No No Very good 8 No No No
70 No 40.00 No No No 0 0 No Male 60-64 Asian Yes No Good 6 No No No
73 No 33.75 No No No 0 5 No Male 50-54 White Yes Yes Good 10 Yes No No
77 No 27.63 Yes No No 30 5 No Female 75-79 White Yes Yes Very good 8 No No No
79 Yes 28.29 Yes No No 30 30 No Female 70-74 White Yes Yes Poor 9 No Yes No
88 No 22.67 No No No 0 3 No Female 80 or older Black No Yes Good 8 No No No

4.7 Arbol de Clasificación

Se construye el modelo con los datos de entrenamiento mediante la función rpart().

El árbol no se puede visualizar cn todos los registros de los datos de entrenamiento, se hicieron las pruebas y se logra visualizar aproximadamente con 2000 registros de una muestra a partir de los datos de entrenamiento.

Si se construye el modelo con todos los registros de los datos de entrenamiento, pero no se puede observar la visualización del árbol y sus ramificaciones, razón por la cual se hace con una muestra de los datos de entrenamiento.

muestra <- sample(x = 1:nrow(datos.entrenamiento), size = 2000, replace = FALSE)
modelo.ac = rpart(data = datos.entrenamiento[muestra,],formula =    HeartDisease ~ .)

4.7.1 Resumen y/o estadísticos del modelo

El resumen del modelo muestra algunos estadísticos importantes:

summary(modelo.ac)
## Call:
## rpart(formula = HeartDisease ~ ., data = datos.entrenamiento[muestra, 
##     ])
##   n= 2000 
## 
##           CP nsplit rel error   xerror       xstd
## 1 0.01449275      0 1.0000000 1.000000 0.07557235
## 2 0.01242236      3 0.9565217 1.055901 0.07746564
## 3 0.01000000      5 0.9316770 1.043478 0.07705068
## 
## Variable importance
##       GenHealth          Stroke     AgeCategory       SleepTime             BMI 
##              33              17              11               9               9 
##  PhysicalHealth     DiffWalking    MentalHealth        Diabetic          Asthma 
##               7               5               3               2               2 
##      SkinCancer AlcoholDrinking 
##               1               1 
## 
## Node number 1: 2000 observations,    complexity param=0.01449275
##   predicted class=No   expected loss=0.0805  P(node) =1
##     class counts:  1839   161
##    probabilities: 0.919 0.080 
##   left son=2 (1732 obs) right son=3 (268 obs)
##   Primary splits:
##       GenHealth      splits as  LRLRL, improve=12.07047, (0 missing)
##       AgeCategory    splits as  LLLLLLLLRLRRR, improve=10.99336, (0 missing)
##       Stroke         splits as  LR, improve=10.39897, (0 missing)
##       DiffWalking    splits as  LR, improve=10.07165, (0 missing)
##       PhysicalHealth < 14.5   to the left,  improve= 9.88582, (0 missing)
##   Surrogate splits:
##       PhysicalHealth < 14.5   to the left,  agree=0.892, adj=0.198, (0 split)
##       BMI            < 17.145 to the right, agree=0.869, adj=0.019, (0 split)
##       DiffWalking    splits as  LR,         agree=0.867, adj=0.004, (0 split)
## 
## Node number 2: 1732 observations
##   predicted class=No   expected loss=0.05889145  P(node) =0.866
##     class counts:  1630   102
##    probabilities: 0.941 0.059 
## 
## Node number 3: 268 observations,    complexity param=0.01449275
##   predicted class=No   expected loss=0.2201493  P(node) =0.134
##     class counts:   209    59
##    probabilities: 0.780 0.220 
##   left son=6 (237 obs) right son=7 (31 obs)
##   Primary splits:
##       Stroke      splits as  LR, improve=6.141893, (0 missing)
##       DiffWalking splits as  LR, improve=4.179531, (0 missing)
##       AgeCategory splits as  LLLLLLLLLLRRR, improve=3.828806, (0 missing)
##       Diabetic    splits as  LLRL, improve=3.470637, (0 missing)
##       GenHealth   splits as  -L-R-, improve=3.029598, (0 missing)
## 
## Node number 6: 237 observations,    complexity param=0.01242236
##   predicted class=No   expected loss=0.1814346  P(node) =0.1185
##     class counts:   194    43
##    probabilities: 0.819 0.181 
##   left son=12 (211 obs) right son=13 (26 obs)
##   Primary splits:
##       SleepTime   < 8.5    to the left,  improve=3.410478, (0 missing)
##       AgeCategory splits as  LLLLLRLLRLRRR, improve=3.019630, (0 missing)
##       DiffWalking splits as  LR, improve=3.009458, (0 missing)
##       GenHealth   splits as  -L-R-, improve=2.552278, (0 missing)
##       Diabetic    splits as  LLRL, improve=2.014310, (0 missing)
## 
## Node number 7: 31 observations,    complexity param=0.01449275
##   predicted class=Yes  expected loss=0.483871  P(node) =0.0155
##     class counts:    15    16
##    probabilities: 0.484 0.516 
##   left son=14 (12 obs) right son=15 (19 obs)
##   Primary splits:
##       BMI              < 24.88  to the left,  improve=2.773345, (0 missing)
##       Diabetic         splits as  L-R-,       improve=2.379109, (0 missing)
##       MentalHealth     < 25.5   to the right, improve=2.190942, (0 missing)
##       Sex              splits as  LR,         improve=1.389854, (0 missing)
##       PhysicalActivity splits as  LR,         improve=1.317204, (0 missing)
##   Surrogate splits:
##       AgeCategory    splits as  ----RRRRLRRLL, agree=0.710, adj=0.250, (0 split)
##       Diabetic       splits as  L-R-, agree=0.710, adj=0.250, (0 split)
##       SkinCancer     splits as  RL, agree=0.677, adj=0.167, (0 split)
##       PhysicalHealth < 0.5    to the left,  agree=0.645, adj=0.083, (0 split)
##       MentalHealth   < 25.5   to the right, agree=0.645, adj=0.083, (0 split)
## 
## Node number 12: 211 observations
##   predicted class=No   expected loss=0.1516588  P(node) =0.1055
##     class counts:   179    32
##    probabilities: 0.848 0.152 
## 
## Node number 13: 26 observations,    complexity param=0.01242236
##   predicted class=No   expected loss=0.4230769  P(node) =0.013
##     class counts:    15    11
##    probabilities: 0.577 0.423 
##   left son=26 (10 obs) right son=27 (16 obs)
##   Primary splits:
##       AgeCategory  splits as  L--LLLRLLRRRR, improve=3.3923080, (0 missing)
##       Diabetic     splits as  L-R-, improve=1.7347320, (0 missing)
##       GenHealth    splits as  -L-R-, improve=1.1446890, (0 missing)
##       DiffWalking  splits as  LR, improve=0.8620047, (0 missing)
##       MentalHealth < 3.5    to the right, improve=0.6923077, (0 missing)
##   Surrogate splits:
##       DiffWalking     splits as  LR,         agree=0.808, adj=0.5, (0 split)
##       MentalHealth    < 3.5    to the right, agree=0.731, adj=0.3, (0 split)
##       Asthma          splits as  RL,         agree=0.692, adj=0.2, (0 split)
##       BMI             < 26.125 to the left,  agree=0.654, adj=0.1, (0 split)
##       AlcoholDrinking splits as  RL,         agree=0.654, adj=0.1, (0 split)
## 
## Node number 14: 12 observations
##   predicted class=No   expected loss=0.25  P(node) =0.006
##     class counts:     9     3
##    probabilities: 0.750 0.250 
## 
## Node number 15: 19 observations
##   predicted class=Yes  expected loss=0.3157895  P(node) =0.0095
##     class counts:     6    13
##    probabilities: 0.316 0.684 
## 
## Node number 26: 10 observations
##   predicted class=No   expected loss=0.1  P(node) =0.005
##     class counts:     9     1
##    probabilities: 0.900 0.100 
## 
## Node number 27: 16 observations
##   predicted class=Yes  expected loss=0.375  P(node) =0.008
##     class counts:     6    10
##    probabilities: 0.375 0.625

Entonces una posible predicción sería siguiendo las reglas de asociación y condicionales del modelo.

4.7.2 Visualizar árbol de clasificación

prp(modelo.ac, main = "Arbol de Clasificación")

4.7.3 Generar predicciones del modelo regresión logística

Se generan predicciones con datos de validación con el argumento class de clasificación, es decir, Yes o No.

prediciones_ac = predict(object = modelo.ac,newdata = datos.validacion, type = "class")

4.7.4 Predicciones

Head(predicciones, 20) los primeros 20 predicciones

head(prediciones_ac, 20)
##  11  12  14  15  22  23  25  26  30  31  32  37  48  51  57  70  73  77  79  88 
##  No  No  No  No  No  No  No  No  No  No  No  No  No  No  No  No  No  No Yes  No 
## Levels: No Yes

4.7.5 Generar tabla comparativa

Se construye una tabla comparativa con los valores de interés

t_comparativa = data.frame("real" = datos.validacion[,c('HeartDisease')],"prediccion"= prediciones_ac)
# t_comparativa <- t_comparativa %>%
#  mutate(heartDiseasePred = 
top20 = head(t_comparativa,20)
kable(top20,caption = 'Primeros 20 registros')
Primeros 20 registros
real prediccion
11 Yes No
12 No No
14 No No
15 No No
22 No No
23 No No
25 No No
26 No No
30 No No
31 No No
32 No No
37 No No
48 No No
51 No No
57 No No
70 No No
73 No No
77 No No
79 Yes Yes
88 No No

4.7.6 Evaluando el modelo

Una matriz de confusión es una herramienta que permite evaluación de un modelo de clasificación

Cada columna de la matriz representa el número de predicciones de cada clase, mientras que cada fila representa a las instancias en la clase real.

Uno de los beneficios de las matrices de confusión es que facilitan ver si el sistema está confundiendo las diferentes clases o resultados.

Hay que encontrar a cuantos casos se le atinaron utilizando los datos de validación y con ello encontrar el porcentaje de aciertos.

Se puede evaluar el modelo con la matriz de confusión interpretando algunos estadísticos:

Se evalúa el modelo de acuerdo a estas condiciones:

  • Accuracy o exactitud \[ accuracy = \frac{VP + VN}{VP+FP+FN+VN} \\ n = VP+FP+FN+VN \]

  • Precision o precisión

\[ precision = \frac{VP}{VP + FP} \]

  • Recall o recuperación \[ recall = \frac{VP}{VP + FN} \]

  • Especificity o especificidad (tasa de verdaderos negativos)

\[ especificity = \frac{VN}{VN + FP} \]

4.7.6.1 Construyendo la matriz de confusión del modelo de regresión logística

Factorizar las columnas

Factorizar en R significa categorizar con la función “as.factor” o “factor”

Se muestra a tabla con las columnas de interés para interpretar las predicciones.

t_comparativa$real = as.factor(t_comparativa$real)
t_comparativa$prediccion = as.factor(t_comparativa$prediccion)
kable(head(t_comparativa, 20), caption = "Tabla comparativa, primeros 20 registros")
Tabla comparativa, primeros 20 registros
real prediccion
11 Yes No
12 No No
14 No No
15 No No
22 No No
23 No No
25 No No
26 No No
30 No No
31 No No
32 No No
37 No No
48 No No
51 No No
57 No No
70 No No
73 No No
77 No No
79 Yes Yes
88 No No

Creando de la matriz de confusión con la función confusionMatrix() de la librería caret con las variables de interés: “real” y “prediccion”, que representan los valores reales y las predicciones respectivamente.

matrixConfusion <- confusionMatrix(t_comparativa$real,t_comparativa$prediccion)
matrixConfusion
## Confusion Matrix and Statistics
## 
##           Reference
## Prediction    No   Yes
##        No  57630   854
##        Yes  4892   582
##                                           
##                Accuracy : 0.9102          
##                  95% CI : (0.9079, 0.9124)
##     No Information Rate : 0.9775          
##     P-Value [Acc > NIR] : 1               
##                                           
##                   Kappa : 0.1378          
##                                           
##  Mcnemar's Test P-Value : <2e-16          
##                                           
##             Sensitivity : 0.9218          
##             Specificity : 0.4053          
##          Pos Pred Value : 0.9854          
##          Neg Pred Value : 0.1063          
##              Prevalence : 0.9775          
##          Detection Rate : 0.9011          
##    Detection Prevalence : 0.9144          
##       Balanced Accuracy : 0.6635          
##                                           
##        'Positive' Class : No              
## 

El valor estadístico de Accuracy = Exactitud igual a 0.9102 significa un valor aproximado del 91.02; se interpreta que de cada 100 el modelo acierta en la predicción el 91.02% de las ocasiones.

El modelo se construyó solo con una muestra de 2000 registros de los datos de entrenamiento.

Si la métrica era que debiera tener un valor por encima del 70% el modelo se acepta pero debe compararse contra otro modelo de clasificación para ver cual es más eficiente en relación tan solo en el estadístico de exactitud.

Este valor de Accuracy = Exactitud deberá compararse contra otros modelos.

4.8 Predicciones con datos nuevos

Se crea un registro de una persona con ciertas condiciones de salud.

BMI <- 38
Smoking <- 'Yes'
AlcoholDrinking = 'Yes'
Stroke <- 'Yes'
PhysicalHealth <- 2
MentalHealth = 5
DiffWalking = 'Yes'
Sex = 'Male'
AgeCategory = '70-74'
Race = 'Black'
Diabetic <- 'Yes'
PhysicalActivity = "No"
GenHealth = "Fair"
SleepTime = 12
Asthma = "Yes"
KidneyDisease = "Yes"
SkinCancer = 'No'
persona <- data.frame(BMI,Smoking, AlcoholDrinking, Stroke, PhysicalHealth, MentalHealth, DiffWalking, Sex, AgeCategory, Race, Diabetic, PhysicalActivity, GenHealth, SleepTime, Asthma, KidneyDisease, SkinCancer)
persona
##   BMI Smoking AlcoholDrinking Stroke PhysicalHealth MentalHealth DiffWalking
## 1  38     Yes             Yes    Yes              2            5         Yes
##    Sex AgeCategory  Race Diabetic PhysicalActivity GenHealth SleepTime Asthma
## 1 Male       70-74 Black      Yes               No      Fair        12    Yes
##   KidneyDisease SkinCancer
## 1           Yes         No

Se hace la predicción con estos valores:

prediccion <- predict(object = modelo.ac, newdata = persona, type = "class")
prediccion
##   1 
## Yes 
## Levels: No Yes
# prediccion <- prediccion$fit
# prediccion

Entonces la predicción es:

Si la predicción es ‘No’ entonces no tienen afección del corazón, en caso contrario de ‘Yes’ entonces implica que si tiene daño del corazón.

5 Interpretación

Obtuvimos una acccuracy de 91.02% por lo que podemos aprobar este modelo, y al podemor compararlo con el mismo modelo realiazado en Python tomando como semilla 1271 en ambos casos, obtuvimos: 91.46%, con lo que podemos ver que ambos se encuentran sumamente cercanos, pero en esta ocasión es mas eficiente usar Python, para poder predecir si el corazon se encuentra dañado o no.

5.1 Interpretacion Final

Listare el resultados de todos los modelos con los que evaluamos estos datos para poder ver como varia el resultado entre el modelo y lenguaje en que se evaluo:

  • Regresión Logistica en R: 91.58%
  • Regresión Logistica en Python: 91.51%
  • Arbol de Clasificación en R: 91.02%
  • Arbol de Clasificación en Python: 91.46%
  • Clasificación con KNN en R: 91.33%
  • Clasificación con KNN en Python: 91.32%
  • Máquinas de Soporte Vectorial en R:
    • SVM Lineal: 91.44%
    • SVM Polinomial: 91.54%
    • SVM Radial: 91.46%
  • Maquinas de Soporte Vectorial en Python: ?
  • Random Forest en R: 91.45%

Podemos ver como con todos los modelos obtuvimos datos muy similares en ninguno hubo un grado de error muy grande, podemos concluir que para la obtencion de información en vital el uso de varios modelos y de realizar pruebas para poder validar una información, puedo decir que el manejo de la información en lo que lo tranforma en algo muy valioso en esta sociedad de cual debemos sacar el mayor provecho posible.

6 Bibliografía