La matriz de confusión es una herramienta
fundamental para evaluar el rendimiento de un modelo de clasificación,
como la regresión logística. Proporciona una representación visual de
las predicciones realizadas por el modelo en comparación con los valores
reales, lo que permite calcular métricas clave para medir su precisión y
efectividad [[4]].
¿Cómo se interpreta la matriz de confusión?
La matriz de confusión es una tabla que organiza los resultados de
las predicciones en cuatro categorías principales:
- Verdaderos Positivos (VP): El modelo predijo
correctamente que el evento ocurriría (por ejemplo, predecir
correctamente que un cliente comprará un producto).
- Verdaderos Negativos (VN): El modelo predijo
correctamente que el evento no ocurriría (por ejemplo, predecir
correctamente que un cliente no comprará un producto).
- Falsos Positivos (FP): El modelo predijo
incorrectamente que el evento ocurriría (también conocido como “falso
alarme”).
- Falsos Negativos (FN): El modelo predijo
incorrectamente que el evento no ocurriría (también conocido como
“omisión”).
Por ejemplo, si estamos utilizando un modelo de regresión logística
para predecir si un correo electrónico es spam (1) o no
spam (0), la matriz de confusión podría verse así:
| Real Spam (1) |
Verdaderos Positivos (VP) |
Falsos Negativos (FN) |
| Real No Spam (0) |
Falsos Positivos (FP) |
Verdaderos Negativos (VN) |
Esta tabla permite identificar cuántas predicciones fueron correctas
y cuántas incorrectas, lo que facilita la evaluación del modelo
[[2]].
Métricas derivadas de la matriz de confusión
A partir de los valores de VP, VN, FP y FN, se pueden calcular varias
métricas importantes para evaluar el rendimiento del modelo:
- Exactitud (Accuracy):
- Mide la proporción de predicciones correctas sobre el total de
observaciones.
- Fórmula:
\[
\text{Accuracy} = \frac{\text{VP} + \text{VN}}{\text{VP} + \text{VN} +
\text{FP} + \text{FN}}
\]
- Interpretación: Indica qué tan bien clasifica el modelo en general,
pero puede ser engañosa si las clases están desbalanceadas [[4]].
- Precisión (Precision):
- Mide la proporción de predicciones positivas que fueron
correctas.
- Fórmula:
\[
\text{Precision} = \frac{\text{VP}}{\text{VP} + \text{FP}}
\]
- Interpretación: Es útil cuando el costo de los falsos positivos es
alto (por ejemplo, en detección de fraudes).
- Sensibilidad (Recall o Tasa de Verdaderos
Positivos):
- Mide la proporción de eventos positivos reales que fueron
correctamente identificados.
- Fórmula:
\[
\text{Recall} = \frac{\text{VP}}{\text{VP} + \text{FN}}
\]
- Interpretación: Es importante cuando el costo de los falsos
negativos es alto (por ejemplo, en diagnósticos médicos).
- Especificidad (Tasa de Verdaderos Negativos):
- Mide la proporción de eventos negativos reales que fueron
correctamente identificados.
- Fórmula:
\[
\text{Specificity} = \frac{\text{VN}}{\text{VN} + \text{FP}}
\]
- Interpretación: Evalúa qué tan bien el modelo identifica casos
negativos.
- Puntuación F1 (F1-Score):
- Es la media armónica entre precisión y sensibilidad, útil cuando hay
desequilibrio entre las clases.
- Fórmula:
\[
\text{F1-Score} = 2 \cdot \frac{\text{Precision} \cdot
\text{Recall}}{\text{Precision} + \text{Recall}}
\]
- Interpretación: Proporciona un equilibrio entre precisión y
sensibilidad.
- Tasa de Error:
- Mide la proporción de predicciones incorrectas sobre el total de
observaciones.
- Fórmula:
\[
\text{Error Rate} = \frac{\text{FP} + \text{FN}}{\text{VP} + \text{VN} +
\text{FP} + \text{FN}}
\]
Ejemplo práctico en R
Supongamos que hemos entrenado un modelo de regresión logística para
predecir si un cliente comprará un producto (1) o no
(0). Después de evaluar el modelo, obtenemos la siguiente
matriz de confusión:
| Real Compra (1) |
80 (VP) |
20 (FN) |
| Real No Compra (0) |
10 (FP) |
90 (VN) |
Cálculo de métricas:
Exactitud (Accuracy): \[
\text{Accuracy} = \frac{80 + 90}{80 + 90 + 10 + 20} = \frac{170}{200} =
0.85 \, (85\%)
\]
Precisión (Precision): \[
\text{Precision} = \frac{80}{80 + 10} = \frac{80}{90} \approx 0.89 \,
(89\%)
\]
Sensibilidad (Recall): \[
\text{Recall} = \frac{80}{80 + 20} = \frac{80}{100} = 0.80 \, (80\%)
\]
Especificidad (Specificity): \[
\text{Specificity} = \frac{90}{90 + 10} = \frac{90}{100} = 0.90 \,
(90\%)
\]
Puntuación F1 (F1-Score): \[
\text{F1-Score} = 2 \cdot \frac{0.89 \cdot 0.80}{0.89 + 0.80} \approx
0.84
\]
Conclusión
La matriz de confusión es una herramienta esencial para evaluar
modelos de clasificación como la regresión logística. A través de ella,
podemos calcular métricas como exactitud, precisión, sensibilidad,
especificidad y puntuación F1, que nos ayudan a entender cómo el modelo
maneja tanto los casos positivos como los negativos. Estas métricas son
fundamentales para decidir si el modelo es adecuado para el problema en
cuestión [[4]].