La matriz de confusión es una herramienta fundamental para evaluar el rendimiento de un modelo de clasificación, como la regresión logística. Proporciona una representación visual de las predicciones realizadas por el modelo en comparación con los valores reales, lo que permite calcular métricas clave para medir su precisión y efectividad [[4]].


¿Cómo se interpreta la matriz de confusión?

La matriz de confusión es una tabla que organiza los resultados de las predicciones en cuatro categorías principales:

  1. Verdaderos Positivos (VP): El modelo predijo correctamente que el evento ocurriría (por ejemplo, predecir correctamente que un cliente comprará un producto).
  2. Verdaderos Negativos (VN): El modelo predijo correctamente que el evento no ocurriría (por ejemplo, predecir correctamente que un cliente no comprará un producto).
  3. Falsos Positivos (FP): El modelo predijo incorrectamente que el evento ocurriría (también conocido como “falso alarme”).
  4. Falsos Negativos (FN): El modelo predijo incorrectamente que el evento no ocurriría (también conocido como “omisión”).

Por ejemplo, si estamos utilizando un modelo de regresión logística para predecir si un correo electrónico es spam (1) o no spam (0), la matriz de confusión podría verse así:

Predicho Spam (1) Predicho No Spam (0)
Real Spam (1) Verdaderos Positivos (VP) Falsos Negativos (FN)
Real No Spam (0) Falsos Positivos (FP) Verdaderos Negativos (VN)

Esta tabla permite identificar cuántas predicciones fueron correctas y cuántas incorrectas, lo que facilita la evaluación del modelo [[2]].


Métricas derivadas de la matriz de confusión

A partir de los valores de VP, VN, FP y FN, se pueden calcular varias métricas importantes para evaluar el rendimiento del modelo:

  1. Exactitud (Accuracy):
    • Mide la proporción de predicciones correctas sobre el total de observaciones.
    • Fórmula:
      \[ \text{Accuracy} = \frac{\text{VP} + \text{VN}}{\text{VP} + \text{VN} + \text{FP} + \text{FN}} \]
    • Interpretación: Indica qué tan bien clasifica el modelo en general, pero puede ser engañosa si las clases están desbalanceadas [[4]].
  2. Precisión (Precision):
    • Mide la proporción de predicciones positivas que fueron correctas.
    • Fórmula:
      \[ \text{Precision} = \frac{\text{VP}}{\text{VP} + \text{FP}} \]
    • Interpretación: Es útil cuando el costo de los falsos positivos es alto (por ejemplo, en detección de fraudes).
  3. Sensibilidad (Recall o Tasa de Verdaderos Positivos):
    • Mide la proporción de eventos positivos reales que fueron correctamente identificados.
    • Fórmula:
      \[ \text{Recall} = \frac{\text{VP}}{\text{VP} + \text{FN}} \]
    • Interpretación: Es importante cuando el costo de los falsos negativos es alto (por ejemplo, en diagnósticos médicos).
  4. Especificidad (Tasa de Verdaderos Negativos):
    • Mide la proporción de eventos negativos reales que fueron correctamente identificados.
    • Fórmula:
      \[ \text{Specificity} = \frac{\text{VN}}{\text{VN} + \text{FP}} \]
    • Interpretación: Evalúa qué tan bien el modelo identifica casos negativos.
  5. Puntuación F1 (F1-Score):
    • Es la media armónica entre precisión y sensibilidad, útil cuando hay desequilibrio entre las clases.
    • Fórmula:
      \[ \text{F1-Score} = 2 \cdot \frac{\text{Precision} \cdot \text{Recall}}{\text{Precision} + \text{Recall}} \]
    • Interpretación: Proporciona un equilibrio entre precisión y sensibilidad.
  6. Tasa de Error:
    • Mide la proporción de predicciones incorrectas sobre el total de observaciones.
    • Fórmula:
      \[ \text{Error Rate} = \frac{\text{FP} + \text{FN}}{\text{VP} + \text{VN} + \text{FP} + \text{FN}} \]

Ejemplo práctico en R

Supongamos que hemos entrenado un modelo de regresión logística para predecir si un cliente comprará un producto (1) o no (0). Después de evaluar el modelo, obtenemos la siguiente matriz de confusión:

Predicho Compra (1) Predicho No Compra (0)
Real Compra (1) 80 (VP) 20 (FN)
Real No Compra (0) 10 (FP) 90 (VN)

Cálculo de métricas:

  1. Exactitud (Accuracy): \[ \text{Accuracy} = \frac{80 + 90}{80 + 90 + 10 + 20} = \frac{170}{200} = 0.85 \, (85\%) \]

  2. Precisión (Precision): \[ \text{Precision} = \frac{80}{80 + 10} = \frac{80}{90} \approx 0.89 \, (89\%) \]

  3. Sensibilidad (Recall): \[ \text{Recall} = \frac{80}{80 + 20} = \frac{80}{100} = 0.80 \, (80\%) \]

  4. Especificidad (Specificity): \[ \text{Specificity} = \frac{90}{90 + 10} = \frac{90}{100} = 0.90 \, (90\%) \]

  5. Puntuación F1 (F1-Score): \[ \text{F1-Score} = 2 \cdot \frac{0.89 \cdot 0.80}{0.89 + 0.80} \approx 0.84 \]


Conclusión

La matriz de confusión es una herramienta esencial para evaluar modelos de clasificación como la regresión logística. A través de ella, podemos calcular métricas como exactitud, precisión, sensibilidad, especificidad y puntuación F1, que nos ayudan a entender cómo el modelo maneja tanto los casos positivos como los negativos. Estas métricas son fundamentales para decidir si el modelo es adecuado para el problema en cuestión [[4]].