Curva ROC (Receiver Operating Characteristic)
La curva ROC muestra la relación entre la tasa de verdaderos positivos (TPR) y la tasa de falsos positivos (FPR) a diferentes umbrales de clasificación. El área bajo la curva (AUC) es una métrica de desempeño clave.
💡 Tip: Una curva más cercana a la esquina superior izquierda indica un mejor clasificador. Un AUC de 1.0 es un clasificador perfecto.
💡 Interpretación: La curva ROC muestra cómo varía la Tasa de Verdaderos Positivos (TPR) frente a la Tasa de Falsos Positivos (FPR) a diferentes umbrales. Un modelo perfecto alcanza la esquina superior izquierda (TPR=1, FPR=0).
🎛️ AUC objetivo
⚡ Modelos Predefinidos
📖 Interpretación de AUC
F1 Score
El F1 Score es la media armónica entre precisión y recall. Es útil cuando buscas un balance entre ambas métricas, especialmente en datasets desbalanceados.
📊 Fórmula: F1 = 2 × (Precisión × Recall) / (Precisión + Recall)
¿Qué es? De las predicciones positivas del modelo, ¿cuántas eran correctas?
¿Qué es? De todos los casos positivos reales, ¿cuántos detectó el modelo?
F1 = 2 × (P × R) / (P + R)
💡 Insight clave: El F1 Score sólo es alto cuando AMBOS Precisión y Recall son altos. Un valor bajo arrastra toda la puntuación hacia abajo, mucho más que lo haría la media aritmética.
Observa cómo la Media Armónica (F1) penaliza el desequilibrio más que la Media Aritmética
Cada punto representa un F1 Score para cada combinación de Precisión (X) y Recall (Y)
Matriz de Confusión
La matriz de confusión muestra el número de predicciones correctas e incorrectas desglosadas por clase. Es fundamental para calcular otras métricas como precisión, recall y F1 score.
🔍 Componentes: Verdaderos Positivos (TP), Falsos Positivos (FP), Verdaderos Negativos (TN), Falsos Negativos (FN)
Accuracy y Coeficiente de Correlación de Matthews (MCC)
La Exactitud (Accuracy) es el porcentaje de predicciones correctas. El MCC es una métrica más robusta que considera todos los elementos de la matriz de confusión, especialmente útil con datos desbalanceados.
✓ Accuracy: (TP + TN) / Total | 📈 MCC: Mejor para datos desbalanceados
📋 Escenarios Predefinidos
🎯 Definiciones
TP: Predicciones positivas correctas
TN: Predicciones negativas correctas
FP: Positivas incorrectas (Tipo I)
FN: Negativas incorrectas (Tipo II)
📐 Fórmula del MCC
= (80×810 - 90×20) / √((170)(100)(900)(830))
(TP+TN) / Total
Media armónica de Precisión y Recall
Rango: -1 (peor) · 0 (aleatorio) · +1 (perfecto)
⚡ Insight Clave
Con datos desbalanceados, un modelo que siempre predice la clase mayoritaria puede obtener una Accuracy muy alta, pero un MCC cercano a 0.
Precisión y Recall (Sensibilidad)
La Precisión mide qué porcentaje de predicciones positivas fueron correctas. El Recall mide qué porcentaje de casos positivos fueron identificados correctamente.
🎯 Precisión: TP / (TP + FP) | 🔔 Recall: TP / (TP + FN)
Línea vertical naranja: Umbral de decisión
💡 ¿Qué está sucediendo?
Umbral bajo: El modelo predice más positivos → ⬆️ Recall, ⬇️ Precisión.
Umbral alto: El modelo es más conservador → ⬆️ Precisión, ⬇️ Recall.
El equilibrio: El F1-score busca el balance entre ambas métricas.
Precisión 🎯
VP / (VP + FP)
Recall 📈
VP / (VP + FN)
F1-Score ⚖️
2 × (P × R) / (P + R)
Métricas para Regresión
Para problemas de regresión, usamos diferentes métricas que evalúan qué tan cercanas son las predicciones a los valores reales. Las principales son MAE, MSE, RMSE y R².
📐 MAE: Error Medio Absoluto | 📊 MSE: Error Cuadrático Medio | 📈 RMSE: Raíz del Error Cuadrático Medio | 🎯 R²: Coeficiente de Determinación
🔍 ¿Cuándo usar MAE?
Cuando cada error tiene la misma importancia, independientemente de su magnitud. Menos sensible a valores atípicos que MSE.
⚡ ¿Cuándo usar RMSE?
Cuando los errores grandes son más importantes. Es la métrica más común. Penaliza mucho más que MAE los valores atípicos.
🎯 ¿Cuándo usar R²?
Para entender qué porcentaje de variabilidad explica tu modelo. Útil para comparar modelos (0 = malo, 1 = perfecto).
💡 Prueba el botón "Atípico"
Añade un valor extremo y observa cómo MAE cambia poco, pero MSE y RMSE se disparan, demostrando la sensibilidad a outliers.