Precisión equilibrada frente a puntuación F-1

Me preguntaba si alguien podría explicar la diferencia entre la precisión equilibrada, que es

b_acc = (sensitivity + specificity)/2 

y puntuación f1 que es:

f1 = 2*precision*recall/(precision + recall) 

Respuesta

Matemáticamente, b_acc es la media aritmética de recall_P y recall_N y f1 es la media armónica de recall_P y precision_P.

Tanto F1 como b_acc son métricas para la evaluación del clasificador, que (hasta cierto punto) manejan la clase desequilibrio. Dependiendo de cuál de las dos clases (N o P) supera en número a la otra, cada métrica supera a la otra.

1) Si N >> P, f1 es mejor.

2) Si P >> N, b_acc es mejor.

Claramente, si puede cambiar de etiqueta, ambas métricas pueden usarse en cualquiera de los dos casos de desequilibrio anteriores. Si no es así, dependiendo del desequilibrio en los datos de entrenamiento, puede seleccionar la métrica apropiada.

Comentarios

  • Gracias señor, ¿tiene ¿Una referencia para la información sobre la elección de Fscore frente a la precisión equilibrada en términos de número de clases positivas / negativas?
  • Me gustaría segundo @gin ' s solicitud de más información sobre cómo elegir entre los dos. Tengo algunos datos que indican que la N es aproximadamente del 8%. Por la respuesta anterior, parece que debería usar Precisión equilibrada. ' he estado buscando otras referencias sobre esta opción (P > N – > b_acc) pero ' no he visto nada.
  • Esto no ' no tiene ningún sentido para mí. La precisión equilibrada es invariante bajo el cambio de etiqueta. ¿Cómo puede " mejorarlo " cambiando de etiqueta si no se modificará?
  • @TCProctor Can ¿Cambio de precisión equilibrado en el rango en relación con F1 dado el cambio de etiqueta?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *