Précision équilibrée vs score F-1

Je me demandais si quelquun pouvait expliquer la différence entre une précision équilibrée qui est

b_acc = (sensitivity + specificity)/2 

et le score f1 qui est:

f1 = 2*precision*recall/(precision + recall) 

Réponse

Mathématiquement, b_acc est la moyenne arithmétique de rappel_P et rappel_N et f1 est la moyenne harmonique de rappel_P et precision_P.

F1 et b_acc sont des métriques pour lévaluation du classificateur, qui (dans une certaine mesure) gère la classe déséquilibre. En fonction de laquelle des deux classes (N ou P) est plus importante que lautre, chaque métrique surpasse lautre.

1) Si N >> P, f1 est mieux.

2) Si P >> N, b_acc est meilleur.

De toute évidence, si vous pouvez changer détiquette, les deux mesures peuvent être utilisées dans lun des deux cas de déséquilibre ci-dessus. Sinon, en fonction du déséquilibre dans les données dentraînement, vous pouvez sélectionner la métrique appropriée.

Commentaires

  • Merci monsieur, avez-vous une référence pour les informations concernant le choix de Fscore par rapport à la précision équilibrée en termes de nombre de classes positives / négatives?
  • Je voudrais deuxième demande de @gin ' pour plus dinformations sur la façon de choisir entre les deux. Jai des données où le N est denviron 8%. Par la réponse ci-dessus, il semble que je devrais utiliser la précision équilibrée. Jai ' recherché dautres références sur ce choix (P > N – > b_acc) mais je nai ' rien vu.
  • Cela na ' aucun sens pour moi. La précision équilibrée est invariante lors du changement détiquette. Comment pouvez-vous " laméliorer " en changeant de libellé sil restera inchangé?
  • @TCProctor Can changement de précision équilibré du rang par rapport à F1 compte tenu du changement détiquette?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *