Ausgewogene Genauigkeit gegen F-1-Punktzahl

Ich habe mich gefragt, ob jemand den Unterschied zwischen ausgeglichener Genauigkeit erklären kann, der

und f1 Punktzahl:

f1 = 2*precision*recall/(precision + recall) 

Antwort

Mathematisch gesehen ist b_acc das arithmetische Mittel von Recall_P und Recall_N und f1 das harmonische Mittel von Recall_P und Precision_P.

Sowohl F1 als auch b_acc sind Metriken für die Klassifikatorbewertung, die (bis zu einem gewissen Grad) die Klasse behandeln Ungleichgewicht. Abhängig davon, welche der beiden Klassen (N oder P) die andere übertrifft, übertrifft jede Metrik die andere.

1) Wenn N >> P, ist f1 besser.

2) Wenn P >> N, ist b_acc besser.

Wenn Sie den Etikettenwechsel durchführen können, können beide Metriken in jedem der beiden oben genannten Ungleichgewichtsfälle verwendet werden. Wenn nicht, können Sie abhängig vom Ungleichgewicht in den Trainingsdaten die entsprechende Metrik auswählen.

Kommentare

  • Vielen Dank, Sir eine Referenz für die Informationen bezüglich der Auswahl von Fscore im Vergleich zur ausgeglichenen Genauigkeit in Bezug auf die Anzahl der positiven / negativen Klassen?
  • Ich möchte die Anfrage von @gin ' unterstützen Weitere Informationen zur Auswahl. Ich habe einige Daten, bei denen das N ungefähr 8% beträgt. Nach obiger Antwort sollte ich Balanced Accuracy verwenden. Ich ' habe nach anderen Referenzen zu dieser Auswahl gesucht (P > N – > b_acc), aber ' hat nichts gesehen.
  • Dies ' ergibt für mich keinen Sinn. Eine ausgewogene Genauigkeit ist beim Etikettenwechsel unveränderlich. Wie können Sie " es " verbessern, indem Sie das Etikett wechseln, wenn es unverändert bleibt?
  • @TCProctor Can ausgewogene Genauigkeitsänderung des Ranges relativ zu F1 bei gegebenem Etikettenschalter?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.