バランスの取れた精度とF-1スコア

バランスの取れた精度の違いを誰かが説明できるかどうか疑問に思いました

b_acc = (sensitivity + specificity)/2 

およびf1スコア:

f1 = 2*precision*recall/(precision + recall) 

回答

数学的には、b_accはrecall_Pとrecall_Nの算術平均であり、f1はrecall_Pとprecision_Pの調和平均です。

F1とb_accはどちらも分類子評価の指標であり、(ある程度)クラスを処理します。不均衡。 2つのクラス(NまたはP)のどちらが他よりも多いかに応じて、各メトリックは他よりも優れています。

1)N >> Pの場合、f1の方が優れています。

2)P >> Nの場合、b_accの方が優れています。

明らかに、ラベルを切り替えることができれば、上記の2つの不均衡のケースのいずれでも両方のメトリックを使用できます。そうでない場合は、トレーニングデータの不均衡に応じて、適切な指標を選択できます。

コメント

  • ありがとうございます、ありますかポジティブ/ネガティブクラスの数に関するFscoreとバランスの取れた精度の選択に関する情報のリファレンス?
  • 2番目の@gin 'のリクエスト2つの中から選択する方法の詳細。 Nが約8%であるというデータがいくつかあります。上記の回答から、バランス精度を使用する必要があるようです。私は'この選択に関する他の参考資料を探していました(P > N- > b_acc)しかし、'何も見ていません。
  • これは'私には意味がありません。バランスの取れた精度は、ラベルの切り替えの下では不変です。ラベルを変更しない場合、ラベルを切り替えることで"改善する方法"はありますか?
  • @TCProctor Canラベルスイッチが与えられた場合、F1に対するランクのバランスの取れた精度の変化?

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です