균형 잡힌 정확도 vs F-1 점수

누군가 균형 정확도의 차이를 설명 할 수 있는지 궁금합니다.

b_acc = (sensitivity + specificity)/2 

및 f1 점수 :

f1 = 2*precision*recall/(precision + recall) 

답변

수학적으로 b_acc는 회상 _P의 산술 평균이고 회상 _N 및 f1은 회상 _P 및 정밀도 _P의 조화 평균입니다.

F1과 b_acc는 모두 분류 자 평가를위한 측정 항목이며, 어느 정도는 클래스를 처리합니다. 불균형. 두 클래스 (N 또는 P) 중 어떤 클래스가 다른 클래스보다 더 많은지에 따라 각 메트릭이 다른 클래스보다 성능이 뛰어납니다.

1) N >> P이면 f1이 더 좋습니다.

2) P >> N이면 b_acc가 더 좋습니다.

분명히 레이블을 전환 할 수 있으면 위의 두 가지 불균형 사례 중 하나에서 두 메트릭을 모두 사용할 수 있습니다. 그렇지 않은 경우 훈련 데이터의 불균형에 따라 적절한 측정 항목을 선택할 수 있습니다.

댓글

  • 감사합니다. 포지티브 / 네거티브 클래스 수 측면에서 Fscore 대 균형 된 정확도 선택에 대한 정보에 대한 참조입니까?
  • @gin '의 요청을 두 번째로하고 싶습니다. 둘 중 선택하는 방법에 대한 자세한 정보. N이 약 8 % 인 데이터가 있습니다. 위의 대답으로 균형 잡힌 정확도를 사용해야 할 것 같습니다. '이 선택에 대한 다른 참조를 찾고 있습니다 (P > N-> b_acc)이지만 ' 아무것도 본 적이 없습니다.
  • 이것이 ' 나에게 의미가 없습니다. 라벨 전환시 균형 잡힌 정확도는 변하지 않습니다. 라벨을 변경하지 않으면 어떻게 " 더 나아질 수 있습니까 "?
  • @TCProctor Can 레이블 스위치가 주어 졌을 때 F1에 상대적인 순위의 균형 된 정확도 변화?

답글 남기기

이메일 주소를 발행하지 않을 것입니다. 필수 항목은 *(으)로 표시합니다