Jeg spekulerede på, om nogen kunne forklare forskellen mellem afbalanceret nøjagtighed, som er
b_acc = (sensitivity + specificity)/2
og f1 score, hvilket er:
f1 = 2*precision*recall/(precision + recall)
Svar
Matematisk er b_acc det aritmetiske gennemsnit af tilbagekaldelse_P og tilbagekaldelse_N og f1 er det harmoniske gennemsnit af tilbagekaldelse_P og præcision_P.
Både F1 og b_acc er metrics til klassificeringsevaluering, der (til en vis grad) håndterer klasse uligevægt. Afhængigt af hvilken af de to klasser (N eller P) der er større end den anden, overgår hver metric den anden.
1) Hvis N >> P, er f1 bedre.
2) Hvis P >> N, b_acc er bedre.
Det er klart, at hvis du kan skifte mellem etiketter, kan begge målinger bruges i et af de to ubalance tilfælde ovenfor. Hvis ikke, kan du, afhængigt af ubalancen i træningsdataene, vælge den relevante metric.
Kommentarer
- Tak sir, har du en reference til info om valg af Fscore vs afbalanceret nøjagtighed med hensyn til antal positive / negative klasser?
- Jeg vil gerne anden @gin ' s anmodning om mere info om, hvordan man vælger mellem de to. Jeg har nogle data, der hvor N er omkring 8%. Ved svaret ovenfor ser det ud til, at jeg skulle bruge balanceret nøjagtighed. Jeg ' har ledt efter andre referencer om dette valg (P > N – > b_acc) men har ikke ' ikke set noget.
- Dette giver ' ikke mening for mig. Balanceret nøjagtighed er uændret under etiketskift. Hvordan kan du " gøre det bedre " ved at skifte etiket, hvis det ikke ændres?
- @TCProctor Can afbalanceret nøjagtighedsændring i rang i forhold til F1 givet etiketomskifteren?