Précision équilibrée vs score F-1

15

Je me demandais si quelqu'un pouvait expliquer la différence entre une précision équilibrée qui est

b_acc = (sensitivity + specificity)/2

et le score f1 qui est:

f1 = 2*precision*recall/(precision + recall) 
dvreed77
la source

Réponses:

19

Mathématiquement, b_acc est la moyenne arithmétique de rappel_P et rappel_N et f1 est la moyenne harmonique de rappel_P et précision_P.

F1 et b_acc sont des métriques pour l'évaluation du classificateur, qui (dans une certaine mesure) gèrent le déséquilibre de classe. Selon laquelle des deux classes (N ou P) est supérieure à l'autre, chaque métrique est supérieure à l'autre.

1) Si N >> P, f1 est meilleur.

2) Si P >> N, b_acc est meilleur.

De toute évidence, si vous pouvez changer d'étiquette, les deux mesures peuvent être utilisées dans l'un des deux cas de déséquilibre ci-dessus. Sinon, en fonction du déséquilibre dans les données d'entraînement, vous pouvez sélectionner la métrique appropriée.

Shashwat
la source
1
Merci monsieur, Avez-vous une référence pour les informations concernant le choix de Fscore vs précision équilibrée en termes de nombre de classes positives / négatives?
gin
J'aimerais appuyer la demande de @ gin pour plus d'informations sur la façon de choisir entre les deux. J'ai quelques données où le N est d'environ 8%. Par réponse ci-dessus, il semble que je devrais utiliser la précision équilibrée. J'ai cherché d'autres références sur ce choix (P> N -> b_acc) mais je n'ai rien vu.
anguyen1210
Cela n'a aucun sens pour moi. La précision équilibrée est invariante lors du changement d'étiquette. Comment pouvez-vous "l'améliorer" en changeant d'étiquette si elle ne change pas?
TC Proctor