Je me demandais si quelqu'un pouvait expliquer la différence entre une précision équilibrée qui est
b_acc = (sensitivity + specificity)/2
et le score f1 qui est:
f1 = 2*precision*recall/(precision + recall)
la source
Je me demandais si quelqu'un pouvait expliquer la différence entre une précision équilibrée qui est
b_acc = (sensitivity + specificity)/2
et le score f1 qui est:
f1 = 2*precision*recall/(precision + recall)
Mathématiquement, b_acc est la moyenne arithmétique de rappel_P et rappel_N et f1 est la moyenne harmonique de rappel_P et précision_P.
F1 et b_acc sont des métriques pour l'évaluation du classificateur, qui (dans une certaine mesure) gèrent le déséquilibre de classe. Selon laquelle des deux classes (N ou P) est supérieure à l'autre, chaque métrique est supérieure à l'autre.
1) Si N >> P, f1 est meilleur.
2) Si P >> N, b_acc est meilleur.
De toute évidence, si vous pouvez changer d'étiquette, les deux mesures peuvent être utilisées dans l'un des deux cas de déséquilibre ci-dessus. Sinon, en fonction du déséquilibre dans les données d'entraînement, vous pouvez sélectionner la métrique appropriée.