J'ai trouvé cette explication par un Nathan Yan sur Quora
La précision Top-N signifie que la classe correcte doit être dans les probabilités Top-N pour qu'elle compte comme «correcte». Par exemple, supposons que j'ai un ensemble d'images
- Chien
- Chat
- Chien
- Oiseau
- Chat
- Chat
- Souris
- manchot
Pour chacun d'eux, le modèle prédira une classe, qui apparaîtra à côté de la classe correcte dans les citations
- Chien chien"
- Chat «Oiseau»
- Chien chien"
- Oiseau «Oiseau»
- Chat Chat"
- Chat Chat"
- Souris "Pingouin"
- Pingouin «chien»
La précision Top-1 pour cela est (5 correctes sur 8), 62,5%. Supposons maintenant que j'énumère également le reste des classes prédites par le modèle, par ordre décroissant de leurs probabilités (plus la classe apparaît à droite, moins le modèle pense que l'image est de la classe tat)
- Dog “Dog, Cat, Bird, Mouse, Penguin”
- Cat “Bird, Mouse, Cat, Penguin, Dog”
- Dog “Dog, Cat, Bird, Penguin, Mouse”
- Bird “Bird, Cat, Mouse, Penguin, Dog”
- Cat “Cat, Bird, Mouse, Dog, Penguin”
- Cat “Cat, Mouse, Dog, Penguin, Bird”
- Mouse “Penguin, Mouse, Cat, Dog, Bird”
- Penguin “Dog, Mouse, Penguin, Cat, Bird”
Si nous prenons la précision du top 3 pour cela, la classe correcte doit seulement être dans les trois classes prédites les plus importantes pour compter. En conséquence, malgré que le modèle n'ait pas parfaitement rencontré tous les problèmes, sa précision dans le top 3 est de 100%!