Pour la détection, une façon courante de déterminer si une proposition d'objet était correcte est Intersection over Union (IoU, IU). Cela prend l'ensemble des pixels d'objet proposés et l'ensemble des pixels d'objet réels et calcule:
Généralement, IoU> 0,5 signifie que c'était un coup, sinon c'était un échec. Pour chaque classe, on peut calculer le
- Vrai positif ( ): une proposition a été faite pour la classe et il y avait en fait un objet de la classe
- Faux positif ( ): une proposition a été faite pour la classe , mais il n'y a pas d'objet de classe
- Précision moyenne pour la classe :
Le mAP (précision moyenne moyenne) =
Si l'on veut de meilleures propositions, on fait augmenter l'IoU de 0,5 à une valeur plus élevée (jusqu'à 1,0 ce qui serait parfait). On peut le noter avec mAP @ p, où est l'IoU.
Mais que signifie mAP@[.5:.95]
(comme on le trouve dans cet article )?
computer-vision
Martin Thoma
la source
la source
[.5:.95]
partie se réfère à une plage de valeurs IoU, mais je ne sais pas comment cette plage est évaluée dans un seul mAP.Réponses:
mAP@[.5:.95]
(quelqu'un notémAP@[.5,.95]
) signifie une MAP moyenne sur différents seuils IoU, de 0,5 à 0,95, étape 0,05 (0,5, 0,55, 0,6, 0,65, 0,7, 0,75, 0,8, 0,85, 0,9, 0,95).BTW, le code source de coco montre exactement ce qui
mAP@[.5:.95]
se passe:self.iouThrs = np.linspace(.5, 0.95, np.round((0.95 - .5) / .05) + 1, endpoint=True)
Les références
https://github.com/pdollar/coco
http://mscoco.org/
https://www.cs.cornell.edu/~sbell/pdf/cvpr2016-ion-bell.pdf
https://arxiv.org/pdf/1506.01497.pdf
https://arxiv.org/pdf/1611.10012.pdf
la source
la source
AP est moyenné sur toutes les catégories. Traditionnellement, cela s'appelle la «précision moyenne moyenne» (mAP). Nous ne faisons aucune distinction entre AP et mAP (et également AR et mAR) et supposons que la différence est claire par rapport au contexte.
http://cocodataset.org/#detections-eval
la source