J'ai un problème de classification où les pixels seront étiquetés avec des étiquettes souples (qui dénotent des probabilités) plutôt qu'avec des étiquettes rigides 0,1. Auparavant, avec un étiquetage dur de 0,1 pixel, la fonction de perte d'entropie croisée (sigmoidCross entropyLossLayer de Caffe) donnait des résultats décents. Est-il acceptable d'utiliser la couche de perte d'entropie croisée sigmoïde (de Caffe) pour ce problème de classification souple?
10
Réponses:
La réponse est oui, mais vous devez la définir correctement.
L'entropie croisée est définie sur des distributions de probabilité, et non sur des valeurs uniques. Pour les distributions discrètesp et q , c'est:
Lorsque la perte d'entropie croisée est utilisée avec des étiquettes de classe «dures», cela revient vraiment à traiterp comme la distribution empirique conditionnelle sur les étiquettes de classe. Il s'agit d'une distribution où la probabilité est 1 pour l'étiquette de classe observée et 0 pour toutes les autres.q est la distribution conditionnelle (probabilité d'étiquette de classe, entrée donnée) apprise par le classificateur. Pour un seul point de données observé avec entréex0 et classe y0 , nous pouvons voir que l'expression ci-dessus se réduit à la perte de journal standard (qui serait moyenne sur tous les points de données):
Ici,I{⋅} est la fonction d'indicateur, qui est 1 lorsque son argument est vrai ou 0 sinon (c'est ce que fait la distribution empirique). La somme est prise sur l'ensemble des étiquettes de classe possibles.
Dans le cas des étiquettes «souples» comme vous le mentionnez, les étiquettes ne sont plus des identités de classe elles-mêmes, mais des probabilités sur deux classes possibles. Pour cette raison, vous ne pouvez pas utiliser l'expression standard pour la perte de journal. Mais, le concept d'entropie croisée s'applique toujours. En fait, cela semble encore plus naturel dans ce cas.
Appelons la classey , qui peut être 0 ou 1. Et, disons que le soft label s(x) donne la probabilité que la classe soit 1 (étant donné l'entrée correspondante x ). Ainsi, le soft label définit une distribution de probabilité:
Le classificateur donne également une distribution sur les classes, étant donné l'entrée:
Ici,c(x) est la probabilité estimée du classificateur que la classe soit 1, étant donné l'entrée x .
La tâche consiste maintenant à déterminer la différence entre ces deux distributions en utilisant l'entropie croisée. Branchez ces expressions pourp et q dans la définition de l'entropie croisée ci-dessus. La somme est reprise sur l'ensemble des classes possibles{0,1} :
C'est l'expression d'un seul point de données observé. La fonction de perte serait la moyenne sur tous les points de données. Bien sûr, cela peut également être généralisé à la classification multiclasse.
la source