Je regarde la fonction de coût d'entropie croisée trouvée dans ce tutoriel :
Que résumons-nous exactement? C'est, bien sûr, sur , mais et ne changent pas avec . Tous les sont des entrées dans celui . est même défini dans le paragraphe ci-dessus l'équation en fonction de la somme de tous les et .
De plus, est défini comme le nombre d'entrées dans ce neurone particulier, n'est-ce pas? Il est libellé comme "le nombre total d'éléments de données de formation" .
Éditer:
Ai-je raison de penser que
serait la fonction de coût pour l'ensemble du réseau, alors que
serait le coût pour le neurone individuel? La somme ne devrait-elle pas être supérieure à chaque neurone de sortie?
la source
Le tutoriel est en fait assez explicite:
Plus loin dans le même didacticiel, Nielsen donne une expression pour la fonction de coût pour un réseau multicouche et multi-neurone (Eqn. 63):
la source