Dans le MNIST For ML Beginners, ils définissent l’entropie croisée comme Hy′(y):=−∑iy′ilog(yi)Hy′(y):=−∑iyi′log(yi)H_{y'} (y) := - \sum_{i} y_{i}' \log (y_i) i y ' iyiyiy_i est la valeur de probabilité prédite pour la classe et est la probabilité vraie pour cette classe.iiiy′iyi′y_i' question 1...