Pour deux distributions discrètes et , l'entropie croisée est définie commepppqqq H( p , q) = - ∑Xp ( x ) logq( x ) .H(p,q)=-∑Xp(X)Journalq(X).H(p,q)=-\sum_x p(x)\log q(x). Je me demande pourquoi ce serait une mesure intuitive de la distance entre deux distributions de probabilité? Je vois que est...