Cette question donne une définition quantitative de l'entropie croisée, en termes de formule.
Je cherche une définition plus théorique, wikipedia dit:
En théorie de l'information, l'entropie croisée entre deux distributions de probabilité mesure le nombre moyen de bits nécessaires pour identifier un événement à partir d'un ensemble de possibilités, si un schéma de codage est utilisé sur la base d'une distribution de probabilité donnée q, plutôt que de la distribution "vraie" p .
J'ai souligné la partie qui me donne du mal à comprendre cela. Je voudrais une belle définition qui ne nécessite pas une compréhension séparée (préexistante) d'Entropie.
entropy
information-theory
Lyndon White
la source
la source
Réponses:
Pour coder un événement se produisant avec la probabilité vous avez besoin d'au moins log 2 ( 1 / p ) bits (pourquoi? Voir ma réponse sur "Quel est le rôle du logarithme dans l'entropie de Shannon?" ).p Journal2( 1 / p )
Donc, dans le codage optimal, la longueur moyenne du message codé est c'est-à-direl'entropiedeShannonde la distribution de probabilité d'origine.
Cependant, si pour la distribution de probabilité vous utilisez un codage qui est optimal pour une distribution de probabilité différente Q , alors la longueur moyenne du message codé est ∑ i p i code_length ( i ) = ∑ i p i log 2 ( 1P Q
est l'entropie croisée, qui est supérieure à∑ipilog2(1
Ensuite, si nous voulons le coder de manière optimale, nous codons A comme 0 et B comme 1, nous obtenons donc un bit de message codé par une lettre. (Et c'est exactement l'entropie de Shannon de notre distribution de probabilité.)
la source