J'ai récemment lu cet article sur l'entropie d'une distribution de probabilité discrète. Il décrit une belle façon de penser à l'entropie comme les bits numériques attendus (au moins lors de l'utilisation de dans votre définition d'entropie) nécessaires pour coder un message lorsque votre codage est optimal, compte tenu de la distribution de probabilité des mots que vous utilisez.
Cependant, en étendant au cas continu comme ici, je crois que cette façon de penser tombe en panne, car pour toute distribution de probabilité continue (veuillez me corriger si c'est faux), donc je se demandait s'il y avait une belle façon de penser à ce que signifie l'entropie continue, tout comme avec le cas discret.
entropy
information-theory
dippynark
la source
la source
Réponses:
Il n'y a pas d'interprétation de l'entropie différentielle qui serait aussi significative ou utile que celle de l'entropie. Le problème avec les variables aléatoires continues est que leurs valeurs ont généralement une probabilité de 0 et nécessiteraient donc un nombre infini de bits pour être codées.
Si vous regardez la limite de l'entropie discrète en mesurant la probabilité des intervalles[nε,(n+1)ε[ , vous vous retrouvez avec
et non l'entropie différentielle. Cette quantité est en un sens plus significative, mais divergent à l'infini lorsque nous prenons des intervalles de plus en plus petits. Cela a du sens, car nous aurons besoin de plus en plus de bits pour coder dans lequel des nombreux intervalles la valeur de notre valeur aléatoire tombe.
Une quantité plus utile pour examiner les distributions continues est l'entropie relative (également divergence de Kullback-Leibler). Pour les distributions discrètes:
Voir l'exposé de Sergio Verdu pour une excellente introduction à l'entropie relative.
la source