J'essaie de comprendre la forme normalisée d'informations mutuelles ponctuelles.
Pourquoi la probabilité log-jointe normalise-t-elle les informations mutuelles ponctuelles entre [-1, 1]?
L'information mutuelle point par point est:
p (x, y) est borné par [0, 1] donc log (p (x, y)) est borné par (, 0]. Il semble que le log (p (x, y)) devrait en quelque sorte équilibrer les changements le numérateur, mais je ne comprends pas exactement comment. Cela me rappelle aussi l'entropie , mais encore une fois je ne comprends pas la relation exacte.
Réponses:
À partir de l'entrée Wikipedia sur les informations mutuelles ponctuelles :
Pourquoi cela arrive-t-il? Eh bien, la définition de l'information mutuelle ponctuelle est
alors que pour une information mutuelle normalisée ponctuelle, on entend :
Le quand il y a:
la source
Bien que la réponse de Piotr Migdal soit informative en donnant les exemples où nmpi atteint trois valeurs extrêmes, cela ne prouve pas qu'il se trouve dans l'intervalle . Voici l'inégalité et sa dérivation. as pour tout événement . En divisant les deux côtés par le non négatif , nous avons[−1,1] ≤==≤logp(x,y)logp(x,y))−logp(x)−logp(y)logp(x,y)p(x)p(y)=:pmi(x;y)logp(y|x)+logp(y|x)−logp(x,y)−logp(x,y) −logp(A)≥0 A h(x,y):=−logp(x,y) −1≤nmpi(x;y):=mpi(x;y)h(x,y)≤1.
la source