J'ai un doute très basique. Désolé si cela dérange peu. Je sais que la valeur des informations mutuelles doit être supérieure à 0, mais doit-elle être inférieure à 1? Est-il limité par une valeur supérieure?
Merci, Amit.
J'ai un doute très basique. Désolé si cela dérange peu. Je sais que la valeur des informations mutuelles doit être supérieure à 0, mais doit-elle être inférieure à 1? Est-il limité par une valeur supérieure?
Merci, Amit.
Oui, il a une limite supérieure, mais pas 1.
L' information mutuelle (en bits) est 1 lorsque deux parties (statistiquement) partagent un bit d'information. Cependant, ils peuvent partager des données arbitraires volumineuses. En particulier, s'ils partagent 2 bits, alors c'est 2.
L'information mutuelle est limitée par le haut par l' entropie de Shannon des distributions de probabilité pour les parties uniques, c'est-à-dire .