Divergence de Jensen-Shannon pour les distributions normales bivariées

8

Étant donné deux distributions normales bivariées PN(μp,Σp) et QN(μq,Σq), J'essaie de calculer la divergence Jensen-Shannon entre eux, définie (pour le cas discret) comme: JSD(PQ)=12(KLD(PM)+KLD(QM)) où est la divergence Kullback-Leibler, et j'ai trouvé le moyen de calculer en termes de paramètres des distributions, et donc . KLDM=12(P+Q)
KLDJSD

Mes doutes sont:

  1. Pour calculer , je viens de faire . Est-ce correct?MMN(12(μp+μq),12(Σp+Σq))

  2. J'ai lu dans [ 1 ] que le est borné, mais cela ne semble pas être vrai lorsque je le calcule comme décrit ci-dessus pour les distributions normales. Cela signifie-t-il que je fais un mauvais calcul, que je viole une hypothèse ou autre chose que je ne comprends pas?JSD

jorges
la source

Réponses:

8

La mesure médiane est une distribution des deux normales multivariées, donc elle n'a pas la forme que vous donnez dans le message d'origine. Soit la fonction de densité de probabilité d'un vecteur aléatoire et le pdf de . Le pdf de la mesure médiane est alors Mφp(x)N(μp,Σp)φq(x)N(μq,Σq)

φm(x)=12φp(x)+12φq(x).

La divergence Jensen-Shannon est où désigne le (différentiel) entropie correspondant à la mesure .

JSD=12(KL(PM)+KL(QM))=h(M)12(h(P)+h(Q)),
h(P)P

Ainsi, votre calcul se réduit à calculer des entropies différentielles. Pour la normale multivariée , la réponse est connue pour être et la preuve peut être trouvée dans un certain nombre de sources, par exemple, Cover et Thomas (1991), pp. 230-231. Il convient de noter que l'entropie d'une normale multivariée est invariante par rapport à la moyenne, comme le montre l'expression ci-dessus. Cependant, cela ne s'applique presque certainement pas au cas d'un mélange de normales. (Pensez à choisir une normale large centrée sur zéro et une autre normale concentrée où cette dernière est repoussée loin de l'origine.)N(μ,Σ)

12log2((2πe)n|Σ|)

Pour la mesure médiane, les choses semblent plus compliquées. À ma connaissance, il n'y a pas d'expression de forme fermée pour l'entropie différentielle . La recherche sur Google donne quelques coups potentiels, mais les meilleurs ne semblent pas donner de formes fermées dans le cas général. Vous pouvez être coincé avec l'estimation de cette quantité d'une manière ou d'une autre.h(M)

Notez également que le document auquel vous faites référence ne limite pas le traitement aux seules distributions discrètes. Ils traitent un cas suffisamment général pour que votre problème rentre dans leur cadre. Voir le milieu de la deuxième colonne à la page 1859. Voici où il est également montré que la divergence est limitée. Cela vaut pour le cas de deux mesures générales et n'est pas limité au cas de deux distributions discrètes.

La divergence Jensen-Shannon a été soulevée à quelques reprises récemment dans d'autres questions sur ce site. Voir ici et ici .


Addendum : Notez qu'un mélange de normales n'est pas la même chose qu'une combinaison linéaire de normales. La façon la plus simple de voir cela est de considérer le cas unidimensionnel. Soit et et laissez-les être indépendants l' un de l'autre. Ensuite, un mélange des deux normales utilisant des poids pour a la distribution X1N(μ,1)X2N(μ,1)(α,1α)α(0,1)

φm(x)=α12πe(x+μ)22+(1α)12πe(xμ)22.

La distribution d'une combinaison linéaire de et utilisant les mêmes poids que précédemment est, via la propriété stable de la distribution normale est où .X1X2

φ(x)=12πσ2e(x(12α)μ)22σ2,
σ2=α2+(1α)2

Ces deux distributions sont très différentes, bien qu'elles aient la même moyenne. Ce n'est pas un accident et découle de la linéarité des attentes.

Pour comprendre la distribution du mélange, imaginez que vous deviez vous rendre chez un consultant en statistique pour qu'elle puisse produire des valeurs à partir de cette distribution pour vous. Elle détient une réalisation de dans une paume et une réalisation de dans l'autre paume (bien que vous ne sachiez pas dans laquelle des deux paumes chacune se trouve). Maintenant, son assistant lance une pièce biaisée avec une probabilité hors de votre vue, puis vient et chuchote le résultat à l'oreille du statisticien. Elle ouvre une de ses paumes et vous montre la réalisation, mais ne vous dit pas le résultat du tirage au sort. Ce processus produit la distribution du mélange.X1X2α

En revanche, la combinaison linéaire peut être comprise dans le même contexte. Le consultant statistique prend simplement les deux réalisations, multiplie le premier par et le second par , additionne le résultat et vous le montre.α(1α)

cardinal
la source
Merci pour votre réponse. Donc, mon problème réside dans (comment j'ai calculé) la distribution médiane. Veuillez excuser mon ignorance si je pose une question évidente, mais en quoi la distribution médiane est-elle différente de la somme des variables aléatoires normalement distribuées ? Est-ce parce que nous sommes dans un cas bi-varié?
jorges
2
@jorges La somme sera normale et est donc symétrique par rapport à un seul mode. Lorsque les deux moyens sont suffisamment éloignés l'un de l'autre (par rapport à leur écart type), la distribution du mélange est bimodale . En aucun cas le mélange n'est normal sauf dans les cas dégénérés (moyennes et SD égaux). Cela ressort également de la formule de : cette moyenne d'exponentielles ne peut pas être écrite comme l'exponentielle d'une forme quadratique. φm
whuber
@whuber et cardinal: Bien que je comprenne intuitivement ce que vous dites, je semble avoir un sérieux problème avec les concepts. Je ne suis pas vraiment un statisticien, et je pense que je mélange "somme de variables aléatoires" avec "distribution de mélange". Je ne conteste pas vraiment ce que le cardinal et vous avez répondu, mais j'essaie plutôt de comprendre la différence et quand l'utiliser, car je pourrais faire des erreurs similaires ailleurs. Je vais retourner faire un peu de lecture et voir si je peux me clarifier. Merci pour vos réponses.
jorges
2

La réponse du cardinal est correcte. Vous essayez d'obtenir une solution de forme fermée pour la divergence Jensen-Shannon de deux Gaussiennes; aucune telle solution n'existe.

Cependant, vous pouvez calculer Jensen-Shannon avec une précision arbitraire en utilisant l'échantillonnage Monte Carlo. Ce dont vous avez besoin est un moyen de calculer , et par extension . La divergence Kullback-Leibler est définie comme:KLD(P|M)KLD(Q|M)

KLD(P|M)=P(x)log(P(x)M(x))dx

L'approximation de Monte Carlo de ceci est:

KLDapprox(P|M)=1ninlog(P(xi)M(xi))

où les ont été échantillonnés à partir de , ce qui est facile car c'est un gaussien dans votre cas. Comme , . peut être calculé comme .xiP(x)nKLDapprox(P|M)KLD(P|M)M(xi)M(xi)=12P(xi)+12Q(xi)

FrankD
la source
HI @FrankD - J'ai essayé de mettre en œuvre votre suggestion ici: stats.stackexchange.com/questions/345915/… bien que je ne pense pas que ce soit tout à fait ce que vous vouliez dire. Les pointeurs sont les bienvenus.
Astrid