«Puisque est presque gaussien, son PDF peut être écrit comme…»

9

Petite question: pourquoi est-ce vrai ??

Longue question:

Très simplement, j'essaie de comprendre ce qui justifie cette première équation. L'auteur du livre que je lis, (contexte ici si vous le souhaitez, mais pas nécessaire), affirme ce qui suit:

En raison de l'hypothèse de quasi-gaussianité, nous pouvons écrire:

p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+i=1naiGi(ξ))

Où est le PDF de vos données observées qui a l'entropie maximale, étant donné que vous n'aviez observé qu'une série d'attentes, (nombres simples) , où , et est le PDF d'une variable gaussienne standardisée, c'est-à-dire 0 moyenne et variance unitaire.c i , i = 1 . . . n c i = E { G i ( ξ ) } ϕ ( ξ )p0(ξ)ci,i=1...nci=E{Gi(ξ)}ϕ(ξ)

Là où tout cela va, c'est qu'il utilise l'équation ci-dessus comme point de départ pour simplifier le PDF, , et je comprends comment il le fait, mais je ne comprends pas comment il justifie l'équation ci-dessus, c'est-à-dire, le point de départ.p0(ξ)

J'ai essayé d'être bref pour ne pas gêner personne, mais si vous voulez des détails supplémentaires, faites-le moi savoir dans les commentaires. Merci!

Spacey
la source

Réponses:

12

(Remarque: j'ai changé votre en .)xξx

Pour une variable aléatoire de densité , si vous avez des contraintes pour , la densité d'entropie maximale est où les sont déterminés à partir des , et est une constante de normalisation.p G i ( x )Xp

Gi(x)p(x)dx=ci,
i=1,,n
p0(x)=Aexp(i=1naiGi(x)),
aiciA

Dans ce contexte, l'approximation gaussienne ("quasi-gaussianité") signifie deux choses:

1) Vous acceptez d'introduire deux nouvelles contraintes: la moyenne de est et la variance est (disons);X01

2) L' (voir ci-dessous) est beaucoup plus grand que les autres .an+2ai

Ces contraintes supplémentaires sont représentées par donnant qui peut être réécrit comme (juste "ajouter zéro" à l'exposant) menant à ce que vous voulez: prêt à être développé par Taylor (en utilisant la deuxième condition de l'approximation gaussienne).

Gn+1(x)=x,cn+1=0,
Gn+2(x)=x2,cn+2=1,
p0(x)=Aexp(an+2x2+an+1x+i=1naiGi(x)),
p0(x)=Aexp(x22x22+an+2x2+an+1x+i=1naiGi(x)),
p0(x)=Aϕ(x)exp(an+1x+(an+2+12)x2+i=1naiGi(x));

En faisant l'approximation comme un physicien (ce qui signifie que nous ne nous soucions pas de l'ordre du terme d'erreur), en utilisant , nous avons la densité approximative Pour finir, nous devons déterminer et les valeurs des ' s. Cela se fait en imposant les conditions pour obtenir un système d'équations, dont la solution donne et les .exp(t)1+t

p0(x)Aϕ(x)(1+an+1x+(an+2+12)x2+i=1naiGi(x)).
Aai
p0(x)dx=1,xp0(x)dx=0,x2p0(x)dx=1
Gi(x)p0(x)dx=ci,i=1,,n,
Aai

Sans imposer de conditions supplémentaires aux , je ne crois pas qu'il existe une solution simple sous forme fermée.Gi

Le PS Mohammad a précisé lors d'un chat qu'avec des conditions d'orthogonalité supplémentaires pour les , nous pouvons résoudre le système.Gi

Zen
la source
Zen, merci beaucoup. Je comprends (un peu) maintenant. Ce qui n'est pas clair pour moi cependant, c'est quand vous dites "Dans ce contexte, l'approximation gaussienne (" quasi-gaussianité ") signifie que vous acceptez d'introduire deux nouvelles contraintes: que la moyenne de X est 0 et la variance est (disons ) 1." , Je ne comprends pas, pourquoi pour que quelque chose soit «presque gaussien», cela signifie qu'il doit avoir et . Et si c'était juste un autre VR qui avait ces mêmes valeurs? μ=0σ2=1
Spacey
Salut Mohammad. J'ai ajouté plus d'informations à la réponse. Pour obtenir l'ancienne expression de vous utilisez uniquement ce que j'ai appelé la première condition de l'approximation gaussienne. Vous utiliserez la deuxième condition lorsque vous effectuerez l'extension de Taylor de ce . J'espère que ça aide. p0(x)p0(x)
Zen
Pourriez-vous poster en commentaire l'expression finale de après avoir effectué les calculs restants? Merci. p0(x)
Zen
oui, il dit que l'expression finale est:p0(z)ϕ(z)(1+i=1NciFi(z))
Spacey
Je pense qu'il y a une faute de frappe dans la dernière équation? ... se produit deux fois? ...an+1x
Spacey