(Remarque: j'ai changé votre en .)xξx
Pour une variable aléatoire de densité , si vous avez des contraintes
pour , la densité d'entropie maximale est
où les sont déterminés à partir des , et est une constante de normalisation.p ∫ G i ( x )Xp
∫Gi(x)p(x)dx=ci,
i=1,…,np0(x)=Aexp(∑i=1naiGi(x)),
aiciA
Dans ce contexte, l'approximation gaussienne ("quasi-gaussianité") signifie deux choses:
1) Vous acceptez d'introduire deux nouvelles contraintes: la moyenne de est et la variance est (disons);X01
2) L' (voir ci-dessous) est beaucoup plus grand que les autres .an+2ai
Ces contraintes supplémentaires sont représentées par
donnant
qui peut être réécrit comme (juste "ajouter zéro" à l'exposant)
menant à ce que vous voulez:
prêt à être développé par Taylor (en utilisant la deuxième condition de l'approximation gaussienne).
Gn+1(x)=x,cn+1=0,
Gn+2(x)=x2,cn+2=1,
p0(x)=Aexp(an+2x2+an+1x+∑i=1naiGi(x)),
p0(x)=Aexp(x22−x22+an+2x2+an+1x+∑i=1naiGi(x)),
p0(x)=A′ϕ(x)exp(an+1x+(an+2+12)x2+∑i=1naiGi(x));
En faisant l'approximation comme un physicien (ce qui signifie que nous ne nous soucions pas de l'ordre du terme d'erreur), en utilisant , nous avons la densité approximative
Pour finir, nous devons déterminer et les valeurs des ' s. Cela se fait en imposant les conditions
pour obtenir un système d'équations, dont la solution donne et les .exp(t)≈1+t
p0(x)≈A′ϕ(x)(1+an+1x+(an+2+12)x2+∑i=1naiGi(x)).
A′ai∫p0(x)dx=1,∫xp0(x)dx=0,∫x2p0(x)dx=1
∫Gi(x)p0(x)dx=ci,i=1,…,n,
A′ai
Sans imposer de conditions supplémentaires aux , je ne crois pas qu'il existe une solution simple sous forme fermée.Gi
Le PS Mohammad a précisé lors d'un chat qu'avec des conditions d'orthogonalité supplémentaires pour les , nous pouvons résoudre le système.Gi