Plus d'informations sur ce sujet que vous n'en avez probablement besoin peuvent être trouvées dans Goodman (1962): "The Variance of the Product of K Random Variables" , qui dérive des formules pour les variables aléatoires indépendantes et les variables aléatoires potentiellement corrélées, ainsi que quelques approximations. Dans un article précédent ( Goodman, 1960 ), la formule pour le produit d'exactement deux variables aléatoires a été dérivée, ce qui est un peu plus simple (bien que toujours assez noueux), ce qui pourrait être un meilleur endroit pour commencer si vous voulez comprendre la dérivation .
Pour être complet, cependant, cela se passe comme ceci.
Deux variables
Supposons ce qui suit:
- yX et sont deux variables aléatoiresy
- YX et sont leurs attentes (non nulles)Oui
- V ( y )V( x ) et sont leurs variancesV( y)
- δ yδX= ( x - X) / X (et de même pour )δy
- réi , j= E[ ( δX)je( δy)j]
- Δ yΔX= x - X (et de même pour )Δy
- Ei , j= E[ ( ΔX)je( Δy)j]
- V ( x ) / X 2 G ( Y )G ( x ) est le coefficient de variation au carré: (de même pour )V( x ) / X2G ( Y)
Alors:
ou équivalent:
V( x y) = ( XOui)2[ G ( y) + G ( x ) + 2 D1 , 1+ 2 D1 , 2+ 2 D2 , 1+ D2 , 2- D21 , 1]
V( x y) = X2V( y) + Y2V( x ) + 2 XOuiE1 , 1+ 2 XE1 , 2+ 2 YE2 , 1+ E2 , 2- E21 , 1
Plus de deux variables
L'article de 1960 suggère qu'il s'agit d'un exercice pour le lecteur (qui semble avoir motivé l'article de 1962!).
La notation est similaire, avec quelques extensions:
- x y( x1, x2, … Xn) sont les variables aléatoires au lieu de etXy
- M= E( ∏ki = 1Xje)
- A = ( M/ ∏ki = 1Xje) -1
- i = 1 , 2 , … ksje = 0, 1 ou 2 pouri = 1 , 2 , … k
- ( s 1 , s 2 , … s k )u = nombre de 1 dans(s1,s2,…sk)
- ( s 1 , s 2 , … s k )m = nombre de 2 dans(s1,s2,…sk)
- m = 0 2 u m > 1D(u,m)=2u−2 pour et pour ,m=02um>1
- C(s1,s2,…,sk)=D(u,m)⋅E(∏ki=1δsixi)
- ∑s1⋯sk indique la somme des ensembles de où3k−k−1(s1,s2,…sk)2m+u>1
Puis enfin:
V(∏i=1kxi)=∏X2i(∑s1⋯skC(s1,s2…sk)−A2)
Voir les papiers pour plus de détails et des approximations légèrement plus maniables!
Juste pour ajouter à la réponse impressionnante de Matt Krause (en fait facilement dérivable de là). Si x, y sont indépendants, alors,
la source
En plus de la formule générale donnée par Matt, il convient de noter qu'il existe une formule un peu plus explicite pour les variables aléatoires gaussiennes moyennes nulles. Il découle du théorème d' Isserlis , voir aussi Moments supérieurs pour la distribution normale multivariée centrée.
Supposons que suit une distribution normale multivariée avec une moyenne de 0 et une matrice de covariance . Si le nombre de variables est impair, et où signifie la somme de toutes les partitions de en paires disjointes chaque terme étant un produit des , et où Σ k E ( ∏ i x i ) = 0 V ( ∏ i ˜ Σ i , j ˜ Σ = ( Σ Σ Σ Σ ) ( x 1 , … , V ( x 1 x 2 ) = Σ 1 , 1 Σ(x1,…,xk) Σ k E(∏ixi)=0
Il est en effet possible de mettre en œuvre la formule générale. La partie la plus difficile semble être le calcul des partitions requises. Dans R, cela peut être fait avec la fonctionk=8 k=9 k=10
setparts
du packagepartitions
. En utilisant ce package, il n'a pas été difficile de générer les 2 027 025 partitions pour , les 34 459 425 partitions pour également pu être générées, mais pas les 654 729 075 partitions pour (sur mon ordinateur portable de 16 Go).k = 9 k = 10Deux autres choses méritent d'être notées. Premièrement, pour les variables gaussiennes avec une moyenne non nulle, il devrait être possible de dériver une expression également à partir du théorème d'Isserlis. Deuxièmement, il n'est pas clair (pour moi) si la formule ci-dessus est robuste contre les écarts par rapport à la normalité, c'est-à-dire si elle peut être utilisée comme approximation même si les variables ne sont pas multivariées normalement distribuées. Troisièmement, bien que les formules ci-dessus soient correctes, on peut se demander dans quelle mesure la variance indique la distribution des produits. Même pour la distribution du produit est assez leptokurtic, et pour plus grand, il devient rapidement extrêmement leptokurtic.kk=2 k
la source