Moment / mgf de cosinus des vecteurs directionnels?

9

Quelqu'un peut-il suggérer comment je peux calculer le deuxième moment (ou la fonction de génération de moment entier) du cosinus de deux vecteurs aléatoires gaussiens x,y, chacun distribué comme N(0,Σ), indépendants les uns des autres? IE, moment pour la variable aléatoire suivante

x,yxy

La question la plus proche est la fonction de génération de moment du produit interne de deux vecteurs aléatoires gaussiens qui dérive MGF pour le produit interne. Il y a aussi cette réponse de mathoverflow qui relie cette question à la distribution des valeurs propres des échantillons de matrices de covariance, mais je ne vois pas immédiatement comment les utiliser pour calculer le deuxième moment.

Je soupçonne que le deuxième moment est proportionnel à la demi-norme des valeurs propres de Σ car j'obtiens ce résultat par une manipulation algébrique pour 2 dimensions, et aussi pour 3 dimensions à partir de deviner et vérifier. Pour les valeurs propres a,b,c totalisant 1, le deuxième moment est:

(a+b+c)2

Utilisation des éléments suivants pour la vérification numérique

val1[a_, b_, c_] := (a + b + c)/(Sqrt[a] + Sqrt[b] + Sqrt[c])^2
val2[a_, b_, c_] := Block[{},
  x := {x1, x2, x3};
  y := {y1, y2, y3};
  normal := MultinormalDistribution[{0, 0, 0}, ( {
      {a, 0, 0},
      {0, b, 0},
      {0, 0, c}
     } )];
  vars := {x \[Distributed] normal, y \[Distributed] normal};
  NExpectation[(x.y/(Norm[x] Norm[y]))^2, vars]]

  val1[1.5,2.5,3.5] - val2[1.5,2.5,3.5]

Vérification de la formule pour 4 variables (dans les limites numériques):

val1[a_, b_, c_, 
  d_] := (a + b + c + d)/(Sqrt[a] + Sqrt[b] + Sqrt[c] + Sqrt[d])^2
val2[a_, b_, c_, d_] := Block[{},
  x := {x1, x2, x3, x4};
  y := {y1, y2, y3, y4};
  normal := 
   MultinormalDistribution[{0, 0, 0, 
     0}, {{a, 0, 0, 0}, {0, b, 0, 0}, {0, 0, c, 0}, {0, 0, 0, d}}];
  vars := {x \[Distributed] normal, y \[Distributed] normal};
  NExpectation[(x.y/(Norm[x] Norm[y]))^2, vars]]

val1[0.5, 1.5, 2.5, 3.5] - val2[0.5, 1.5, 2.5, 3.5]
Yaroslav Bulatov
la source
En raison de la liberté de rotation, étant donné que le cosinus est invariant lors des rotations, l'un des vecteurs peut être supposé être un vecteur unitaire dans la direction la plus appropriée. Cela devrait simplifier un peu le problème, au deuxième moment du cosinus de par rapport à . EDIT: En fait, cela dépend de la symétrie de . xN(0,Σ)(1,0,0,)Σ
jwimberley
1
La réponse de w huber ici peut être intéressante: stats.stackexchange.com/a/85977/37483
ekvall
@ Student001 en effet, le taux 1 / n dérivé dans cette question semble être un cas particulier de cette formule, puisque nous supprimons un degré de liberté en normalisant la trace de la matrice de covariance à 1
Yaroslav Bulatov
A part: Notez que, wlog, est diagonal. Σ
Cardinal
J'ai trouvé la question de la distribution de posée au moins 3 fois sur crossvalidated, donc j'espère que ce post va populariser la notion de "distribution normale projetée" donc ce n'est plus une question ! :)xx
Henry.L

Réponses:

1

Hé Yaroslav, vous n'avez vraiment pas à vous dépêcher d'accepter ma réponse sur MO et vous êtes plus que bienvenus pour demander plus de détails :).

Puisque vous reformulez la question en 3 dim, je peux voir exactement ce que vous voulez faire. Dans le post MO, je pensais que vous n'aviez qu'à calculer le plus grand cosinus entre deux variables aléatoires. Maintenant, le problème semble plus difficile.

Tout d'abord, nous calculons la gaussienne normalisée , qui n'est pas un travail trivial car elle a en fait un nom de "distribution normale projetée" car nous pouvons réécrire la densité normale multivariée en termes de coordonnée polaire . Et la densité marginale de peut être obtenue dansXXX(X,XX)=(r,θ)θ

R+f(r,θ)dr

Un exemple important est celui dans lequel a une distribution normale bivariée , dans lequel est censé avoir une normale projetée ( ou gaussienne angulaire ou normale décalée ) [Mardia & Peter] p.46xN2(μ,Σ)x1x

Dans cette étape, nous pouvons obtenir les distributions pour , et donc leur densité conjointe raison de l'indépendance. Pour une fonction de densité du béton de la distribution normale projetée, voir [Mardia & Peter] Chap 10. ou [2] Équation (4) ou [1]. (Notez que dans [2] ils supposent également une forme spéciale de matrice de covariance )PNkXXYY(XX,YY)Σ=(Γγγ1)

Deuxièmement, comme nous avons déjà obtenu leur densité conjointe, leur produit intérieur peut être facilement dérivé en utilisant la formule de transformation . Voir également [3].

(XX,YY)XXYY

Tant que nous avons calculé la densité, le deuxième moment n'est qu'un problème d'intégration.

Référence

[Mardia et Peter] Mardia, Kanti V. et Peter E. Jupp. Statistiques directionnelles. Vol. 494. John Wiley & Sons, 2009.

[1] Wang, Fangpo et Alan E. Gelfand. "Analyse directionnelle des données sous la distribution normale générale projetée." Méthodologie statistique 10.1 (2013): 113-127.

[2] Hernandez-Stumpfhauser, Daniel, F. Jay Breidt et Mark J. van der Woerd. "La distribution normale générale projetée de dimension arbitraire: modélisation et inférence bayésienne." Analyse bayésienne (2016). https://projecteuclid.org/download/pdfview_1/euclid.ba/1453211962

[3] Fonction génératrice de moment du produit intérieur de deux vecteurs aléatoires gaussiens

Henry.L
la source
@YaroslavBulatov J'espère que cela vaut bien votre générosité!
Henry.L
La réponse que j'ai postée sur MO n'est pas exactement ce que le PO voulait parce que je pensais qu'il cherchait l'angle canonique. ma faute.
Henry.L
1
Pourriez-vous fournir une preuve que l'hypothèse que la matrice de covariance d'identité est wlog? Ce n'est pas évident pour moi. Il est "facile" de montrer l'affirmation du cardinal selon laquelle la matrice diagonale est wlog, mais comment se débarrasser des valeurs propres?
ekvall
@ Student001 Si , alors a une matrice de covariance d'identité. Σ=PΛPPX
Henry.L
1
Non, si est la décomposition spectrale de , alors comme matrice de covariance , qui n'a pas besoin d'être l'identité, donc au moins cette étape ne justifie pas wlog Peut-être que votre dernier commentaire fait , Je ne suis pas sûr. PΛPΣPXΛΣ=I
ekvall