Nous avons un vecteur normal multivarié . Envisagez de partitionner et en
avec une partition similaire de en
Ensuite, , la distribution conditionnelle de la première partition étant donnée la seconde, est
, avec moyenne
et matrice de covariance
En réalité, ces résultats sont également fournis sur Wikipedia, mais je ne sais pas du tout comment sont dérivés les et . Ces résultats sont cruciaux car ils constituent une formule statistique importante pour dériver des filtres de Kalman . Est-ce que quelqu'un me fournirait les étapes de dérivation de et de ? Merci beaucoup!
normal-distribution
conditional-probability
Cochon volant
la source
la source
Réponses:
Vous pouvez le prouver en calculant explicitement la densité conditionnelle par force brute, comme dans le lien de Procrastinator (+1) dans les commentaires. Mais il existe également un théorème qui dit que toutes les distributions conditionnelles d'une distribution normale multivariée sont normales. Par conséquent, tout ce qui reste à faire est de calculer le vecteur moyen et la matrice de covariance. Je me souviens que nous l’avons déduite d’une série chronologique à l’université en définissant intelligemment une troisième variable et en utilisant ses propriétés pour obtenir le résultat plus simplement que la solution de force brute du lien (tant que vous maîtrisez bien l’algèbre matricielle). Je vais de mémoire mais c'était quelque chose comme ça:
Soit la première partition et la seconde. Définissez maintenant où . Maintenant nous pouvons écrirex1 x2 z=x1+Ax2 A=−Σ12Σ−122
Donc et sont pas corrélés et, puisqu'ils sont conjointement normaux, ils sont indépendants . Maintenant, clairement , il s'ensuit quez x2 E(z)=μ1+Aμ2
ce qui prouve la première partie. Pour la matrice de covariance, notez que
Maintenant nous avons presque fini:
ce qui prouve la deuxième partie.
Remarque: Pour ceux qui ne connaissent pas très bien l'algèbre matricielle utilisée ici, il s'agit d'une excellente ressource .
Edit: Une propriété utilisée ici ne se trouve pas dans le livre de recettes de la matrice (bonne capture @FlyingPig) est la propriété 6 de la page wikipedia sur les matrices de covariance: qui est celle de deux vecteurs aléatoires , Pour les scalaires, bien sûr, mais pour les vecteurs, ils sont différents dans la mesure où les matrices sont disposées différemment.x,y
la source
La réponse par Macro est excellente, mais voici une méthode encore plus simple qui ne vous oblige pas à utiliser un théorème externe affirmant la distribution conditionnelle. Cela implique d'écrire la distance de Mahanalobis dans un formulaire séparant la variable argument de l'instruction de conditionnement, puis de factoriser la densité normale en conséquence.
Réécriture de la distance de Mahanalobis pour un vecteur conditionnel: cette dérivation utilise une formule d’inversion de matrice qui utilise le complément de Schur qui utilise le symbole . Nous utilisons d’abord la formule d’inversion par blocs pour écrire la matrice de variance inverse comme suit:ΣS=Σ11−Σ12Σ−122Σ21
où:
En utilisant cette formule, nous pouvons maintenant écrire la distance de Mahanalobis comme suit:
où:
Notez que ce résultat est un résultat général qui ne suppose pas la normalité des vecteurs aléatoires. Il constitue un moyen utile de recadrer la distance de Mahanalobis de sorte qu’elle soit une forme quadratique par rapport à un seul des vecteurs de la décomposition (l’autre étant absorbé dans le vecteur moyen et la matrice de variance).
Calcul de la distribution conditionnelle: Maintenant que nous avons la forme ci-dessus pour la distance de Mahanalobis, le reste est facile. On a:
Ceci établit que la distribution conditionnelle est également multivariée normale, avec le vecteur moyen conditionnel spécifié et la matrice de variance conditionnelle.
la source