Disons que nous avons un vecteur aléatoire , tiré d'une distribution avec la fonction de densité de probabilité . Si nous le transformons linéairement par une matrice n \ fois n de rang complet A pour obtenir \ vec {Y} = A \ vec {X} , alors la densité de \ vec {Y} est donnée par f _ {\ vec {Y} } (\ vec {y}) = \ frac {1} {\ left | \ det A \ right |} f _ {\ vec {X}} (A ^ {- 1} \ vec {y}).
Supposons maintenant que nous transformons place par une matrice m \ fois n B , avec m> n , donnant \ vec {Z} = B \ vec {X} . Il est clair que Z \ in \ mathbb {R} ^ m , mais il "vit" dans un sous-espace à n dimensions G \ subset \ mathbb {R} ^ m . Quelle est la densité conditionnelle de \ vec {Z} , étant donné que nous savons qu'elle se situe dans G ?
Mon premier instinct était d'utiliser la pseudo-inverse de . Si est la décomposition en valeurs singulières de , alors est la pseudo-inverse, où est formé en inversant les entrées non nulles de la matrice diagonale . J'ai deviné que cela donnerait
Ce raisonnement s'accorde avec la densité pour une normale singulière (conditionnée par la connaissance que la variable vit sur le sous-espace approprié) donnée ici et mentionnée ici et dans ce post CrossValidated .
Mais ce n'est pas bien! La constante de normalisation est désactivée. Un contre-exemple (trivial) est donné en considérant le cas suivant: Avec , laissons