Je recherche la distribution limite de la distribution multinomiale sur les résultats d. IE, la distribution des éléments suivants
Où est une variable aléatoire de valeur vectorielle de densité pour telle que , et 0 pour tous les autres , où
J'ai trouvé une forme de Larry « Toutes les statistiques » de Wasserman théorème 14.6, la page 237 , mais pour limiter la distribution normale avec elle donne une matrice de covariance singulière, donc je ne suis pas sûr de savoir comment normaliser cela. Vous pouvez projeter le vecteur aléatoire dans un espace (d-1) dimensionnel pour créer une matrice de covariance à part entière, mais quelle projection utiliser?
Mise à jour 11/5
Ray Koopman a un joli résumé du problème du gaussien singulier. Fondamentalement, la matrice de covariance singulière représente une corrélation parfaite entre les variables, ce qui n'est pas possible de représenter avec une gaussienne. Cependant, on pourrait obtenir une distribution gaussienne pour la densité conditionnelle, conditionnée par le fait que la valeur du vecteur aléatoire est valide (les composantes s'additionnent à dans le cas ci-dessus).
La différence pour la gaussienne conditionnelle, c'est que l'inverse est remplacé par un pseudo-inverse, et le facteur de normalisation utilise "produit de valeurs propres non nulles" au lieu de "produit de toutes les valeurs propres". Ian Frisce donne un lien avec quelques détails.
Il y a aussi un moyen d'exprimer le facteur de normalisation de la gaussienne conditionnelle sans se référer aux valeurs propres, voici une dérivation
la source
Réponses:
La covariance est toujours définie non négative (tout comme une distribution normale multivariée valide ), mais pas définie positive: ce que cela signifie, c'est que (au moins) un élément du vecteur aléatoire est une combinaison linéaire des autres.
Par conséquent, tout tirage de cette distribution reposera toujours sur un sous-espace de . En conséquence, cela signifie qu'il n'est pas possible de définir une fonction de densité (car la distribution est concentrée sur le sous-espace: pensez à la façon dont une normale univariée se concentrera à la moyenne si la variance est nulle).Rré
Cependant, comme suggéré par Robby McKilliam, dans ce cas, vous pouvez supprimer le dernier élément du vecteur aléatoire. La matrice de covariance de ce vecteur réduit sera la matrice d'origine, avec la dernière colonne et la dernière ligne supprimée, qui sera désormais définie positive et aura une densité (cette astuce fonctionnera dans d'autres cas, mais vous devez faire attention à quel élément vous laissez tomber, et vous devrez peut-être en laisser tomber plusieurs).
la source
Il n'y a pas de problème inhérent à la covariance singulière ici. Votre distribution asymptotique est la normale singulière. Voir http://fedc.wiwi.hu-berlin.de/xplore/tutorials/mvahtmlnode34.html qui donne la densité de la normale singulière.
la source
Il me semble que la matrice de covariance de Wasserman est singulière, pour la voir, multipliez-la par un vecteur de , c'est-à-dire [ 1 , 1 , 1 , … , 1 ] ' de longueur d .d [1,1,1,…,1]′ d
Wikipédia donne de toute façon la même matrice de covariance. Si nous nous limitons à une distribution binomiale, le théorème de la limite centrale standard nous dit que la distribution binomiale (après une mise à l'échelle appropriée) converge vers la normale lorsque devient grand (voir à nouveau wikipedia ). En appliquant des idées similaires, vous devriez être en mesure de montrer qu'un mulinomial à l'échelle appropriée va converger en distribution vers la normale multivariée, c'est-à-dire que chaque distribution marginale est juste un binôme et converge vers la distribution normale, et la variance entre eux est connue.n
Donc, je suis très confiant que vous constaterez que la distribution de converge vers la normale multivariée avec une moyenne nulle et une covariance C
la source
la source