Nous sommes généralement initiés à la méthode des estimateurs de moments en «assimilant les moments de la population à leur homologue de l'échantillon» jusqu'à ce que nous ayons estimé tous les paramètres de la population; de sorte que, dans le cas d'une distribution normale, nous n'aurions besoin que des premier et deuxième moments car ils décrivent pleinement cette distribution.
Et nous pourrions théoriquement calculer jusqu'à moments supplémentaires comme:
Comment puis-je construire l'intuition pour quels moments sont vraiment? Je sais qu'ils existent en tant que concept en physique et en mathématiques, mais je ne trouve ni directement applicable, surtout parce que je ne sais pas comment faire l'abstraction du concept de masse à un point de données. Le terme semble être utilisé d'une manière spécifique dans les statistiques, qui diffère de l'utilisation dans d'autres disciplines.
Quelle caractéristique de mes données détermine combien de ( ) moments il y a globalement?
Réponses:
Cela fait longtemps que je n'ai pas suivi de cours de physique, alors faites-moi savoir si tout cela est incorrect.
Description générale des moments avec des analogues physiques
Prenez une variable aléatoire, . Le n- ème moment de X autour de c est: m n ( c ) = E [ ( X - c ) n ] Cela correspond exactement au sens physique d'un moment. Imaginez X comme un ensemble de points le long de la ligne réelle avec une densité donnée par le pdf. Placez un point d'appui sous cette ligne en c et commencez à calculer les moments par rapport à ce point d'appui, et les calculs correspondront exactement aux moments statistiques.X n X c
La plupart du temps, le instant -ième de X se réfère à l'instant autour de 0 (moments où le point d' appui est placé à 0): m n = E [ X n ] Le n -ième central moment de X est: m n = m n ( m 1 ) = E [ ( X - m 1 ) n ]n X
Le -ème normalisé moment de X est: ~ m n = m nn X
Encore une fois, cela échelonne les moments par la propagation de la distribution, ce qui permet une interprétation plus facile spécifiquement de Kurtosis. Le premier moment standardisé sera toujours nul, le second sera toujours un. Cela correspond au moment du score standard (score z) d'une variable. Je n'ai pas un excellent analogue physique pour ce concept.
Moments couramment utilisés
Pour toute distribution, il existe potentiellement un nombre infini de moments. Assez d'instants caractériseront presque toujours entièrement et la distribution (dériver les conditions nécessaires pour que cela soit certain fait partie du problème du moment ). On parle couramment de quatre moments en statistiques:
Nous parlons rarement de moments au-delà de Kurtosis, précisément parce qu'il y a très peu d'intuition pour eux. Ceci est similaire aux physiciens s'arrêtant après le deuxième moment.
la source
C'est un peu un vieux fil de discussion, mais je souhaite corriger une anomalie dans le commentaire du Fg Nu qui a écrit "Les moments sont paramétrés par les nombres naturels et caractérisent complètement une distribution".
Les moments ne caractérisent PAS complètement une distribution. Plus précisément, la connaissance de tout nombre infini d'instants, même s'ils existent, ne détermine pas nécessairement de manière unique la distribution.
Selon mon livre de probabilités préféré, Feller "An Introduction to Probability Theory and Its Applications Vol II" (voir ma réponse sur Real-life examples of common distributions ), section VII.3 example on pp. 227-228, le Lognormal n'est pas déterminé par ses moments, ce qui signifie qu'il existe d'autres distributions ayant toutes un nombre infini de moments identiques aux fonctions de distribution lognormales, mais différentes. Comme on le sait, la fonction de génération de moment n'existe pas pour le Lognormal, ni pour ces autres distributions possédant les mêmes moments.
diverge. Notez que ce n'est pas un si et seulement si. Cette condition n'est pas valable pour le Lognormal, et en effet elle n'est pas déterminée par ses moments.
En revanche, les distributions (variables aléatoires) qui partagent tout un nombre infini de moments, ne peuvent différer que de beaucoup, en raison des inégalités qui peuvent être dérivées de leurs moments.
la source
Un corollaire aux remarques de Glen_b est que le premier moment, la moyenne, correspond au centre de gravité d'un objet physique, et le second moment autour de la moyenne, la variance, correspond à son moment d'inertie. Après cela, vous êtes seul.
la source
Un arbre binomial a deux branches chacune avec probablement 0,5. En fait, p = 0,5 et q = 1-0,5 = 0,5. Cela génère une distribution normale avec une masse de probabilité uniformément distribuée.
En fait, nous devons supposer que chaque niveau de l'arborescence est complet. Lorsque nous divisons les données en bacs, nous obtenons un nombre réel de la division, mais nous arrondissons. Eh bien, c'est un niveau incomplet, donc nous ne nous retrouvons pas avec un histogramme proche de la normale.
Modifiez les probabilités de branchement en p = 0,9999 et q = 0,0001 et cela nous donne une normale asymétrique. La masse de probabilité a changé. Cela explique l'asymétrie.
Le fait d'avoir des niveaux ou des bacs incomplets de moins de 2 ^ n génère des arbres binomiaux avec des zones sans masse de probabilité. Cela nous donne du kurtosis.
Réponse au commentaire:
Lorsque je parlais de déterminer le nombre de bacs, arrondissez à l'entier suivant.
Les machines Quincunx lâchent des boules qui finissent par se rapprocher de la distribution normale via le binôme. Une telle machine émet plusieurs hypothèses: 1) le nombre de casiers est fini, 2) l'arbre sous-jacent est binaire et 3) les probabilités sont fixes. La machine Quincunx du Museum of Mathematics de New York permet à l'utilisateur de modifier dynamiquement les probabilités. Les probabilités peuvent changer à tout moment, même avant la fin de la couche actuelle. D'où cette idée que les bacs ne sont pas remplis.
Contrairement à ce que j'ai dit dans ma réponse d'origine lorsque vous avez un vide dans l'arbre, la distribution montre un kurtosis.
Je regarde cela du point de vue des systèmes génératifs. J'utilise un triangle pour résumer les arbres de décision. Lorsqu'une nouvelle décision est prise, plus de bacs sont ajoutés à la base du triangle, et en termes de répartition, dans les queues. La taille des sous-arbres de l'arbre laisserait des vides dans la masse de probabilité de la distribution.
J'ai seulement répondu pour vous donner un sens intuitif. Étiquettes? J'ai utilisé Excel et joué avec les probabilités dans le binôme et généré les asymétries attendues. Je ne l'ai pas fait avec le kurtosis, cela n'aide pas que nous soyons obligés de penser que la masse de probabilité est statique tout en utilisant un langage suggérant le mouvement. Les données ou boules sous-jacentes provoquent le kurtosis. Ensuite, nous l'analysons diversement et l'attribuons à des termes descriptifs tels que centre, épaule et queue. Les seules choses avec lesquelles nous devons travailler sont les poubelles. Les bacs vivent des vies dynamiques même si les données ne le peuvent pas.
la source