Quels sont exactement les moments? Comment sont-ils dérivés?

19

Nous sommes généralement initiés à la méthode des estimateurs de moments en «assimilant les moments de la population à leur homologue de l'échantillon» jusqu'à ce que nous ayons estimé tous les paramètres de la population; de sorte que, dans le cas d'une distribution normale, nous n'aurions besoin que des premier et deuxième moments car ils décrivent pleinement cette distribution.

E(X)=μi=1nXi/n=X¯

E(X2)=μ2+σ2i=1nXi2/n

Et nous pourrions théoriquement calculer jusqu'à moments supplémentaires comme:n

E(Xr)i=1nXir/n

Comment puis-je construire l'intuition pour quels moments sont vraiment? Je sais qu'ils existent en tant que concept en physique et en mathématiques, mais je ne trouve ni directement applicable, surtout parce que je ne sais pas comment faire l'abstraction du concept de masse à un point de données. Le terme semble être utilisé d'une manière spécifique dans les statistiques, qui diffère de l'utilisation dans d'autres disciplines.

Quelle caractéristique de mes données détermine combien de ( ) moments il y a globalement?r

Constantin
la source
7
Le terme signifie la même chose qu'il fait en physique, lorsqu'il est appliqué à la distribution de probabilité. Voir ici , qui a l'équation , " est la distribution de la densité de charge, de la masse ou de la quantité considérée ". Lorsque la «chose considérée» est la densité de probabilité, vous avez le moment de probabilité correspondant. Ce sont des moments bruts (moments sur l'origine). Par comparaison ... (ctd)ρμn=rnρ(r)drρ
Glen_b -Reinstate Monica
2
Les moments sont des caractéristiques paramétrées de la distribution de variables aléatoires, comme les quantiles. Les moments sont paramétrés par les nombres naturels, et caractérisent complètement une distribution (voir fonction de génération de moment ). Cela n'exclut pas que pour certaines distributions, il puisse y avoir une parfaite dépendance fonctionnelle entre les moments, donc tous les moments ne sont pas toujours requis pour caractériser la distribution. (1/2)
tchakravarty
Les moments dépendent fonctionnellement des deux premiers pour la distribution normale, donc les deux premiers suffisent pour caractériser la distribution, y compris la moyenne et la variance. (2/2)3
tchakravarty
5
(ctd) ... les moments en mathématiques sont les mêmes ( ), sauf à propos de c plutôt que de 0 (c'est-à-dire juste une forme généralisée de la physique - mais comme ils sont les mêmes avec un simple changement d'origine, un physicien dirait à juste titre "en quoi est-ce différent?"). Ce sont lesmêmesqu'en probabilité, lorsque f est une densité. Pour moi, tous les trois parlent de la même chose quand ils disent des «moments», pas des choses différentes. μn=(xc)nf(x)dxcf
Glen_b -Reinstate Monica
3
Je suis sûr que vous pouvez trouver des réponses dans les nombreux fils qui ont été publiés sur les moments et l'intuition . La statistique utilise les moments exactement de la même manière qu'ils sont utilisés en physique et en mathématiques - c'est le même concept avec la même définition dans les trois domaines.
whuber

Réponses:

17

Cela fait longtemps que je n'ai pas suivi de cours de physique, alors faites-moi savoir si tout cela est incorrect.

Description générale des moments avec des analogues physiques

Prenez une variable aléatoire, . Le n- ème moment de X autour de c est: m n ( c ) = E [ ( X - c ) n ] Cela correspond exactement au sens physique d'un moment. Imaginez X comme un ensemble de points le long de la ligne réelle avec une densité donnée par le pdf. Placez un point d'appui sous cette ligne en c et commencez à calculer les moments par rapport à ce point d'appui, et les calculs correspondront exactement aux moments statistiques.XnXc

mn(c)=E[(Xc)n]
Xc

La plupart du temps, le instant -ième de X se réfère à l'instant autour de 0 (moments où le point d' appui est placé à 0): m n = E [ X n ] Le n -ième central moment de X est: m n = m n ( m 1 ) = E [ ( X - m 1 ) n ]nX

mn=E[Xn]
nX
m^n=mn(m1)=E[(Xm1)n]
Cela correspond aux moments où le point d'appui est placé au centre de la masse, de sorte que la distribution est équilibrée. Cela permet d'interpréter plus facilement les moments, comme nous le verrons ci-dessous. Le premier moment central sera toujours nul, car la distribution est équilibrée.

Le -ème normalisé moment de X est: ~ m n = m nnX Encore une fois, cela échelonne les moments par la propagation de la distribution, ce qui permet une interprétation plus facile spécifiquement de Kurtosis. Le premier moment standardisé sera toujours nul, le second sera toujours un. Cela correspond au moment du score standard (score z) d'une variable. Je n'ai pas un excellent analogue physique pour ce concept.

m~n=m^n(m^2)n=E[(Xm1)n](E[(Xm1)2])n

Moments couramment utilisés

Pour toute distribution, il existe potentiellement un nombre infini de moments. Assez d'instants caractériseront presque toujours entièrement et la distribution (dériver les conditions nécessaires pour que cela soit certain fait partie du problème du moment ). On parle couramment de quatre moments en statistiques:

  1. Moyenne - le 1er moment (centré autour de zéro). C'est le centre de masse de la distribution, ou bien il est proportionnel au moment de couple de la distribution par rapport à un point d'appui à 0.
  2. X
  3. Asymétrie - le 3ème moment central (parfois standardisé). Une mesure de l'inclinaison d'une distribution dans une direction ou une autre. Par rapport à une distribution normale (qui n'a pas de biais), la distribution asymétrique positive a une faible probabilité de résultats extrêmement élevés, les distributions biaisées négativement ont une faible probabilité de résultats extrêmement faibles. Les analogues physiques sont difficiles, mais lâchement, ils mesurent l'asymétrie d'une distribution. À titre d'exemple, la figure ci-dessous est tirée de Wikipedia . Asymétrie, tirée de Wikipedia
  4. XKurtosis, également de WIkipedia

Nous parlons rarement de moments au-delà de Kurtosis, précisément parce qu'il y a très peu d'intuition pour eux. Ceci est similaire aux physiciens s'arrêtant après le deuxième moment.

jayk
la source
6

C'est un peu un vieux fil de discussion, mais je souhaite corriger une anomalie dans le commentaire du Fg Nu qui a écrit "Les moments sont paramétrés par les nombres naturels et caractérisent complètement une distribution".

Les moments ne caractérisent PAS complètement une distribution. Plus précisément, la connaissance de tout nombre infini d'instants, même s'ils existent, ne détermine pas nécessairement de manière unique la distribution.

Selon mon livre de probabilités préféré, Feller "An Introduction to Probability Theory and Its Applications Vol II" (voir ma réponse sur Real-life examples of common distributions ), section VII.3 example on pp. 227-228, le Lognormal n'est pas déterminé par ses moments, ce qui signifie qu'il existe d'autres distributions ayant toutes un nombre infini de moments identiques aux fonctions de distribution lognormales, mais différentes. Comme on le sait, la fonction de génération de moment n'existe pas pour le Lognormal, ni pour ces autres distributions possédant les mêmes moments.

X

n=1(E[X2n])1/(2n)

diverge. Notez que ce n'est pas un si et seulement si. Cette condition n'est pas valable pour le Lognormal, et en effet elle n'est pas déterminée par ses moments.

En revanche, les distributions (variables aléatoires) qui partagent tout un nombre infini de moments, ne peuvent différer que de beaucoup, en raison des inégalités qui peuvent être dérivées de leurs moments.

Mark L. Stone
la source
Ceci est considérablement simplifié lorsque la distribution est limitée, auquel cas les moments déterminent toujours la distribution complètement (uniquement).
Alex R.
@Alex C'est une conséquence immédiate du résultat cité dans Feller.
whuber
Il n'est pas tout à fait correct de dire que la fonction de génération de moment n'existe pas pour le lognormal. Les théorèmes les plus utiles sur les mgf supposent qu'il existe dans un intervalle ouvert contenant zéro, et au sens strict, il n'existe pas. Mais il existe dans un rayon émanant de zéro !, et cela donne également des informations utiles.
kjetil b halvorsen
@ kjetil b halvorsen, pouvez-vous décrire (certaines) les informations utiles que vous obtiendriez de l'existence du MGF d'un lognormal sur un rayon émanant de zéro? Quel rayon serait-ce?
Mark L. Stone
Bosse du commentaire ci-dessus en tant que question à @kjetil b halvorsen ..
Mark L. Stone
2

Un corollaire aux remarques de Glen_b est que le premier moment, la moyenne, correspond au centre de gravité d'un objet physique, et le second moment autour de la moyenne, la variance, correspond à son moment d'inertie. Après cela, vous êtes seul.

Mike Anderson
la source
3
E[x2]=x2f(x)dx var[x]=E[(xE[x])2]=(xE[x])2f(x)dx
0

Un arbre binomial a deux branches chacune avec probablement 0,5. En fait, p = 0,5 et q = 1-0,5 = 0,5. Cela génère une distribution normale avec une masse de probabilité uniformément distribuée.

En fait, nous devons supposer que chaque niveau de l'arborescence est complet. Lorsque nous divisons les données en bacs, nous obtenons un nombre réel de la division, mais nous arrondissons. Eh bien, c'est un niveau incomplet, donc nous ne nous retrouvons pas avec un histogramme proche de la normale.

Modifiez les probabilités de branchement en p = 0,9999 et q = 0,0001 et cela nous donne une normale asymétrique. La masse de probabilité a changé. Cela explique l'asymétrie.

Le fait d'avoir des niveaux ou des bacs incomplets de moins de 2 ^ n génère des arbres binomiaux avec des zones sans masse de probabilité. Cela nous donne du kurtosis.


Réponse au commentaire:

Lorsque je parlais de déterminer le nombre de bacs, arrondissez à l'entier suivant.

Les machines Quincunx lâchent des boules qui finissent par se rapprocher de la distribution normale via le binôme. Une telle machine émet plusieurs hypothèses: 1) le nombre de casiers est fini, 2) l'arbre sous-jacent est binaire et 3) les probabilités sont fixes. La machine Quincunx du Museum of Mathematics de New York permet à l'utilisateur de modifier dynamiquement les probabilités. Les probabilités peuvent changer à tout moment, même avant la fin de la couche actuelle. D'où cette idée que les bacs ne sont pas remplis.

Contrairement à ce que j'ai dit dans ma réponse d'origine lorsque vous avez un vide dans l'arbre, la distribution montre un kurtosis.

Je regarde cela du point de vue des systèmes génératifs. J'utilise un triangle pour résumer les arbres de décision. Lorsqu'une nouvelle décision est prise, plus de bacs sont ajoutés à la base du triangle, et en termes de répartition, dans les queues. La taille des sous-arbres de l'arbre laisserait des vides dans la masse de probabilité de la distribution.

J'ai seulement répondu pour vous donner un sens intuitif. Étiquettes? J'ai utilisé Excel et joué avec les probabilités dans le binôme et généré les asymétries attendues. Je ne l'ai pas fait avec le kurtosis, cela n'aide pas que nous soyons obligés de penser que la masse de probabilité est statique tout en utilisant un langage suggérant le mouvement. Les données ou boules sous-jacentes provoquent le kurtosis. Ensuite, nous l'analysons diversement et l'attribuons à des termes descriptifs tels que centre, épaule et queue. Les seules choses avec lesquelles nous devons travailler sont les poubelles. Les bacs vivent des vies dynamiques même si les données ne le peuvent pas.

David Locke
la source
2
C'est intrigant, mais terriblement sommaire. Quelles sont les étiquettes sur votre arbre binomial, par exemple? Il vaut mieux que ce soit un arbre infini si vous voulez obtenir une distribution normale - mais alors les étiquettes évidentes (en utilisant une marche aléatoire ou en utilisant des représentations binaires de nombres réels) ne conduisent pas du tout à des distributions normales. Sans ces détails, trop est laissé à l'imagination des lecteurs. Pourriez-vous nous en dire plus?
whuber