Quelle est la différence entre variance finie et infinie? Mes statistiques sont plutôt basiques. Wikipedia / Google n'était pas d'une grande aide ici.
variance
intuition
partial-moments
AfterWorkGuinness
la source
la source
Réponses:
Soit une variable aléatoire continue (RV) (nos conclusions seront valables plus généralement, pour le cas discret, remplacez intégrale par somme). Pour simplifier l'exposition, supposons que X ≥ 0 .X X≥0
Son attente est définie par l'intégrale quand cette intégrale existe, c'est-à-dire est finie. Sinon, nous disons que l'attente n'existe pas. C'est une intégrale non conforme, et par définition est ∫ ∞ 0 x f ( x )
Dans de nombreuses situations, cela semble irréaliste. Disons un modèle d'assurance (vie), donc modélise une partie de la vie (humaine). Nous savons que, par exemple, X > 1000 ne se produit pas, mais dans la pratique, nous utilisons des modèles sans limite supérieure. La raison est claire: Pas dur limite supérieure est connue, si une personne est (disons) 110 ans, il n'y a aucune raison qu'il ne peut pas vivre un an! Ainsi, un modèle avec une limite supérieure stricte semble artificiel. Néanmoins, nous ne voulons pas que l'extrême extrême supérieure ait beaucoup d'influence.X X>1000
Si a une espérance finie, nous pouvons modifier le modèle afin d’avoir une limite supérieure stricte sans influence excessive sur le modèle. Dans les situations avec une limite supérieure floue, cela semble bon. Si le modèle a des attentes infinies, toute limite supérieure stricte que nous introduirons dans le modèle aura des conséquences dramatiques! Telle est la véritable importance d'une attente infinie.X
Avec des attentes finies, nous pouvons être flous sur les limites supérieures. Avec une attente infinie, nous ne pouvons pas .
On peut dire à peu près la même chose de la variance infinie, mutatis mutandi.
Pour clarifier, voyons un exemple. Pour l'exemple, nous utilisons la distribution Pareto, implémentée dans le package R (sur CRAN), en tant que pareto1 - distribution Pareto à paramètre unique également connue sous le nom de distribution Pareto de type 1. Il a une fonction de densité de probabilité donnée par pour certains paramètresm>0,α>0. Lorsqueα>1l'attente existe et est donnée parα
Lorsque l'attente existe ( ) nous pouvons diviser par pour obtenir la première distribution moment relatif, donné par E r ( M ) = E ( m ) / E ( ∞ ) = 1 - ( mα>1
Lorsqueαest juste un peu plus grand que 1, alors l’attente "existe à peine", l’intégrale définissant l’espérance converge lentement. Regardons l'exemple avecm=1,α=1.2. Soit ensuite tracerEr(M)avec l'aide de R:
qui produit cette parcelle:
La fonction Er_inv définie ci-dessus est la distribution inverse relative du premier moment, analogue à la fonction quantile. On a:
Cela montre que 50% des contributions aux attentes proviennent de la limite supérieure de 1,5% de la distribution! Ainsi, en particulier dans les petits échantillons où il existe une forte probabilité que la queue extrême ne soit pas représentée, la moyenne arithmétique, tout en restant un estimateur non biaisé de l'espérance.μ , doit avoir une distribution très asymétrique. Nous allons étudier cela par simulation: d'abord, nous utilisons une taille d'échantillonn = 5 .
Pour obtenir un graphique lisible, nous affichons uniquement l'histogramme de la partie de l'échantillon dont les valeurs sont inférieures à 100, ce qui représente une très grande partie de l'échantillon.
La distribution des moyens arithmétiques est très asymétrique,
près de 86% des moyennes empiriques sont inférieures ou égales à la moyenne théorique, l’attente. C’est ce à quoi nous devrions nous attendre, étant donné que la majeure partie de la contribution à la moyenne provient de la partie supérieure extrême, qui n’est pas représentée dans la plupart des échantillons .
Nous devons revenir en arrière pour réévaluer notre conclusion précédente. Alors que l’existence de la moyenne permet d’être floue sur les limites supérieures, nous voyons que lorsque "la moyenne existe à peine", ce qui signifie que l’intégrale converge lentement, nous ne pouvons pas vraiment être aussi flous sur les limites supérieures . Des intégrales lentement convergentes ont pour conséquence qu'il pourrait être préférable d'utiliser des méthodes qui ne supposent pas que l'attente existe . Lorsque l’intégrale converge très lentement, c’est comme si elle ne convergeait pas du tout. Les avantages pratiques d'une intégrale convergente sont une chimère dans le cas de la convergence lente! C’est une manière de comprendre la conclusion de NN Taleb dans http://fooledbyrandomness.com/complexityAugust-06.pdf
la source
La variance est la mesure de la dispersion de la distribution des valeurs d'une variable aléatoire. Ce n'est pas la seule mesure de ce type, par exemple, la déviation absolue moyenne en est une alternative.
La variance infinie signifie que les valeurs aléatoires ne tendent pas à se concentrer trop étroitement autour de la moyenne . Cela pourrait signifier qu'il existe une probabilité suffisamment grande que le prochain nombre aléatoire soit très éloigné de la moyenne.
Les distributions telles que Normal (gaussienne) peuvent produire des nombres aléatoires très éloignés de la moyenne, mais la probabilité de tels événements décroît très rapidement avec l'ampleur de l'écart.
À cet égard, lorsque vous examinez l’intrigue de la distribution de Cauchy ou d’une distribution gaussienne (normale), leur apparence n’est pas très différente. Cependant, si vous essayez de calculer la variance de la distribution de Cauchy, elle sera infinie, alors que celle de Gaussian sera finie. Ainsi, la distribution normale est plus étroite autour de sa moyenne par rapport à celle de Cauchy.
Au fait, si vous parlez à des mathématiciens, ils insisteront sur le fait que la distribution de Cauchy n'a pas de signification bien définie, qu'elle est infinie. Cela semble ridicule aux physiciens qui insistent sur le fait que Cauchy est symétrique et qu’elle doit donc avoir une moyenne. Dans ce cas, ils diraient que le problème vient de votre définition de la moyenne et non de la distribution de Cauchy.
la source
Une autre façon de regarder est par la fonction quantile.
Ensuite, nous pouvons calculer un moment ou une attente
alternatively as (replacingf(x)dx=dF ):
Say we wish to compute the first moment thenT(x)=x . In the image below this corresponds to the area between F and the vertical line at x=0 (where the area on the left side may count as negative when T(x)<0 ). The second moment would correspond to the volume that the same area sweeps when it is rotated along the line at x=0 (with a factor π difference).
The curves in the image show how much each quantile contributes in the computation.
For the normal curve there are only very few quantiles with a large contribution. But for the Cauchy curve there are many more quantiles with a large contribution. If the curveT(Q(F)) goes sufficiently fast enough to infinity when F approaches zero or one, then the area can be infinite.
This infinity may not be so strange since the integrand itself distance (mean) or squared distance (variance) can become infinite. It is only a question how much weight, how much percent of F, those infinite tails have.
In the summation/integration of distance from zero (mean) or squared distance from the mean (variance) a single point that is very far away will have more influence on the average distance (or squared distance) than a lot of points nearby.
Thus when we move towards infinity the density may decrease, but the influence on the sum of some (increasing) quantity, e.g. distance or squared distance does not necessarily change.
If for each amount of mass at some distancex there is half or more mass at a distance 2–√x then you will get that the sum of total mass ∑12n will converge because the contribution of mass decreases, but the variance becomes infinite since that contribution does not decrease ∑((2–√x)n)212n→∞
la source
Most distributions you encounter probably have finite variance. Here is a discrete exampleX that has infinite variance but finite mean:
Let its probability mass function bep(k)=c/|k|3 , for k∈Z∖{0} , p(0)=0 , where c=(2ζ(3))−1:=(2∑∞k=11/k3)−1<∞ . First of all because E∣X∣<∞ it has finite mean. Also it has infinite variance because 2∑∞k=1k2/|k|3=2∑∞k=1k−1=∞ .
Note:ζ(x):=∑∞k=1k−x is the Riemann zeta function. There are many other examples, just not so pleasant to write down.
la source