La moyenne d'une variable aléatoire univariée est-elle toujours égale à l'intégrale de sa fonction quantile?

17

Je viens de remarquer que l'intégration de la fonction quantile d'une variable aléatoire univariée (cdf inverse) de p = 0 à p = 1 produit la moyenne de la variable. Je n'ai jamais entendu parler de cette relation auparavant, alors je me demande: est-ce toujours le cas? Si oui, cette relation est-elle largement connue?

Voici un exemple en python:

from math import sqrt
from scipy.integrate import quad
from scipy.special import erfinv

def normalPdf(x, mu, sigma):
    return 1.0 / sqrt(2.0 * pi * sigma**2.0) * exp(-(x - mu)**2.0 / (2.0 * sigma**2.0))

def normalQf(p, mu, sigma):
    return mu + sigma * sqrt(2.0) * erfinv(2.0 * p - 1.0)

mu = 2.5
sigma = 1.3
quantileIntegral = quad(lambda p: quantile(p,mu,sigma), 0.0, 1.0)[0]
print quantileIntegral # Prints 2.5.
Tyler Streeter
la source

Réponses:

26

Soit F le CDF de la variable aléatoire X , donc le CDF inverse peut s'écrire F1 . Dans votre intégrale, faites la substitution p=F(x) , dp=F(x)dx=f(x)dx pour obtenir

01F1(p)dp=xf(x)dx=EF[X].

Ceci est valable pour les distributions continues. Il faut faire attention aux autres distributions car un CDF inverse n'a pas de définition unique.

Éditer

Lorsque la variable n'est pas continue, elle n'a pas de distribution absolument continue par rapport à la mesure de Lebesgue, nécessitant des précautions dans la définition du CDF inverse et des précautions dans le calcul des intégrales. Prenons, par exemple, le cas d'une distribution discrète. Par définition, c'est celui dont le CDF est une fonction pas à pas avec des pas de taille Pr F ( x ) à chaque valeur possible x .FPrF(x)x

Figure 1

Cette figure montre la CDF de Bernoulli de distribution mis à l' échelle par deux . Autrement dit, la variable aléatoire a une probabilité de 1 / 3 d'égaler 0 et une probabilité de 2 / 3 d'égaler 2 . Les hauteurs des sauts à 0 et 2 donnent leurs probabilités. L'attente de cette variable est égale à l' évidence 0 × ( une / 3 ) + 2 x ( 2 / 3 ) = 4(2/3)21/302/3202 .0×(1/3)+2×(2/3)=4/3

On pourrait définir un "CDF inverse" en exigeantF1

F1(p)=x if F(x)p and F(x)<p.

Cela signifie que est également une fonction pas à pas. Pour toute valeur possible x de la variable aléatoire, F - 1 atteindra la valeur x sur un intervalle de longueurF1xF1x . Par conséquent, son intégrale est obtenue en additionnant les valeurs x Pr F ( x ) , qui est juste l'espérance.PrF(x)xPrF(x)

Figure 2

Il s'agit du graphe du CDF inverse de l'exemple précédent. Les sauts de et 2 / 3 dans le CDF deviennent des lignes horizontales de ces longueurs à des hauteurs égales à 0 et 2 , les valeurs de probabilités dont ils correspondent. (Le CDF inverse n'est pas défini au-delà de l'intervalle [ 0 , 1 ] .) Son intégrale est la somme de deux rectangles, l'un de hauteur 0 et de base 11/32/302[0,1]0 , l'autre de hauteur 2 etbase 2 / 3 , totalisant 4 / 31/322/34/3, comme avant.

En général, pour un mélange d'une distribution continue et d'une distribution discrète, nous devons définir l'inverse CDF pour mettre en parallèle cette construction: à chaque saut discret de hauteur nous devons former une ligne horizontale de longueur ppp comme donnée par la formule précédente.

whuber
la source
vous avez fait une erreur dans le changement de variable. d'où vient le x?
Mascarpone
3
@Mascarpone Veuillez lire le texte précédant l'équation. Je ne pense pas qu'il y ait une erreur dans le changement de variable :-), mais si vous pensez que cela clarifierait l'exposition, je serais heureux de souligner que lorsque , alors x = F - 1 ( p ) . Je ne pensais tout simplement pas que c'était nécessaire. p=F(x)x=F1(p)
whuber
maintenant je l'ai;),
Mascarpone
+1 Whuber: Merci! Pourriez-vous élaborer afin d'utiliser la formule que vous avez donnée, comment prendre soin d'autres distributions dont le CDF inverse n'a pas de définition unique?
StackExchange pour tous
1
Pour contourner ces considérations gênantes sur les inverses, les pseudo-inverses et similaires, et simultanément pour une généralisation à chaque instant, voir ici .
A fait
9

Un résultat équivalent est bien connu en analyse de survie : la durée de vie attendue est où la fonction de survie est S ( t ) = Pr ( T > t ) mesurée depuis la naissance à t

t=0S(t)dt
S(t)=Pr(T>t) . (Il peut facilement être étendu pour couvrir les valeurs négatives de tt=0t .)

enter image description here

Nous pouvons donc réécrire ceci comme mais c'est1 q = 0 F - 1

t=0(1F(t))dt
comme le montrent divers reflets de la zone en question
q=01F1(q)dq

enter image description here

Henri
la source
1
J'aime les images et je sens instinctivement qu'il y a une excellente idée qui se cache ici - j'adore l'idée -, mais je ne comprends pas celles-ci en particulier. Des explications seraient utiles. Une chose qui m'arrête dans mes traces est la pensée d'essayer d'étendre l'intégrale de à - : elle doit diverger. (1F(t))dt
whuber
@whuber: Si vous voulez étendre à négatif , vous obtenez t = 0 ( 1 - F ( t ) )t . Notez que si cela converge pour une distribution symétrique autour de 0 , c'est-à-dire F ( t ) = 1 - F ( - t ) alors il est facile de voir que l'espérance est nulle. En prenant une somme plutôt qu'une différencet = 0 ( 1 - Ft=0(1F(t))dtt=0F(t)dt0F(t)=1F(t)t=0(1F(t))dt+t=0F(t)dt0
Si vous aimez les diagrammes, vous pourriez être intéressé par cet article de 1988 de Lee: The Mathematics of Excess of Loss Coverages and Retrospective Rating-A Graphical Approach .
Avraham
4

We are evaluating:

enter image description here

Essayons avec un simple changement de variable:

enter image description here

Et nous constatons que, par définition de PDF et CDF:

enter image description here

presque partout. On a donc, par définition de la valeur attendue:

enter image description here

Mascarpone
la source
In the final line I explain more clearly the definition of expected value. The almost everywhere refers to the equation above the last one. en.wikipedia.org/wiki/Almost_everywhere
Mascarpone
1
edited, thanx :)
Mascarpone
3

For any real-valued random variable X with cdf F it is well-known that F1(U) has the same law than X when U is uniform on (0,1). Therefore the expectation of X, whenever it exists, is the same as the expectation of F1(U):

E(X)=E(F1(U))=01F1(u)du.
The representation XF1(U) holds for a general cdf F, taking F1 to be the left-continuous inverse of F in the case when F it is not invertible.
Stéphane Laurent
la source
1

Note that F(x) is defined as P(Xx) and is a right-continuous function. F1 is defined as

F1(p)=min(x|F(x)p).
The min makes sense because of the right continuity. Let U be a uniform distribution on [0,1]. You can easily verify that F1(U) has the same CDF as X, which is F. This doesn't require X to be continuous. Hence, E(X)=E(F1(U))=01F1(p)dp. The integral is the Riemann–Stieltjes integral. The only assumption we need is the mean of X exists (E|X|<).
WWang
la source
That's the same answer as mine.
Stéphane Laurent