La somme de deux variables aléatoires gamma indépendantes

13

Selon l'article de Wikipedia sur la distribution Gamma :

Si et Y G a m m a ( b , θ ) , où X et Y sont des variables aléatoires indépendantes, alors X + Y G a m m a ( a + b , θ ) .XGamma(a,θ)YGamma(b,θ)XYX+YGamma(a+b,θ)

Mais je ne vois aucune preuve. Quelqu'un peut-il me montrer sa preuve s'il vous plaît?

Edit: Merci beaucoup au Zen, et j'ai aussi trouvé la réponse comme exemple sur la page Wikipedia sur les fonctions caractéristiques .

Dexter12
la source
3
Intuition: les distributions gamma présentent comme la somme de n distributions exponentielles indépendantes, d'où il est immédiat dans ce contexte que X + Y aura une distribution gamma ( a + b , θ ) à condition que a et b soient tous deux des entiers positifs. (n)nX+Y(a+b,θ)ab
whuber

Réponses:

15

La preuve est la suivante: (1) Rappelez-vous que la fonction caractéristique de la somme des variables aléatoires indépendantes est le produit de leurs fonctions caractéristiques individuelles; (2) Obtenez la fonction caractéristique d'une variable aléatoire gamma ici ; (3) Faites l'algèbre simple.

Pour obtenir une intuition au-delà de cet argument algébrique, consultez le commentaire de whuber.

Remarque: Le PO a demandé comment calculer la fonction caractéristique d'une variable aléatoire gamma. Si , alors (vous pouvez traiter i comme une constante ordinaire, dans ce cas)XExp(λ)i

ψX(t)=E[eitX]=0eitxλeλxdx=11it/λ.

Maintenant, utilisez le conseil de Huber: Si , alors Y = X 1 + + X k , où les X i sont indépendants E x p ( λ = 1 / θ ) . Par conséquent, en utilisant la propriété (1), nous avons ψ Y ( t ) = ( 1YGamma(k,θ)Y=X1++XkXiExp(λ=1/θ)

ψY(t)=(11itθ)k.

Astuce: vous n'apprendrez pas ces choses en regardant les résultats et les preuves: restez affamé, tout calculer, essayez de trouver vos propres preuves. Même si vous échouez, votre appréciation de la réponse de quelqu'un d'autre sera à un niveau beaucoup plus élevé. Et, oui, l'échec est OK: personne ne regarde! La seule façon d'apprendre les mathématiques est de se battre pour chaque concept et résultat.

Zen
la source
La déclaration mentionnée indique explicitement "à condition que tous les Xi soient indépendants".
whuber
One thing I don't get though, is how did we arrive at the characteristic functions?
Dexter12
I'll add it to the answer. Take a look.
Zen
Perhaps you can include a reference for the characteristic function of a Γ(a,θ) for non-integer values of a?
Dilip Sarwate
14

Here is an answer that does not need to use characteristic functions, but instead reinforces some ideas that have other uses in statistics. The density of the sum of independent random variables is the convolutions of the densities. So, taking θ=1 for ease of exposition, we have for z>0,

fX+Y(z)=0zfX(x)fY(zx)dx=0zxa1exΓ(a)(zx)b1e(zx)Γ(b)dx=ez0zxa1(zx)b1Γ(a)Γ(b)dxnow substitute x=zt and think=ezza+b101ta1(1t)b1Γ(a)Γ(b)dtof Beta(a,b) random variables=ezza+b1Γ(a+b)
Dilip Sarwate
la source
3
(+1) It is ideal to have more than one way to prove everything. Maybe someone will post an answer considering the transformation (X,Y)(U,V)=(X+Y,X).
Zen
Can we similarly find the density of XY in a closed form expression? I'm unable to simplify the integrals in that case.
pikachuchameleon
@pikachuchameleon See this answer of mine.
Dilip Sarwate
3

On a more heuristic level: If a and b are integers, the Gamma distribution is an Erlang distribution, and so X and Y describe the waiting times for respectively a and b occurrences in a Poisson process with rate θ. The two waiting times X and Y are

  1. independent
  2. sum up to a waiting time for a+b occurrences

and the waiting time for a+b occurrences is distributed Gamma(a+b,θ).

None of this is a mathematical proof, but it puts some flesh on the bones of the connection, and can be used if you want to flesh it out in a mathematical proof.

Svein Olav Nyberg
la source