Selon l'article de Wikipedia sur la distribution Gamma :
Si et Y ∼ G a m m a ( b , θ ) , où X et Y sont des variables aléatoires indépendantes, alors X + Y ∼ G a m m a ( a + b , θ ) .
Mais je ne vois aucune preuve. Quelqu'un peut-il me montrer sa preuve s'il vous plaît?
Edit: Merci beaucoup au Zen, et j'ai aussi trouvé la réponse comme exemple sur la page Wikipedia sur les fonctions caractéristiques .
probability
pdf
gamma-distribution
Dexter12
la source
la source
Réponses:
La preuve est la suivante: (1) Rappelez-vous que la fonction caractéristique de la somme des variables aléatoires indépendantes est le produit de leurs fonctions caractéristiques individuelles; (2) Obtenez la fonction caractéristique d'une variable aléatoire gamma ici ; (3) Faites l'algèbre simple.
Pour obtenir une intuition au-delà de cet argument algébrique, consultez le commentaire de whuber.
Remarque: Le PO a demandé comment calculer la fonction caractéristique d'une variable aléatoire gamma. Si , alors (vous pouvez traiter i comme une constante ordinaire, dans ce cas)X∼Exp(λ) i
Maintenant, utilisez le conseil de Huber: Si , alors Y = X 1 + ⋯ + X k , où les X i sont indépendants E x p ( λ = 1 / θ ) . Par conséquent, en utilisant la propriété (1), nous avons ψ Y ( t ) = ( 1Y∼Gamma(k,θ) Y=X1+⋯+Xk Xi Exp(λ=1/θ)
Astuce: vous n'apprendrez pas ces choses en regardant les résultats et les preuves: restez affamé, tout calculer, essayez de trouver vos propres preuves. Même si vous échouez, votre appréciation de la réponse de quelqu'un d'autre sera à un niveau beaucoup plus élevé. Et, oui, l'échec est OK: personne ne regarde! La seule façon d'apprendre les mathématiques est de se battre pour chaque concept et résultat.
la source
Here is an answer that does not need to use characteristic functions, but instead reinforces some ideas that have other uses in statistics. The density of the sum of independent random variables is the convolutions of the densities. So, takingθ=1 for ease of exposition, we have for z>0 ,
la source
On a more heuristic level: Ifa and b are integers, the Gamma distribution is an Erlang distribution, and so X and Y describe the waiting times for respectively a and b occurrences in a Poisson process with rate θ . The two waiting times X and Y are
and the waiting time fora+b occurrences is distributed Gamma(a+b,θ ).
None of this is a mathematical proof, but it puts some flesh on the bones of the connection, and can be used if you want to flesh it out in a mathematical proof.
la source