Le texte de Wackerly et al énonce ce théorème "Soit et les fonctions génératrices de moments des variables aléatoires X et Y, respectivement. Si les deux fonctions génératrices de moments existent et pour toutes les valeurs de t, alors X et Y ont la même distribution de probabilité. " sans preuve disant que cela dépasse la portée du texte. Scheaffer Young a également le même théorème sans preuve. Je n'ai pas de copie de Casella, mais la recherche de livres Google n'a pas semblé y trouver le théorème.
Le texte de Gut semble avoir un aperçu d'une preuve , mais ne fait pas référence aux "résultats bien connus" et nécessite également de connaître un autre résultat dont la preuve n'est pas non plus fournie.
Est-ce que quelqu'un sait qui a initialement prouvé cela et si la preuve est disponible en ligne n'importe où? Sinon, comment remplir les détails de cette preuve?
Au cas où on me demanderait non, ce n'est pas une question de devoirs, mais je pourrais imaginer que cela pourrait être les devoirs de quelqu'un. J'ai suivi une séquence de cours basée sur le texte de Wackerly et je m'interroge sur cette preuve depuis un certain temps. J'ai donc pensé qu'il était juste temps de demander.
la source
Réponses:
La preuve générale de cela se trouve dans Feller (An Introduction to Probability Theory and Its Applications, Vol. 2) . Il s'agit d'un problème d'inversion impliquant la théorie de la transformée de Laplace. Avez-vous remarqué que le mgf a une ressemblance frappante avec la transformation de Laplace?. Pour l'utilisation de Laplace Transformation, vous pouvez voir Widder (Calcus Vol I) .
Preuve d'un cas particulier:
Supposons que X et Y sont des variables aléatoires qui ne prennent toutes deux que des valeurs possibles dans { }. Supposons en outre que X et Y aient le même mgf pour tout t: Pour simplifier, nous laisserons et nous pour .n ∑ x = 0 e t0,1,2,…,n s= e t c i = f X (i)- f Y (i)i=0,1,…
Maintenant Ce qui précède est simplement un polynôme en s avec des coe ffi . La seule façon dont il peut être nul pour toutes les valeurs de s est si Donc, nous avons que pour .⇒ n ∑ x = 0 s x f X ( x ) - n ∑ y = 0 s y f Y ( y ) = 0 ⇒ n ∑ x = 0 sxfX(x)- n ∑ x = 0 sxfY(x>0c0,
Par conséquent, pour .FX( i ) = fOui( i ) i = 0 , 1 , … , n
En d'autres termes, les fonctions de densité pour et sont exactement les mêmes. En d'autres termes, et ont les mêmes distributions.Y X YX Oui X Oui
la source
Le théorème dont vous discutez est un résultat de base de la théorie des probabilités / mesures. Les preuves se trouveraient plus probablement dans des livres sur la probabilité ou la théorie statistique. J'ai trouvé le résultat analogue pour les fonctions caractéristiques donné dans Hoel Port and Stone pp 205-208
Tucker pp 51-53
et Chung pp 151-155 Ceci est la troisième édition. J'ai la deuxième édition et je fais référence aux numéros de page de la deuxième édition publiée en 1974.
La preuve du mgf que j'ai trouvée plus difficile à trouver, mais vous pouvez la trouver dans le livre de Billingley "Probability and Measure" pp. 342-345. À la page 342 Le théorème 30.1 fournit le théorème qui répond au problème du moment. À la page 345, Billingsley indique le résultat que si une mesure de probabilité a une fonction de génération de moment M (s) définie sur un intervalle entourant 0, l'hypothèse pour le théorème 30.1 est satisfaite et, par conséquent, la mesure est déterminée par ses moments. Mais ces moments s sont déterminés par M (s). Par conséquent, la mesure est déterminée par sa fonction de génération de moment si M (s) existe dans un voisinage de 0. Cette logique ainsi que la preuve qu'il donne pour le théorème 30.1 prouve le résultat. Billingsley commente également que la solution à l'exercice 26.
la source
Notons la fonction de génération de moment deX par .MX( t ) = Eet X
Pour prouver que la fonction de génération de moment détermine la distribution, il existe au moins deux approches:
Pour montrer que la finitude de sur implique que les moments n'augmentent pas trop rapidement, de sorte que est déterminé par , qui sont à leur tour déterminés par . Cette preuve se trouve à la section 30 de Billingsley, P. Probability and Measure .MX (−δ,δ) X FX (EXk)k∈N MX
Pour montrer que est analytique et peut être étendu à , de sorte que , donc dans notamment pour tous les , puis utilisez le fait que détermine . Pour cette approche, voir Curtiss, JH Ann. Math. Statistiques 13: 430-433 et leurs références. ( - δ , δ ) × i R ⊆ C M X ( z ) = E e z X M X ( i t ) = φ X ( t ) t ∈ R φ X F XMX (−δ,δ)×iR⊆C MX(z)=EezX MX(it)=φX(t) t∈R φX FX
Au niveau du premier cycle, presque tous les manuels fonctionnent avec la fonction de génération de moment et énoncent le théorème ci-dessus sans le prouver. Cela a du sens, car la preuve nécessite des mathématiques beaucoup plus avancées que ne le permet le premier cycle.
Au moment où les élèves ont tous les outils nécessaires dans la preuve, ils ont aussi la maturité pour travailler avec la fonction caractéristique place. Presque tous les manuels des diplômés empruntent ce chemin, ils prouvent que la fonction caractéristique détermine la distribution et ignorent fondamentalement les fonctions génératrices de moments.φX(t)=EeitX
la source