Soit un espace de probabilité, et soit un vecteur aléatoire. Soit la distribution de , une mesure de Borel sur .
- La fonction caractéristique de est la fonction
définie pour (la variable aléatoire est donc bornée dans pour tout ). Il s'agit de la transformée de Fourier de .
- La fonction de génération de moment ( mgf ) de est la fonction
définie pour tout pour lequel l'intégrale ci-dessus existe . Il s'agit de la transformée de Laplace de .
Déjà, nous pouvons voir que la fonction caractéristique est définie partout sur , mais le mgf a un domaine qui dépend de , et ce domaine peut être juste (cela se produit, par exemple, pour une variable aléatoire distribuée par Cauchy).
Malgré cela, les fonctions caractéristiques et les mgf partagent de nombreuses propriétés, par exemple:
- Si sont indépendants, alors
pour tout , et
pour tous les pour lesquels les mgf existent .
- Deux vecteurs aléatoires et ont la même distribution si et seulement si pour tout . L'analogue mgf de ce résultat est que si pour tout dans un voisinage de , alors et ont la même distribution.
- Les fonctions caractéristiques et les mgf de distributions communes ont souvent des formes similaires. Par exemple, si ( normale à dimensions avec moyenne et matrice de covariance ), alors
et
- Lorsque certaines hypothèses douces sont valables, la fonction caractéristique et le mgf peuvent être différenciés pour calculer les moments.
- Le théorème de continuité de Lévy fournit un critère pour déterminer quand une séquence de variables aléatoires converge en distribution vers une autre variable aléatoire en utilisant la convergence des fonctions caractéristiques correspondantes. Il existe un théorème correspondant pour les mgf ( Curtiss 1942, Théorème 3 ).
Étant donné que les fonctions caractéristiques et les mgf sont souvent utilisés dans le même but et le fait qu'une fonction caractéristique existe toujours alors qu'un mgf n'existe pas toujours, il me semble que l'on devrait souvent préférer travailler avec des fonctions caractéristiques plutôt que les mgf.
Des questions.
- Quels sont les exemples où les mgf sont plus utiles que les fonctions caractéristiques?
- Que peut-on faire avec un mgf que l'on ne peut pas faire avec une fonction caractéristique?
la source
Réponses:
C'est une bonne question, mais large, je ne peux donc pas promettre de dire tout ce qui devrait être dit à ce sujet. La réponse courte est que les techniques rivales diffèrent non pas par ce qu'elles peuvent faire, mais par la façon dont elles peuvent le faire.
Les fonctions caractéristiques nécessitent une prudence supplémentaire en raison du rôle des nombres complexes. Ce n'est même pas que l'étudiant a besoin de connaître les nombres complexes; c'est que le calcul impliqué comporte de pièges subtils. Par exemple, je peux obtenir le MGF d'une distribution normale simplement en complétant le carré dans une substitution à décalage variable, mais beaucoup de sources prétendent négligemment que l'approche utilisant des fonctions caractéristiques est tout aussi facile. Ce n'est pas le cas, car la fameuse normalisation de l'intégrale gaussienne ne dit rien sur l'intégration suric+R avec c∈R∖{0} . Oh, nous pouvons toujours évaluer l'intégrale si nous faisons attention aux contours, et en fait il y a une approche encore plus facile, dans laquelle nous montrons en intégrant par parties qu'unN(0,1) fonction caractéristique de la distribution ϕ(t) satisfait ϕ˙=−tϕ . Mais l'approche MGF est encore plus simple, et la plupart des distributions dont les élèves ont besoin tôt ont un MGF convergent sur un segment de ligne (par exemple Laplace) ou une demi-ligne (par exemple Gamma, géométrique, binôme négatif), ou l'ensemble deR (par exemple Bêta, binôme, Poisson, Normal). Quoi qu'il en soit, cela suffit pour étudier des moments.
Je ne pense pas qu'il y ait quelque chose que vous puissiez faire uniquement avec le MGF, mais vous utilisez ce qui est le plus simple pour la tâche à accomplir. En voici une pour vous: quelle est la façon la plus simple de calculer les moments d'une distribution de Poisson? Je dirais que c'est à nouveau d'utiliser une technique différente, la fonction génératrice de probabilitéG(t)=EtX=expλ(t−1) . Puis le symbole de Pochhammer qui tombe(X)k donne E(X)k=G(k)(1)=λk . En général, il vaut généralement la peine d'utiliser le PGF pour les distributions discrètes, le MGF pour les distributions continues qui sont délimitées ou qui ont une décroissance surexponentielle dans les queues du PDF, et la fonction caractéristique lorsque vous en avez vraiment besoin.
Et selon la question que vous posez, vous pouvez plutôt trouver prudent d'utiliser la fonction de génération de cumul, qu'elle soit définie comme le logarithme du MGF ou du CF. Par exemple, je vais laisser comme exercice que la définition log-MGF des cumulants pour le maximum den Exp(1) iids donne κm=(m−1)!∑nk=1k−m , qui permet un calcul beaucoup plus facile de la moyenne et de la variance (respectivement κ1 et κ2 ) que si vous les aviez écrits en termes de moments.
la source
Si votre variable aléatoire a tous ses moments, alors le MGF existe et est généralement au moins aussi utile que la fonction caractéristique pour les preuves.
Pour répondre à votre question, lorsque le MGF existe, il fournit la base de nombreux calculs de valeurs extrêmesX . Le plus simple est (pourt≥0 ),
Ici, le rhs peut maintenant être minimisé surt . Étrangement, cette limite est l'un des rares moyens simples que nous connaissons pour obtenir des estimations sur des événements rares. Le domaine général de ceci est la théorie des grands écarts , où l'on doit faire une tonne de travail pour obtenir de meilleures limites (plus serrées). Un exemple courant de cela est de regarderSn=X1+⋯+Xn , de sorte que lorsque le MGF de X1 existe, alors on peut montrer P(|Sn−E[X]|>nr) décroît de façon exponentielle dans n . Ceci est plus généralement connu comme le théorème de Cramer .
Voici quelques notes compactes à ce sujet.
la source