Indépendance des statistiques de la distribution gamma

9

Soit un échantillon aléatoire de la distribution gamma .X1,...,XnGamma(α,β)

Soit et la moyenne et la variance de l'échantillon.X¯S2

Ensuite, prouvez ou réfutez que et sont indépendants.X¯S2/X¯2


Ma tentative: depuis , nous devons vérifier l'indépendance de et , mais comment établir l'indépendance entre eux?S2/X¯2=1n1i=1n(XiX¯1)2X¯(XiX¯)i=1n

clocher
la source
2
Considérons la transformée de Laplace conjointe de la somme et le vecteur des proportions . Il s'agit de ; vous pouvez montrer que c'est le produit d'une fonction de et d'une fonction de . W W i : = X i / U E { exp [ - t U - zW ] } t zU:=iXiWWi:=Xi/UE{exp[tUzW]}tz
Yves
@Yves Pourriez-vous vérifier ma réponse publiée ci-dessous?
bellcircle

Réponses:

4

Il y a une démonstration mignonne, simple et intuitivement évidente pour l'intégraleα. Il repose uniquement sur les propriétés bien connues de la distribution uniforme, de la distribution Gamma, des processus de Poisson et des variables aléatoires et se présente comme suit:

  1. Chaque est le temps d'attente jusqu'à ce que points d'un processus de Poisson se produisent. αXiα

  2. La somme est donc le temps d'attente jusqu'à ce que points de ce processus se produisent. Appelons ces points n α Z 1 , Z 2 , , Z n α .Y=X1+X2++XnnαZ1,Z2,,Znα.

  3. Conditionnellement à , les premiers points sont indépendamment répartis uniformément entre etn α - 1 0 Y .Ynα10Y.

  4. Par conséquent, les rapports sont indépendamment répartis uniformément entre et En particulier, leurs distributions ne dépendent pas de0 1. Y .Zi/Y, i=1,2,,nα101.Y.

  5. Par conséquent, toute fonction (mesurable) de est indépendante deY .Zi/YY.

  6. Parmi ces fonctions, on trouve (où les parenthèses désignent les statistiques d'ordre du ).

    X1/Y=Z[α]/YX2/Y=Z[2α]/YZ[α]/YXn1/Y=Z[(n1)α]/YZ[(n2)α]/YXn/Y=1Z[(n1)α]/Y
    []Zi

À ce stade, notez simplement que peut être écrit explicitement en tant que fonction (mesurable) de et est donc indépendant deS2/X¯2Xi/YX¯=Y/n.

whuber
la source
3

Vous voulez prouver que la moyenne et les rv.s sont indépendants, ou de manière équivalente que la somme et les ratios sont indépendant. On peut prouver un résultat un peu plus général en supposant que les ont éventuellement des formes différentes , mais la même échelle qui peut être supposée être .X¯nXi/X¯U:=XinWi:=Xi/UXiαiβ>0β=1

Considérons la transformée de Laplace conjointe de et c'est-à-dire, Ceci s'exprime comme une intégrale à dimensions sur où la constante est relative à . Si nous introduisons de nouvelles variables sous le signe intégral en définissant UW=[Wi]i=1n

ψ(t,z):=E{exp[tUzW}=E{exp[tiXiiziXiU]}
n(0,)n
Cstexp[(1+t)(x1++xn)z1x1++znxnx1++xn]x1α11xnαn1dx
xy:=(1+t)x , on voit facilement que l'intégrale peut être écrite comme un produit de deux fonctions, l'une dépendant de l'autre dépendant du vecteur . Cela prouve que et sont indépendants.tzUW

Clause de non-responsabilité . Cette question se rapporte au théorème de Lukacs sur l'indépendance proportionnelle , d'où l'article d'Eugène Lukacs Une caractérisation de la distribution gamma . Je viens d'extraire ici la partie pertinente de cet article (à savoir p. 324), avec quelques modifications dans les notations. J'ai également remplacé l'utilisation de la fonction caractéristique par celle de la transformée de Laplace pour éviter les changements de variables impliquant des nombres complexes.

Yves
la source
1
(+1) Pour l'article sur la caractérisation de la distribution gamma.
StubbornAtom
1

Soit . Notez que est une statistique auxiliaire de , c'est-à-dire que sa distribution ne dépend pas de . ( X i / U ) i β βU=iXi(Xi/U)iββ

Puisque est une statistique complète suffisante de , il est indépendant de par le théorème de Basu, donc la conclusion suit.β ( X i / U ) iUβ(Xi/U)i

Je ne suis pas sûr de la construction de la statistique auxiliaire, car elle est uniquement indépendante de , pas .αβα

clocher
la source
Bien. Le théorème peut être invoqué avec considéré comme fixe donc en considérant un modèle statistique à un paramètre. α
Yves