Matrice d'information de Fisher attendue pour la distribution t de Student?

8

J'ai du mal à trouver une ressource en ligne qui dérive de la matrice d'informations attendue de Fisher pour la distribution t de Student univariée. Quelqu'un connaît-il une telle ressource?

En l'absence de toute ressource existante qui dérive de la matrice d'informations de Fisher attendue pour la distribution t, j'essaie de la dériver moi-même mais je suis coincé. Voici mon travail jusqu'à présent:

yit(μ,σ2,v) où est le paramètre des degrés de liberté (df) (supposé fixe). Ensuite: v

f(yi)=Γ(v+12)Γ(v2)πvσ2(1+1vσ2(yiμ)2)(v+1)2

Ainsi, nous avons la fonction log-vraisemblance suivante :

logf(yi)=logΓ(v+12)logΓ(v2)12log(πvσ2)+(v+1)2log[1+1vσ2(yiμ)2]

Voici les premières équations dérivées :

μlogf(yi)=v+122vσ2(yiμ)1+1vσ2(yiμ)2σ2logf(yi)=12σ2(v+1)21vσ4(yiμ)21+1vσ2(yiμ)2

Et voici les 2e équations dérivées:

μ2logf(yi)=v+122vσ2+2dv2σ4(yiμ)2(1+1vσ2(yiμ)2)2μσ2logf(yi)=v+12{[2vσ24v2σ6(yiμ)2][1+1vσ2(yiμ)2]2[2vσ2+2v2σ4(yiμ)2]2[1+1vσ2(yiμ)2][1vσ4(yiμ)2]}/{[1+1vσ2(yiμ)2]4}.....really messy!(σ2)2logf(yi)=12σ4(v+1)21vσ6(yiμ)2[1+1vσ2(yiμ)2]2

Enfin, la matrice d'informations du pêcheur attendue est calculée comme suit:

I=E([2μ2logf(yi)μσ2logf(yi)μσ2logf(yi)2(σ2)2logf(yi)])

Cependant, je ne sais pas comment calculer ces attentes. Quelqu'un connaît-il une ressource qui a fait cela? Honnêtement, la seule quantité qui m'intéresse est: , serait quelqu'un au moins peut-il m'aider à calculer cela?E[2(σ2)2logf(yi)]

bayes003
la source

Réponses:

3

Il a été porté à mon attention que Lange et al 1989 ont dérivé les informations de Fisher attendues pour la distribution t multivariée à l'annexe B. Par conséquent, j'ai obtenu la réponse que je voulais, vous pouvez considérer cette question comme une réponse!

En particulier, en utilisant le résultat de Lange et al, j'ai dérivé la matrice d'informations de Fisher suivante pour la distribution t univariée (avec le paramètre de degré de liberté fixe ):v

I=[v+1(v+3)σ200v2(v+3)σ4]
bayes003
la source
1
Y a-t-il une référence où la matrice d'information de Fisher a été dérivée pour le paramètre de degrés de liberté variables, c'est-à-dire la matrice d'information de Fisher à 3 dimensions où l'échelle, l'emplacement et les degrés de liberté sont tous fournis?
2017 à 9h18
1
J'ai la même question. Avons-nous une matrice Fisher 3x3 qui inclut le paramètre nu?
Riemann1337
Le résultat ci-dessus a été confirmé correctement avec la FisherInformationfonction dansmathStatica
wolfies
1

Ce n'est pas difficile (mais un peu fastidieux) en utilisant la formule Tout d'abord, observons que par le changement des variables dans toute intégrale impliquée, on peut prendre dans les calculs.

I(μ,σ2)=E[((μlogf(Y))2(μlogf(Y))(σlogf(Y))(μlogf(Y))(σlogf(Y))(σ2logf(Y))2)].
yyμμ=0

Les calculs reposent sur l'intégrale suivante: Cette égalité est obtenue par le changement des variables et à l'aide de la densité de la distribution Beta prime .

I(λ,a,b):=0y2a1(1+1λy2)2a+b2dy=λa2B(a,b2).
yy2

Observez que l'intégrande est une fonction paire lorsque est un entier pair, d'où 2a1

J(λ,a,b):=+y2a1(1+1λy2)p+1+b2dy=2I(λ,a,b)=λaB(a,b2).

Je ne détaillerai que le premier calcul. Définir la constante de normalisation de la densité.

K(ν,σ)=1B(12,ν2)1νσ2,

On a Depuis , nous trouvons Le deuxième calcul est simple:

E[(μlogf(Y))2]=K(ν,σ)(ν+1νσ2)2J(νσ2,32,ν+2).
B(12,ν2)B(32,ν+22)=B(12,ν2)B(32,ν2)B(32,ν2)B(32,ν+22)=(ν+1)1(ν+3)ν
E[(μlogf(Y))2]=νν+3(ν+1)(νσ2)1/22+3/2=ν+1(ν+3)σ2.
E[(μlogf(Y))(σlogf(Y))]=0
car il n'implique que des intégrales de fonctions impaires.

Enfin le calcul de est le plus fastidieux et Je le saute. Son calcul implique des intégrales avec entier pair, dont la valeur est donnée ci-dessus.

E[(σ2logf(Y))2]
J(νσ2,a,b)2a1

J'ai fait les calculs et j'ai trouvé et cela se simplifie en

(ν+1)24(νσ4)2K(ν,σ2)J(νσ2,52,ν)ν+12νσ6K(ν,σ2)J(νσ2,32,ν)+14σ4
ν2(ν+3)σ4.
Stéphane Laurent
la source