Vous devez d'abord consulter cette question de base sur la matrice d'informations de Fisher et sa relation avec la Hesse et les erreurs standard
Supposons que nous ayons un modèle statistique (famille de distributions) . Dans le cas le plus général, nous avons d i m ( Θ ) = d , donc cette famille est paramétrée par θ = ( θ 1 , … , θ d ) T{ fθ: θ ∈ Θ }réi m ( Θ ) = dθ = ( θ1, … , Θré)T . Sous certaines conditions de régularité, nous avons
jei , j( θ ) = - Eθ[ ∂2l ( X; θ )∂θje∂θj] =-Eθ[ Hi , j( l ( X; θ ) ) ]
où est une matrice d'informations de Fisher (en fonction de θ ) et X est la valeur observée (échantillon)jei , jθX
l ( X; θ ) = l n ( fθ( X) ) , pour certains θ ∈ Θ
Ainsi, la matrice d'informations de Fisher est une valeur attendue négative de Hesian de la probabilité logarithmique sous un certain θ
Supposons maintenant que nous voulons estimer une fonction vectorielle du paramètre inconnu . On souhaite généralement que l'estimateur T ( X ) = ( T 1 ( X ) , … , T d ( X ) ) soit sans biais, c'est-à-direψ ( θ )T( X) = ( T1( X) , … , Tré( X) )
∀θ ∈ Θ Eθ[ T( X) ] = ψ ( θ )
Cramer Rao Lower Bound déclare que pour tout T ( X ) non biaisé, le c o v θ ( T ( X ) )T( X)c o vθ( T( X) ) satisfait
c o vθ( T( X) ) ≥ ∂ψ ( θ )∂θje- 1( θ ) ( ∂ψ ( θ )∂θ)T= B ( θ )
A ≥ BA - B∂ψ ( θ )∂θJi , j( ψ )θψ ( θ ) = θ
c o vθ( T( X) ) ≥ I- 1( θ )
Mais qu'est-ce que cela nous dit vraiment? Par exemple, rappelez-vous que
v a rθ( Tje( X) ) = [ c o vθ( T(X) ) ]je , je
UNE diagonale les éléments diagonaux sont non négatifs
∀je UNEje , je≥ 0
B ( θ )
∀je v a rθ( Tje( X) ) ≥ [ B ( θ ) ]je , je
Le CRLB ne nous dit donc pas la variance de notre estimateur, mais plus ou moins notre estimateur est optimal , c'est-à-dire s'il a la covariance la plus faible parmi tous les estimateurs sans biais.