Déterminant des informations de Fisher

12

(J'ai posté une question similaire sur math.se. )

En géométrie de l'information, le déterminant de la matrice d'information de Fisher est une forme volumique naturelle sur une variété statistique, donc elle a une belle interprétation géométrique. Le fait qu'il apparaisse dans la définition d'un a priori de Jeffreys, par exemple, est lié à son invariance sous reparamétrisations, qui est (à mon humble avis) une propriété géométrique.

Mais quel est ce déterminant dans les statistiques ? Mesure-t-il quelque chose de significatif? (Par exemple, je dirais que s'il est nul, les paramètres ne sont pas indépendants. Cela va-t-il plus loin?)

Existe-t-il également une forme fermée pour le calculer, du moins dans certains cas "faciles"?

géodude
la source

Réponses:

10

Dans de nombreux exemples, l'inverse de la matrice d'informations de Fisher est la matrice de covariance des estimations de paramètres , exactement ou approximativement. Il donne souvent cette matrice de covariance de manière asymptotique. Le déterminant d'une matrice de covariance est souvent appelé variance généralisée.β^

Le déterminant de la matrice d'information de Fisher est donc l'inverse de cette variance généralisée. Cela peut être utilisé dans la conception expérimentale pour trouver des expériences optimales (pour l'estimation des paramètres). Dans ce contexte, cela s'appelle l'optimalité D, qui a une énorme littérature. alors google pour "D-optimal experimental design". En pratique, il est souvent plus facile de maximiser le déterminant de la matrice de covariance inverse, mais c'est évidemment la même chose que de minimiser le déterminant de son inverse.

Il existe également de nombreux messages sur ce site, mais peu ont de bonnes réponses. En voici un: plan expérimental (factoriel) n'exploitant pas la variance

kjetil b halvorsen
la source