Mesures pour les matrices de covariance: inconvénients et forces

11

Quelles sont les «meilleures» mesures pour les matrices de covariance, et pourquoi? Il est clair pour moi que Frobenius & c n'est pas approprié, et les paramétrisations d'angle ont aussi leurs problèmes. Intuitivement, on pourrait vouloir un compromis entre ces deux, mais j'aimerais aussi savoir s'il y a d'autres aspects à garder à l'esprit et peut-être des normes bien établies.

Les métriques communes ont divers inconvénients car elles ne sont pas naturelles pour les matrices de covariance, par exemple, elles ne pénalisent pas spécialement les matrices non PSD ou ne se comportent pas bien par rapport au rang (considérons deux ellipsoïdes de covariance de bas rang tournés: j'aimerais la même chose - rotation intermédiaire du classement pour avoir des distances inférieures à la moyenne des composants, ce qui n'est pas le cas avec et peut-être Frobenius, veuillez me corriger ici). De plus, la convexité n'est pas toujours garantie. Ce serait bien de voir ces problèmes et d'autres traités par une "bonne" mesure.L1

Voici une bonne discussion de certains problèmes, un exemple d'optimisation de réseau et un de vision par ordinateur . Et voici une question similaire, obtenant d'autres mesures, mais sans discussion.

Quartz
la source
2
Quel est le but de la mesure que vous recherchez? En quoi la métrique Frobenius est-elle inappropriée?
whuber
1
L1
Comment cette dernière question à laquelle vous faites référence est-elle "plus restreinte"? Après tout, toutes les matrices de covariance sont symétriques. Cela semble être un doublon parfait.
whuber
1
C'est une bonne critique de l'autre question. Puis-je vous suggérer de modifier votre question (et son titre) pour refléter le contenu de votre dernier commentaire? Cela le distinguera clairement du double apparent et aidera les répondants à vous donner des réponses plus appropriées. (Et ne vous inquiétez pas des modifications apportées à votre propre question: cela est attendu; le méta-thread concerne principalement l' édition communautaire .)
whuber
1
@kjetilbhalvorsen C'est une phrase provocante! Pourriez-vous développer une réponse? Ou fournir une référence d'article?
Sycorax dit Réintégrer Monica

Réponses:

2

Eh bien, je ne pense pas qu'il existe une bonne métrique ou «la meilleure façon» d'analyser les matrices de covariance. L'analyse doit toujours être alignée sur votre objectif. Disons que C est ma matrice de covariance. La diagonale contient la variance pour chaque paramètre calculé. Donc, si vous êtes intéressé par la signification des paramètres, la trace (C) est un bon début car c'est votre performance globale.

Si vous tracez votre paramètre et sa signification, vous pouvez voir quelque chose comme ceci:

x1 =  1.0 ±  0.1 
x2 = 10.0 ±  5.0
x3 =  5.0 ± 15.0 <-- non-significant parameter

Si vous êtes intéressé par leur corrélation mutuelle, un tel tableau pourrait produire quelque chose d'intéressant:

x1  1.0
x2  0.9  1.0
x3 -0.3 -0.1  1.0
    x1    x2   x3

Chaque élément est le coefficient de corrélation entre les paramètres xi et xj. D'après l'exemple, il est visible que les paramètres x1 et x2 sont fortement corrélés.

nali
la source
1

Question intéressante, je suis aux prises avec le même problème en ce moment! Cela dépend de la façon dont vous définissez le «meilleur», c'est-à-dire que vous recherchez une valeur unique moyenne pour l'écart ou la corrélation entre les données, etc. J'ai trouvé dans Press, SJ (1972): Applied Multivariate Analysis, p. 108 que la variance généralisée, définie comme le déterminant de la matrice de covariance, est utile comme mesure unique de l'écart. Mais si c'est la corrélation que vous recherchez, je devrai réfléchir plus loin. Faites le moi savoir.

Lucozade
la source
3
Référence s'il vous plaît.
Nick Cox