Chaque énoncé que je trouve de l'estimateur de James-Stein suppose que les variables aléatoires estimées ont la même variance (et l'unité).
Mais tous ces exemples mentionnent également que l'estimateur JS peut être utilisé pour estimer des quantités n'ayant rien à voir les unes avec les autres. L' exemple de wikipedia est la vitesse de la lumière, la consommation de thé à Taiwan et le poids du porc au Montana. Mais vraisemblablement, vos mesures sur ces trois quantités auraient des variances "vraies" différentes. Cela pose-t-il un problème?
Cela est lié à un problème conceptuel plus vaste que je ne comprends pas, lié à cette question: Estimateur de James-Stein: Comment Efron et Morris ont-ils calculé en facteur de retrait pour leur exemple de baseball? Nous calculons le facteur de retrait comme suit:
Intuitivement, je pense que le terme est en fait - différent pour chaque quantité estimée. Mais la discussion dans cette question ne parle que de l'utilisation de la variance groupée ...σ 2 i
J'apprécierais vraiment si quelqu'un pouvait dissiper cette confusion!
la source
Réponses:
Cette question a été explicitement répondue dans la série classique d'articles sur l'estimateur de James-Stein dans le contexte Empirical Bayes rédigée dans les années 1970 par Efron & Morris. Je fais principalement référence à:
Efron et Morris, 1973, Stein's Estimation Rule and Its Competitors - An Empirical Bayes Approach
Efron et Morris, 1975, analyse des données avec l'estimateur de Stein et ses généralisations
Efron et Morris, 1977, Stein's Paradox in Statistics
L'article de 1977 est une exposition non technique à lire absolument. Là, ils présentent l'exemple de frappeur de baseball (qui est discuté dans le fil auquel vous avez lié); dans cet exemple, les variances d'observation sont en effet supposées égales pour toutes les variables, et le facteur de retrait est constant.c
Cependant, ils continuent de donner un autre exemple, qui estime les taux de toxoplasmose dans un certain nombre de villes d'El Salvador. Dans chaque ville, un nombre différent de personnes a été interrogé, et donc les observations individuelles (taux de toxoplasmose dans chaque ville) peuvent être considérées comme ayant des variances différentes (plus le nombre de personnes enquêtées est faible, plus la variance est élevée). L'intuition est certainement que les points de données à faible variance (faible incertitude) n'ont pas besoin d'être réduits aussi fortement que les points de données à forte variance (incertitude élevée). Le résultat de leur analyse est illustré sur la figure suivante, où cela peut en effet être observé:
Les mêmes données et analyses sont également présentées dans l'article beaucoup plus technique de 1975, dans une figure beaucoup plus élégante (ne montrant malheureusement pas les variances individuelles cependant), voir la section 3:
Ils y présentent un traitement empirique Bayes simplifié qui se déroule comme suit. Soit où est inconnu. Dans le cas où tous les sont identiques, le traitement empirique standard de Bayes consiste à estimer comme , et à calculer la moyenne a posteriori de as qui n'est rien autre que l'estimateur de James-Stein.Xi|θi∼N(θi,Di)θi∼N(0,A) A Di=1 1/(1+A) (k−2)/∑X2j θi θ^i=(1−11+A)Xi=(1−k−2∑X2j)Xi,
Si maintenant , alors la règle de mise à jour de Bayes est et nous pouvons utiliser la même astuce empirique de Bayes pour estimer , même s'il n'y a pas de formule fermée pour dans ce cas (voir l'article). Cependant, ils notent queDi≠1 θ^i=(1−DiDi+A)Xi A A^
La section pertinente de l'article de 1973 est la section 8, et c'est un peu plus difficile à lire. Fait intéressant, ils ont là un commentaire explicite sur la suggestion faite par @guy dans les commentaires ci-dessus:
Ensuite, ils continuent et décrivent leur procédure préférée pour estimer que je dois avouer que je n'ai pas entièrement lu (c'est un peu compliqué). Je vous suggère de regarder là-bas si vous êtes intéressé par les détails.A^i
la source