Selon cet article très intéressant du magazine Quanta: "Une preuve longuement recherchée, trouvée et presque perdue" , - il a été prouvé que, étant donné un vecteur ayant une variable multiple Distribution gaussienne, et compte tenu des intervalles centrés autour des moyennes des composantes correspondantes de , puisx
(Inégalité de corrélation gaussienne ou GCI; voir https://arxiv.org/pdf/1512.08776.pdf pour la formulation plus générale).
Cela semble vraiment agréable et simple, et l'article dit que cela a des conséquences sur les intervalles de confiance communs. Cependant, cela me semble tout à fait inutile à cet égard. Supposons que nous estimons les paramètres , et nous avons trouvé des estimateurs qui sont (peut-être asymptotiquement) conjointement normaux (par exemple, l'estimateur MLE) . Ensuite, si je calcule des intervalles de confiance à 95% pour chaque paramètre, le GCI garantit que l'hypercube est une région de confiance conjointe avec une couverture non inférieure à ... ce qui est une couverture assez faible même pour modéré .^ θ 1 , … , ^ θ n I 1 × … I n ( 0,95 ) n n
Ainsi, il ne semble pas être un moyen intelligent de trouver des régions de confiance conjointes: la région de confiance habituelle pour un gaussien multivarié, c'est-à-dire un hyperellipsoïde, n'est pas difficile à trouver si la matrice de covariance est connue et plus nette. Peut-être qu'il pourrait être utile de trouver des régions de confiance lorsque la matrice de covariance est inconnue? Pouvez-vous me montrer un exemple de la pertinence de GCI pour le calcul des régions de confiance conjointes?
Réponses:
Je pense que la question est plus pertinente. Dans un certain sens, vous examinez les tests d'hypothèses multiples et vous les comparez à l'exécution de tests d'hypothèses multiples.
Oui, en effet, il existe une borne inférieure qui est le produit des valeurs de p des tests en supposant l'indépendance. C'est la base des ajustements des valeurs de p dans les tests multi-hypothèses tels que les ajustements de Bonferroni ou Holm. Mais les ajustements de Bonferroni et Holm (en supposant l'indépendance) sont des tests de puissance particulièrement faibles.
On peut faire beaucoup mieux dans la pratique (et cela se fait via Bootstrap, voir par exemple, Bootstrap Reality Check de H White, les articles de Romano-Wolf et l'ensemble plus récent d'articles sur les ensembles de confiance de modèle). Chacun d'eux est une tentative de test d'hypothèse de puissance plus élevée (par exemple, en utilisant la corrélation estimée pour faire mieux que de simplement utiliser cette borne inférieure) et, par conséquent, beaucoup plus pertinent.
la source