Supposons que j'essaie d'estimer un grand nombre de paramètres à partir de données de grande dimension, en utilisant une sorte d'estimations régularisées. Le régularisateur introduit un certain biais dans les estimations, mais il peut toujours être un bon compromis car la réduction de la variance devrait plus que compenser.
Le problème survient lorsque je veux estimer les intervalles de confiance (par exemple en utilisant l'approximation de Laplace ou le bootstrap). Plus précisément, le biais dans mes estimations entraîne une mauvaise couverture dans mes intervalles de confiance, ce qui rend difficile la détermination des propriétés fréquentistes de mon estimateur.
J'ai trouvé quelques articles discutant de ce problème (par exemple "Intervalles de confiance asymptotiques dans la régression de crête basée sur l'expansion d'Edgeworth" ), mais les calculs sont surtout au-dessus de ma tête. Dans le document lié, les équations 92-93 semblent fournir un facteur de correction pour les estimations qui ont été régularisées par régression de crête, mais je me demandais s'il y avait de bonnes procédures qui fonctionneraient avec une gamme de régularisateurs différents.
Même une correction de premier ordre serait extrêmement utile.
la source
Réponses:
Il existe un article récent qui répond précisément à votre question (si vous souhaitez effectuer une régression sur vos données, si je comprends bien) et, heureusement, fournit des expressions faciles à calculer (intervalles de confiance et test d'hypothèse pour la régression à haute dimension).
En outre, vous pouvez être intéressé par les travaux récents de Peter Bühlmann sur ce même sujet. Mais je crois que le premier article vous fournit ce que vous cherchez, et le contenu est plus facile à digérer (je ne suis pas non plus un statisticien).
la source
http://cran.r-project.org/web/packages/hdi/index.html
C'est ce que vous cherchez?
la source