Supposons que j'ai deux estimateurs et qui sont des estimateurs cohérents du même paramètre et tels que avec V_1 \ leq V_2 au sens psd. Ainsi, asymptotiquement \ widehat {\ beta} _1 est plus efficace que \ widehat {\ beta} _2 . Ces deux estimateurs sont basés sur différentes fonctions de perte. β 2β0√V1≤V2 β 1 β 2
Maintenant, je veux chercher des techniques de retrait pour améliorer les propriétés des échantillons finis de mes estimateurs.
Supposons que j'ai trouvé une technique de rétrécissement qui améliore l'estimateur dans un échantillon fini et me donne la valeur de MSE égale à . Cela signifie-t-il que je peux trouver une technique de retrait appropriée à appliquer à qui ne me donnera pas le MSE supérieur à ?
En d'autres termes, si le retrait est appliqué intelligemment, cela fonctionne-t-il toujours mieux pour des estimateurs plus efficaces?
C'est une question intéressante où je veux d'abord souligner quelques points saillants.
Fondamentalement, il est possible d'améliorer un estimateur dans un certain cadre, comme une classe d'estimateurs sans biais. Cependant, comme vous l'avez souligné, différentes fonctions de perte rendent la situation difficile car une fonction de perte peut minimiser la perte quadratique et l'autre minimise l'entropie. De plus, l'utilisation du mot «toujours» est très délicate car si un estimateur est le meilleur de la classe, vous ne pouvez pas prétendre à un meilleur estimateur, logiquement parlant.
Pour un exemple simple (dans le même cadre), supposons deux estimateurs, à savoir un Bridge (régression pénalisée avec norme ) et Lasso (première norme pénalité vraisemblable) et un ensemble clairsemé de paramètres à savoir , un modèle linéaire , normalité du terme d'erreur, , connu , fonction de perte quadratique (erreurs des moindres carrés) et indépendance des covariables en . Soit pour pour le premier estimateur et pour les seconds estimateurs. Ensuite, vous pouvez améliorer les estimateurs en choisissantlp β y= xβ+ e e ∼N( 0 , σ2< ∞ ) σ X lp p = 3 p = 2 p→1 qui finit par un meilleur estimateur avec une variance plus faible. Dans cet exemple, il y a une chance d'améliorer l'estimateur.
Donc, ma réponse à votre question est oui, étant donné que vous supposez la même famille d'estimateurs et la même fonction de perte ainsi que des hypothèses.
la source