Le théorème de Gauss-Markov nous dit que l'estimateur OLS est le meilleur estimateur linéaire sans biais pour le modèle de régression linéaire.
Mais supposons que je ne me soucie pas de la linéarité et de l'impartialité. Existe-t-il alors un autre estimateur (non linéaire / biaisé possible) pour le modèle de régression linéaire qui est le plus efficace sous les hypothèses de Gauss-Markov ou un autre ensemble général d'hypothèses?
Il y a bien sûr un résultat standard: OLS lui-même est le meilleur estimateur sans biais si, en plus des hypothèses de Gauss-Markov, nous supposons également que les erreurs sont normalement distribuées. Pour une autre distribution particulière des erreurs, j'ai pu calculer l'estimateur de vraisemblance maximale correspondant.
Mais je me demandais s'il y avait un estimateur qui est meilleur que l'OLS dans un ensemble de circonstances relativement générales?
la source
Je ne sais pas si vous êtes d'accord avec l'estimation Bayes? Si oui, en fonction de la fonction de perte, vous pouvez obtenir différentes estimations de Bayes. Un théorème de Blackwell déclare que les estimations de Bayes ne sont jamais sans biais. Un argument de théorie de la décision déclare que toute règle admissible ((c'est-à-dire ou toute autre règle à laquelle elle est comparée, il y a une valeur du paramètre pour laquelle le risque de la règle actuelle est (strictement) inférieur à celui de la règle à laquelle elle est comparée)) est une règle de Bayes (généralisée).
Les estimateurs de James-Stein sont une autre classe d'estimateurs (qui peuvent être dérivés asymptotiquement par des méthodes bayésiennes) qui sont meilleurs que l'OLS dans de nombreux cas.
L'OLS peut être inadmissible dans de nombreuses situations et James-Stein Estimator en est un exemple. (aussi appelé paradoxe de Stein).
la source
Kay et Eldar ont publié un bon article sur l'estimation biaisée dans le but de trouver des estimateurs avec une erreur quadratique moyenne minimale.
la source