Quelqu'un peut-il m'expliquer brièvement pourquoi chacune des six hypothèses est nécessaire pour calculer l'estimateur OLS? Je n'ai découvert que la multicolinéarité - si elle existe, nous ne pouvons pas inverser la matrice (X'X) et à son tour estimer l'estimateur global. Qu'en est-il des autres (par exemple, linéarité, erreurs moyennes nulles, etc.)?
14
Réponses:
Vous pouvez toujours calculer l'estimateur OLS, sauf dans le cas où vous avez une multicolinéarité parfaite. Dans ce cas, vous avez une dépendance multilinéaire parfaite dans votre matrice X. Par conséquent, l'hypothèse de rang complet n'est pas remplie et vous ne pouvez pas calculer l'estimateur OLS, en raison de problèmes d'invertibilité.
Techniquement, vous n'avez pas besoin des autres hypothèses OLS pour calculer l'estimateur OLS. Cependant, selon le théorème de Gauss – Markov, vous devez remplir l'hypothèse OLS (hypothèses clrm) pour que votre estimateur soit BLEU.
Vous pouvez trouver une discussion approfondie sur le théorème de Gauss – Markov et sa dérivation mathématique ici:
http://economictheoryblog.com/2015/02/26/markov_theorem/
En outre, si vous recherchez un aperçu de l'hypothèse OLS, c'est-à-dire combien il y en a, ce dont ils ont besoin et ce qui se passe si vous violez l'hypothèse OLS unique, vous trouverez ici une discussion détaillée:
http://economictheoryblog.com/2015/04/01/ols_assumptions/
J'espère que ça aide, bravo!
la source
Ce qui suit est basé sur des coupes simples, pour les séries chronologiques et les panneaux, il est quelque peu différent.
Maintenant pour les implications.
Sous 1 à 6 (les hypothèses du modèle linéaire classique), l'OLS est BLEU (meilleur estimateur linéaire sans biais), le meilleur dans le sens de la plus faible variance. Il est également efficace parmi tous les estimateurs linéaires, ainsi que tous les estimateurs qui utilisent une fonction du x. Plus important encore, sous 1 à 6, l'OLS est également l'estimateur sans biais de la variance minimale. Cela signifie que parmi tous les estimateurs non biaisés (et pas seulement linéaires), l'OLS présente la plus petite variance. OLS est également cohérent.
Sous 1 à 5 (les hypothèses de Gauss-Markov), l'OLS est BLEU et efficace (comme décrit ci-dessus).
Sous 1 à 4, l'OLS est non biaisé et cohérent.
En fait, OLS est également cohérent, sous une hypothèse plus faible que savoir que: ( 1 ) E ( u ) = 0 et ( 2 ) C o v ( x j , u ) = 0 . La différence avec les hypothèses 4 est que, dans cette hypothèse, vous n'avez pas besoin de clouer parfaitement la relation fonctionnelle.(4) (1) E(u)=0 (2) Cov(xj,u)=0
la source
Un commentaire dans une autre question a soulevé des doutes quant à l'importance de la condition , arguant qu'elle peut être corrigée par l'inclusion d'un terme constant dans la spécification de régression, et ainsi "il peut être facilement ignoré".E(u∣X)=0
Ce n'est pas le cas. L'inclusion d'un terme constant dans la régression absorbera la moyenne conditionnelle éventuellement non nulle du terme d'erreur si nous supposons que cette moyenne conditionnelle est déjà une constante et non une fonction des régresseurs . C'est l'hypothèse cruciale qui doit être faite indépendamment du fait que nous incluions ou non un terme constant:
Si tel est le cas, alors la moyenne non nulle devient une nuisance que nous pouvons simplement résoudre en incluant un terme constant.
Mais si cela ne tient pas , (c'est-à-dire si la moyenne conditionnelle n'est pas une constante nulle ou non nulle ), l'inclusion du terme constant ne résout pas le problème: ce qu'il "absorbera" dans ce cas est une magnitude cela dépend de l'échantillon spécifique et des réalisations des régresseurs. En réalité, le coefficient inconnu attaché à la série de uns, n'est pas vraiment une constante mais variable, selon les régresseurs à travers la moyenne conditionnelle non constante du terme d'erreur.
Qu'est-ce que cela implique? Pour simplifier, supposons le cas le plus simple, où ( i indexe les observations) mais que E ( u i ∣ x i ) = h ( x i ) . C'est-à-dire que le terme d'erreur est indépendant de la moyenne des régresseurs, sauf de ses contemporains (dans X, nous n'en incluons pas une série de uns).E(ui∣X−i)=0 i E(ui∣xi)=h(xi) X
Supposons que nous spécifions la régression avec l'inclusion d'un terme constant (un régresseur d'une série de termes).
et notation de compactage
où , Z = [ 1 : X ] , γ = ( a , ß ) ' , ε = u - a .a=(a,a,a...)′ Z=[1:X] γ=(a,β)′ ε=u−a
Ensuite, l'estimateur OLS sera
Pour être sans biais, nous avons besoin de . MaisE[ε∣Z]=0
qui ne peut pas être nul pour tout , puisque nous examinons le cas où h ( x i ) n'est pas une fonction constante. Donci h(xi)
et
De plus, le terme d'erreur a une moyenne différente pour chaque i , et donc aussi une variance différente (c'est-à-dire qu'il est hétéroscédastique conditionnellement). Sa distribution conditionnelle aux régresseurs diffère donc selon les observations i .ε i i
Mais cela signifie que même si le terme d'erreur est supposée normale, la distribution de l'erreur d'échantillonnage γ - γ est normale , mais pas zéro moyenne Mormal, et biais inconnu. Et la variance sera différente. Doncui γ^−γ
En d'autres termes, les propriétés "échantillon fini" ont toutes disparu.
Il nous reste seulement la possibilité de recourir à une inférence asymptotiquement valide , pour laquelle nous devrons faire des hypothèses supplémentaires.
Autrement dit, l' exogénéité stricte ne peut pas être «facilement ignorée» .
la source