Je suis censé enseigner le théorème de Frish Waugh en économétrie, que je n'ai pas étudié.
J'ai compris les mathématiques et j'espère que l'idée aussi "le coefficient que vous obtenez pour un coefficient particulier à partir d'un modèle linéaire multiple est égal au coefficient du modèle de régression simple si vous" éliminez "l'influence des autres régresseurs". L'idée théorique est donc plutôt cool. (Si j'ai totalement mal compris, j'accueille favorablement une correction)
Mais a-t-il des usages classiques / pratiques?
EDIT : J'ai accepté une réponse, mais je suis toujours prêt à en avoir de nouvelles qui apporteront d'autres exemples / applications.
regression
econometrics
least-squares
projection
decomposition
Anthony Martin
la source
la source
Réponses:
Prenons le modèle de données du panneau d'effets fixes, également connu sous le nom de modèle des variables factices des moindres carrés (LSDV).
peut être calculé en appliquant directement OLS au modèle y = X β + D α + ϵ , où D est unematrice N T × N de variables muettes et α représente les effets fixes spécifiques à chaque individu.bLSDV
Une autre façon de calculer est d'appliquer la soi-disant transformation intra au modèle habituel afin d'en obtenir une version dégradée, c'est-à-dire M [ D ] y = M [ D ] X β + M [ D ] ϵ . Ici, M [ D ] = I - D ( D ′ D ) - 1 D ′ , la matrice maker résiduelle d'une régression surbLSDV
Selon le théorème de Frisch-Waugh-Lovell, les deux sont équivalents, car FWL dit que vous pouvez calculer un sous-ensemble de coefficients de régression d'une régression (ici, ) parβ^
La deuxième version est beaucoup plus largement utilisée, car les ensembles de données de panneau typiques peuvent avoir des milliers d'unités de panneau , de sorte que la première approche vous obligerait à exécuter une régression avec des milliers de régresseurs, ce qui n'est pas une bonne idée numériquement, même de nos jours avec une vitesse rapide les ordinateurs, car le calcul de l'inverse de ( D : X ) ′ ( D : X ) serait très coûteux, alors que y et X dégradant le temps sont peu coûteux.N (D:X)′(D:X) y X
la source
Voici une version simplifiée de ma première réponse, qui je crois est moins pertinente en pratique, mais peut-être plus facile à "vendre" pour une utilisation en classe.
Les régressions et y i - ˉ y = K ∑ j = 2 β j ( x i j - ˉ x j ) + ˜ ϵ i donnent des valeurs identiques β j , j = 2 , ... ,
la source
Here is another, more indirect, but I believe interesting one, namely the connection between different approaches to computing the partial autocorrelation coefficient of a stationary time series.
Definition 1
Consider the projection
It thus gives the influence of them th lag on Yt \emph{after controlling for} Yt−1,…,Yt−m+1 . Contrast this with ρm , that gives the `raw' correlation of Yt and Yt−m .
How do we find theα(m)j ? Recall that a fundamental property of a regression of Zt on regressors Xt is that the coefficients are such that regressors and residuals are uncorrelated. In a population regression this condition is then stated in terms of population correlations. Then:
So, we sort of run a multiple regression and find one coefficient of interest while controlling for the others.
Definition 2
Them th partial correlation is the correlation of the prediction error of Yt+m predicted with Yt−1,…,Yt−m+1 with the prediction error of Yt predicted with Yt−1,…,Yt−m+1 .
So, we sort of first control for the intermediate lags and then compute the correlation of the residuals.
la source