Dans l'application pratique, j'ai souvent été témoin de la pratique suivante. On observe une paire dans le temps. Dans l'hypothèse où ils sont liés linéairement, nous régressons l'un contre l'autre en utilisant des poids géométriques plutôt que des poids uniformes, c'est-à-dire que l'OLS minimise pour certains . C'est très intuitif: nous pondérons moins d'observations loin dans le passé. Comparé à un système de pondération «wagon couvert», il présente également l'avantage de produire des estimations qui évoluent en douceur dans le temps, car les observations ne tombent pas brutalement hors de la fenêtre d'observation. Cependant, je me demande s'il existe un modèle probabiliste sous-jacent à la relation entre et
qui justifie ce choix.
regression
least-squares
gappy
la source
la source
Réponses:
"Lié de façon linéaire" signifie généralement
pour la constante , et IId erreurs aléatoires , . Une raison pour laquelle on ferait une estimation OLS pondérée exponentiellement est le soupçon que et pourraient eux-mêmes varier (lentement) avec le temps. Ainsi, nous pensons vraiment que le bon modèle esta b εt t=0,1,…,T a b
pour les fonctions inconnues et qui varient lentement (voire pas du tout) dans le temps et nous souhaitons estimer leurs valeurs actuelles, et . Supposons que ces fonctions soient lisses, afin que nous puissions appliquer le théorème de Taylor. Cela affirme queα(t) β(t) a=αT b=βT
pour certains , et de même pour . Nous considérons et comme les valeurs les plus récentes, et , respectivement. Utilisez-le pour ré-exprimer les résidus:tα,t,0≤tα,t<T β(t) a b αT βT
Maintenant, de nombreux mouvements de la main doivent se produire. Nous considérerons que tout le côté droit est aléatoire. Sa variance est celle de plus fois la variance de plus fois la variance de . Ces deux variances sont complètement inconnues, mais ( abracadabra ) considérons-les comme résultant d'une sorte de processus (stochastique) dans lequel des "erreurs" ou "variations" éventuellement systématiques (non aléatoires, mais encore inconnues) s'accumulent d'une L'autre. Cela suggérerait une exponentielleεt x2t(t−T)2 α′(tα,t) (t−T)2 β′(tβ,t) changement de ces écarts au fil du temps. Maintenant, simplifiez simplement l'expression explicite (mais essentiellement inutile) pour le côté droit, et les termes quadratiques dans l'exponentielle (puisque nous agitons nos mains si follement de toute façon), pour obtenir(t−T)2
avec la variance de égale à pour une constante . Ignorer les corrélations temporelles possibles entre les et supposer qu'ils ont des distributions normales donne une probabilité logarithmique pour les données proportionnelles àδt exp(κ(t−T)) κ δt
(plus une constante non pertinente ne dépendant que de ) avec . La procédure OLS pondérée exponentiellement maximise donc la vraisemblance, en supposant que nous connaissons la valeur de (un peu comme une procédure de vraisemblance de profil).k k=expκ k
Bien que toute cette dérivation soit clairement fantaisiste, elle montre comment et approximativement dans quelle mesure la pondération exponentielle tente de faire face à d'éventuels changements des paramètres linéaires au fil du temps. Il relie le paramètre au taux de changement temporel de ces paramètres.k
la source
Je pense que vous voulez dire en fait comme votre poids, ou que . Si et nous prenons comme poids alors . Donc, cela pèse en fait le moins sur la présente observation. Par exemple, si nous prenons alors , etc.kt k>1 0<k<1 k−t k−∞=∞ k=0.5 k0=1,k−1=2,k−2=4,…,k−20≈106
Ceci indique simplement quelque chose que vous savez sur la façon dont la variance change avec chaque observation (elle s'agrandit à mesure que vous avancez dans le temps à partir du temps ):T
Indiquant et nous avons une probabilité logarithmique commune de:Y≡{yT,yT−1,…,y1} X≡{xT,xT−1,…,x1}
Donc, pour obtenir les estimations de vraisemblance maximale de et vous avez la fonction objectif suivante:a b
Quel est celui que vous recherchez
la source