Je comprends que si un processus dépend de valeurs antérieures de lui-même, alors c'est un processus AR. Si cela dépend d'erreurs précédentes, c'est un processus MA.
Quand se produirait l'une de ces deux situations? Quelqu'un a-t-il un exemple solide qui éclaire le problème sous-jacent concernant ce que signifie qu'un processus soit le mieux modélisé comme MA vs AR?
time-series
autoregressive
moving-average
Matt O'Brien
la source
la source
Réponses:
Un résultat important et utile est le théorème de représentation de Wold (parfois appelé décomposition de Wold), qui dit que chaque série temporelle stationnaire à covarianceOuit peut être écrite comme la somme de deux séries temporelles, une déterministe et une stochastique.
Le deuxième terme est un MA infini.
(C'est aussi le cas qu'un MA inversible peut être écrit comme un processus AR infini.)
Cela suggère que si la série est stationnaire à covariance , et si nous supposons que vous pouvez identifier la partie déterministe, alors vous pouvez toujours écrire la partie stochastique comme un processus MA. De même, si l'agent MA satisfait à la condition d'invertibilité, vous pouvez toujours l'écrire en tant que processus AR.
Si le processus est écrit sous une forme, vous pouvez souvent le convertir dans l'autre forme.
Donc dans un sens au moins, pour les séries stationnaires de covariance, souvent AR ou MA seront appropriés.
Bien sûr, dans la pratique, nous préférerions ne pas avoir de très gros modèles. Si vous avez un AR ou un MA fini, l'ACF et le PACF finissent par se désintégrer géométriquement (il y a une fonction géométrique dont la valeur absolue de l'une ou l'autre fonction se trouvera en dessous), ce qui aura tendance à signifier qu'une bonne approximation d'un AR ou d'un MA sous l'autre forme peut souvent être raisonnablement courte.
Donc, sous la condition stationnaire de covariance et en supposant que nous pouvons identifier les composantes déterministes et stochastiques, souvent AR et MA peuvent être appropriés.
La méthodologie de Box et Jenkins recherche un modèle parcimonieux - un modèle AR, MA ou ARMA avec peu de paramètres. En général, l'ACF et le PACF sont utilisés pour essayer d'identifier un modèle, en se transformant en stationnarité (peut-être par différenciation), en identifiant un modèle à partir de l'apparence de l'ACF et du PACF (parfois les gens utilisent d'autres outils), en ajustant le modèle et en examinant ensuite le structure des résidus (généralement via l'ACF et le PACF sur les résidus) jusqu'à ce que la série de résidus semble raisonnablement cohérente avec le bruit blanc. Souvent, il y aura plusieurs modèles qui peuvent fournir une approximation raisonnable d'une série. (Dans la pratique, d'autres critères sont souvent pris en compte.)
Il y a des raisons de critiquer cette approche. Par exemple, les valeurs de p résultant d'un tel processus itératif ne tiennent généralement pas compte de la façon dont le modèle a été élaboré (en regardant les données); ce problème pourrait être au moins en partie évité par le fractionnement d'échantillons, par exemple. Un deuxième exemple de critique est la difficulté d'obtenir réellement une série stationnaire - alors que l'on peut dans de nombreux cas se transformer pour obtenir une série qui semble raisonnablement cohérente avec la stationnarité, ce ne sera généralement pas le cas qu'elle l'est vraiment (des problèmes similaires sont courants problème avec les modèles statistiques, bien que ce soit peut-être parfois plus un problème ici).
[La relation entre un AR et le MA infini correspondant est discutée dans Hyndman and Athanasopoulos ' Forecasting: principes and practice , here ]
la source
Je peux fournir ce que je pense être une réponse convaincante à la première partie de la question ("d'où MA?") Mais je réfléchis actuellement à une réponse tout aussi convaincante à la deuxième partie de la question ("d'où AR?").
Prenons une série comprenant le cours de clôture (ajusté des fractionnements et des dividendes) d'une action sur plusieurs jours consécutifs. Le cours de clôture de chaque jour est dérivé d'une tendance (par exemple linéaire dans le temps) plus les effets pondérés des chocs quotidiens des jours précédents. Vraisemblablement, l'effet du choc au jour t-1 aura une influence plus forte sur le prix au jour t que le choc au jour t-2, etc. Ainsi, logiquement, le cours de clôture de l'action au jour t reflétera la tendance valeur au jour t plus une constante (moins de 1) multipliée par la somme pondérée des chocs jusqu'au jour t-1 (c'est-à-dire le terme d'erreur au jour t-1) (MA1), éventuellement plus une constante (moins de 1) fois la somme pondérée des chocs jusqu'au jour t-2 (c'est-à-dire le terme d'erreur au jour t-2) (MA2), ..., plus le nouveau choc au jour t (bruit blanc). Ce type de modèle semble approprié pour modéliser des séries comme le marché boursier, où le terme d'erreur au jour t représente la somme pondérée des chocs antérieurs et actuels et définit un processus d'AMM. Je travaille à travers une justification tout aussi convaincante pour un processus exclusivement AR.
la source
C'est l'exemple le plus simple que j'ai pu trouver pour aider à visualiser les processus AR, MA et ARMA.
Notez que ce n'est qu'une aide visuelle pour une introduction au sujet et en aucun cas assez rigoureux pour prendre en compte tous les cas possibles.
Supposons ce qui suit: Nous avons deux agents dans une compétition qui sont chargés d'effectuer un certain type d'action (sauter horizontalement vers la droite).
L '«humain» devrait, en moyenne, couvrir une distance de «μ» avec un écart-type de «𝛿» à chaque saut selon sa capacité physique. Cependant, l'humain manque particulièrement de force mentale :) et ses performances dépendent également du fait que le saut précédent a été retardé / atteint / dépassé ses attentes.
La «Machine» a été conçue selon les mêmes spécifications que l'humain ci-dessus avec une seule différence - la machine est sans émotion et n'est pas affectée par les performances passées.
De plus, il y a deux parties qui doivent être jouées par les deux agents, chaque partie impliquant deux sauts:
Le «saut final» a été marqué sur la base de la distance parcourue lors du saut final après un saut d'échauffement dont le résultat est ignoré dans la compétition mais disponible pour que l'humain puisse l'observer. Le saut final commence là où le saut d'échauffement commence.
«Saut combiné» marqué sur la base de la distance combinée couverte dans les sauts initiaux et finaux. Le saut final commence là où le saut initial atterrit.
Le tableau ci-dessous montre quel modèle décrirait le mieux chacun des quatre scénarios associés aux acteurs et jeux ci-dessus.
la source
Vous avez donc une série temporelle univariée et vous voulez la modéliser / la prévoir, non? Vous avez choisi d'utiliser un modèle de type ARIMA.
Les paramètres de dépendent de ce qui est le mieux pour votre ensemble de données. Mais comment le découvrir? Une approche récente est la "Prévision automatique des séries chronologiques" par Hyndman & Khandakar (2008) ( pdf ).
L'algorithme essaie différentes versions de p, q, P et Q et choisit celle avec le plus petit AIC, AICc ou BIC. Il est mis en oeuvre dans la fonction auto.arima () de l' ensemble de R prévisions . Le choix du critère d'information dépend des paramètres que vous passez à la fonction.
Pour un modèle linéaire, le choix d'un modèle avec le plus petit AIC peut équivaloir à une validation croisée avec un seul retrait.
Vous devez également vous assurer que vous disposez de suffisamment de données, au moins quatre ans.
Quelques vérifications importantes:
Réponse explicite au commentaire de Firebug ci-dessous: lorsque vos données le prennent en charge.
la source
"My question is, when would one of either of these two situations occur? "