AR (1) est-il un processus de Markov?

13

Le processus AR (1) tel que yt=ρyt1+εt un processus de Markov?

Si c'est le cas, alors VAR (1) est la version vectorielle du processus de Markov?

Cochon volant
la source

Réponses:

18

Le résultat suivant est valable: Si ϵ1,ϵ2, sont des valeurs de prise indépendantes dans E et f1,f2, sont des fonctions fn:F×EF alors avec Xn défini récursivement comme

Xn=fn(Xn1,ϵn),X0=x0F

le processus dans F est un processus de Markov commençant à x 0 . Le processus est homogène dans le temps si les ϵ sont distribués de manière identique et toutes les fonctions f sont identiques.(Xn)n0Fx0ϵf

AR (1) et VAR (1) sont tous deux des processus donnés sous cette forme avec

fn(x,ϵ)=ρx+ϵ.

Ce sont donc des processus de Markov homogènes si les sont iidϵ

Techniquement, les espaces et F ont besoin d'une structure mesurable et les fonctions f doivent être mesurables. Il est assez intéressant qu'un résultat inverse soit valable si l'espace F est un espace Borel . Pour tout processus de Markov ( X n ) n 0 sur un espace Borel F il y a iid des variables aléatoires uniformes ϵ 1 , ϵ 2 , dans [ 0 , 1 ] et des fonctions f n : F ×EFfF(Xn)n0Fϵ1,ϵ2,[0,1]fn:F×[0,1]F tel qu'avec une probabilité un Voir la proposition 8.6 dans Kallenberg, Foundations of Modern Probability .

Xn=fn(Xn1,ϵn).
NRH
la source
6

Un processus est un processus AR (1) siXt

Xt=c+φXt1+εt

où les erreurs, sont iid. Un processus a la propriété Markov siεt

P(Xt=xt|entire history of the process)=P(Xt=xt|Xt1=xt1)

D'après la première équation, la distribution de probabilité de ne dépend clairement que de X t - 1 , donc, oui, un processus AR (1) est un processus de Markov.XtXt1

Macro
la source
3
-1, même raison que pour une autre affiche. La réponse implique qu'il est facile de vérifier la propriété Markov citée. Ce n'est pas le cas, sauf preuve contraire. Notez également que les processus AR (1) peuvent être définis avec étant non-iid, donc cela devrait également être traité. εt
mpiktas
1
Le problème principal est que nous pouvons facilement écrire et alors la dernière phrase impliquerait que P ( X t = x t | toute l'histoire ) = P ( X t = x t | X t - 2 = x t - 2 )Xt=c+ϕc+ϕ2Xt2+ϕεt1+εtP(Xt=xt|entire history)=P(Xt=xt|Xt2=xt2).
mpiktas
Xt2Xt1. I suppose a more formal argument would assume you're conditioning sequentially (i.e. you don't include Xt2 unless you've already conditioned on Xt1).
Macro
and what you've written there actually depends on both Xt2 and Xt1 (through the error term εt1). The bottom line is that joint likelihood can be written easily as a product of conditional likelihoods which only require conditioning on the previous time point. Through parameter redundancies you can make it look like the distribution of Xt depends on Xt2 but, once you've conditioned on Xt1, it clearly doesn't. (p.s. I was using a standard definition of an AR(1) process per Shumway and Stoeffer's time series book)
Macro
Note I do not say that the answer is incorrect. I am just nitpicking at the details, i.e. that the second equality is intuitively evident, but if you want to prove it formally it is not so easy, IMHO.
mpiktas
2

What is a Markov process? (loosely speeking) A stochastic process is a first order Markov process if the condition

P[X(t)=x(t)|X(0)=x(0),...,X(t1)=x(t1)]=P[X(t)=x(t)|X(t1)=x(t1)]

holds. Since next value (i.e. distribution of next value) of AR(1) process only depends on current process value and does not depend on the rest history, it is a Markov process. When we observe the state of autoregressive process, the past history (or observations) do not supply any additional information. So, this implies that probability distribution of next value is not affected (is independent on) by our information about the past.

The same holds for VAR(1) being first order multivariate Markov process.

Tomas
la source
Hm, if εt are not iid, I do not think it holds. Also you did not give a proof, only cited the Markov property.
mpiktas
I thought that Markov Process refers to the continuous case. Usual AR time series are discrete, so it should correspond to a Markov Chain instead of a Markov Process.
joint_p
So we observe state of autoregressive process, Xt. The past history is Xt1,Xt2,.... This does not supply any additional information?
mpiktas
@joint_p, the terminology is not completely consistent in the literature. Historically, as I see it, the usage of "chain" instead of "process" was typically a reference to the state space of the process being discrete but occasionally also time being discrete. Today many use "chain" to refer to discrete time but allowing for a general state space, as in Markov Chain Monte Carlo. However, using "process" is also correct.
NRH
1
-1, since the proof of Markovian property is not given. Also the hand waving argument is not consistent with formula given. current state = t, past means t1,t2,..., next means t+1, but the formula does not involve t+1.
mpiktas