Un processus est strictement stationnaire si la distribution conjointe de est la même que la distribution conjointe de pour tout , pour tout et pour tout .X t 1 , X t 2 , . . . , X t m X t 1 + k , X t 2 + k , . . . , X t m + k m k t 1 , t 2 , . . . , t m
Un processus est stationnaire du second ordre si sa moyenne est constante et sa fonction d'autocovariance ne dépend que du décalage.
Par conséquent, le deuxième ordre stationnaire implique-t-il un stationnaire strict?
Toujours sous le deuxième ordre stationnaire, il est dit qu'aucune hypothèse n'est faite sur les moments supérieurs à ceux du premier et du second ordre. Le premier moment correspond à la moyenne, le deuxième moment correspond-il à l'autocovariance?
Réponses:
La stationnarité de second ordre est plus faible que la stationnarité stricte. La stationnarité du second ordre nécessite que les moments du premier et du second ordre (moyenne, variance et covariances) soient constants dans le temps et, par conséquent, ne dépendent pas du moment auquel le processus est observé. En particulier, comme vous le dites, la covariance ne dépend que de l'ordre de décalage, , mais pas du moment où elle est mesurée, C o v ( x t , x t - k ) = C o v ( x t + h , x t + h - k ) pour tousk Co v ( xt, xt - k) = Co v ( xt + h, xt + h - k) .t
Dans un processus de stationnarité stricte, les moments de toutes les commandes restent constantes au fil du temps, à savoir, comme vous le dites, la distribution conjointe de est la même que la distribution conjointe de X t 1 + k + X t 2 + k + . . . + X t m + k pour tout t 1 , t 2 , . . .Xt 1, Xt 2, . . . , Xt m Xt1+k+Xt2+k+...+Xtm+k et k .t1,t2,...,tm k
Par conséquent, une stationnarité stricte implique une stationnarité de second ordre mais l'inverse n'est pas vrai.
Modifier (modifié en réponse au commentaire de @ whuber)
La déclaration précédente est la compréhension générale de la stationnarité faible et forte. Bien que l'idée que la stationnarité au sens faible n'implique pas la stationnarité au sens fort puisse être en accord avec l'intuition, elle peut ne pas être aussi simple à prouver, comme le souligne whuber dans le commentaire ci-dessous. Il peut être utile d'illustrer l'idée telle que suggérée dans ce commentaire.
Comment définir un processus stationnaire du second ordre (moyenne, variance et covariance constante dans le temps) mais non stationnaire au sens strict (les moments d'ordre supérieur dépendent du temps)?
Comme suggéré par @whuber (si j'ai bien compris), nous pouvons concaténer des lots d'observations provenant de différentes distributions. Nous devons juste faire attention à ce que ces distributions aient la même moyenne et la même variance (à ce stade, considérons qu'elles sont échantillonnées indépendamment les unes des autres). D'une part, nous pouvons par exemple générer des observations à partir de la distribution Student avec 5 degrés de liberté. La moyenne est égale à zéro et la variance est 5 / ( 5 - deux ) = 5 / 3 . D'un autre côté, nous pouvons prendre la distribution gaussienne avec moyenne nulle et variance 5 / 3 .t 5 5 / ( 5 - 2 ) = 5 / trois 5 / 3
Les deux distributions partagent la même moyenne (zéro) et la variance ( ). Ainsi, la concaténation des valeurs aléatoires de ces distributions sera, au moins, stationnaire de second ordre. Cependant, le kurtosis aux points régis par la distribution gaussienne sera 3 , tandis qu'aux moments où les données proviennent de la distribution t de Student, il sera 3 + 6 / ( 5 - 4 ) = 9 . Par conséquent, les données ainsi générées ne sont pas stationnaires au sens strict car les moments de quatrième ordre ne sont pas constants.5 / 3 3 t 3 + 6 / ( 5 - 4 ) = 9
Les covariances sont également constantes et égales à zéro, car nous avons considéré des observations indépendantes. Cela peut sembler trivial, nous pouvons donc créer une certaine dépendance entre les observations selon le modèle autorégressif suivant.
avec ε t ~ { N ( 0 , σ 2 = cinq / 3 )
garantit que la stationnarité de second ordre est satisfaite.| ϕ | < 1
Nous pouvons simuler certaines de ces séries dans le logiciel R et vérifier si la moyenne, la variance, la covariance et le kurtosis de l'échantillon restent constants sur des lots de observations (le code ci-dessous utilise ϕ = 0,8 et la taille de l'échantillon n = 240 , la figure affiche une des séries simulées):20 ϕ = 0,8 n = 240
Les résultats ne sont pas ceux que j'attendais:
la source
R
n <- 300; p <- 1/4; x <- rnorm(n, (rbinom(2,1,c(p,1-p))-c(p,1-p)), 1/8)
Puisque je ne peux pas commenter, et j'ai une mise en garde valable à la réponse de @javlacalle , je suis obligé d'inclure ceci est une réponse distincte:
@javlacalle a écrit que
Cependant, une stationnarité forte n'implique pas une stationnarité faible. La raison en est qu'une forte stationnarité ne signifie pas que le processus a nécessairement un second moment fini. Par exemple, un processus iid avec une distribution de Cauchy standard est strictement stationnaire mais n'a pas de second moment fini. En effet, avoir un second moment fini est une condition nécessaire et suffisante pour la faible stationnarité d'un processus fortement stationnaire.
Référence: Myers, DE, 1989. Être ou ne pas être. . . Stationnaire? Telle est la question. Math. Geol. 21, 347–362.
la source