Comprendre la construction de processus stochastiques

11

J'ai vu des processus stochastiques modélisés / construits de la manière suivante.

Considérons l'espace de probabilité et soit la transformation (mesurable) que nous utilisons pour modéliser l'évolution du point d'échantillon \ oméga dans le temps . Soit également X le vecteur aléatoire X: \ Omega \ rightarrow \ mathbb R ^ n . Ensuite, le processus stochastique \ {X_t: t = 0,1, ... \} est utilisé pour modéliser une séquence d'observations via la formule X_t (\ omega) = X [\ mathbb S ^ t (\ omega)] ou X_t = X \ circ \ mathbb S ^ t. S S : Ω Ω(Ω,F,Pr)SS:ΩΩXωX { X t : t = 0 , 1 , . . . } X t ( ω ) = X [ S t ( ω ) ] X t = X S t .X:ΩRn{Xt:t=0,1,...}Xt(ω)=X[St(ω)]Xt=XSt.

Comment dois-je comprendre les exemples de points ωΩ et la transformation S dans cette construction? (Est-ce que \ omega pourrait ωêtre quelque chose comme une séquence de chocs dans certains cas?)

Pour plus de concrétisation, comment pourrais-je écrire ces deux processus dans cette notation?

Processus 1:

(1)Xt+1=ρXt+εt+1
X0=0 .

Processus 2:

(2)Xt+1=εt+1
jmbejara
la source

Réponses:

4

Cette construction que vous décrivez n'est pas entièrement générale. En fait, il caractérise des séries chronologiques strictement stationnaires. Vous voyez que c'est invariant. Cet opérateur est essentiellement un opérateur de décalage.S

À titre de comparaison, voici la définition habituelle des processus, disons en temps discret:

Définition Un processus stochastique est une séquence de cartes Borel mesurables sur un espace de probabilité . ( Ω , F , μ ){Xt}(Ω,F,μ)

Maintenant, pour ce que vous décrivez, vous avez une carte Borel mesurable fixe . Il est la mesure sous - jacente qui évolue selon . La carte induit une nouvelle "mesure push-forward" (dans le langage de la théorie des mesures) sur en prenant juste des préimages: définissez une mesure par S SX:ΩRnSSμ SΩμS

AFμSPr(S1(A)).

Ainsi, le vecteur aléatoire est par construction. Ils induisent la même mesure push-forward sur . Faites cela avec pour chaque et vous avez votre série chronologique. X S R n S t tX:(Ω,F,μS)RnXSRnStt

Quant à votre question sur , inspecter la preuve pour l'autre direction devrait clarifier cela --- c'est-à-dire que toute série temporelle strictement stationnaire doit nécessairement prendre cette forme pour certains , et .( Ω , F , P r ) X Sω(Ω,F,Pr)XS

Le point fondamental est que, d'un point de vue général, un processus stochastique est une mesure de probabilité sur l'ensemble de ses réalisations possibles. Cela se voit, par exemple, dans la construction de Wiener du mouvement brownien; il a construit une mesure de probabilité sur . Donc, en général, un est un chemin d'échantillonnage et compose de tous les chemins d'échantillonnage possibles. ω ΩC[0,)ωΩ

Par exemple, prenez les deux processus que vous avez nommés ci-dessus. Ils sont strictement stationnaires, si disons que les innovations sont gaussiennes. (Toute série temporelle stationnaire de covariance entraînée par des innovations gaussiennes est strictement stationnaire.) La construction commencerait alors en prenant comme l'ensemble de toutes les séquences, l' algèbre générée par les cartes de coordonnées, et la mesure appropriée. Pour le processus de bruit blanc (2), n'est qu'une mesure de produit sur un produit infini.F σ P r P rΩFσPrPr

Référence Cette caractérisation / construction par décalage de séries chronologiques strictement stationnaires est mentionnée dans la théorie asymptotique de White pour économétriciens .

Michael
la source
Merci pour la réponse et la référence. Aussi, désolé pour la lenteur de la réponse ici. C'est logique. Aussi, juste pour mentionner, selon la référence (livre de White) il me semble que cette construction permet des processus non stationnaires. Def. 3,27 définit une transformation soient préservant la mesure si pour l' ensemble . Ensuite, la Prop. 3.29 dit que si est la conservation des mesures, alors le processus est stationnaire. P r ( A ) = P ( S - 1 ( A ) ) A F SSPr(A)=P(S1(A))AFS
jmbejara
1
@jmbejara Oui, bon point. Il est en fait entièrement général --- en choisissant pour être l'espace des chemins canoniques ( ), un produit infini --- et définir pour être le décalage, toute loi de série chronologique peut être réalisée en une telle forme. Π R SΩΠRS
Michael
1

Il est possible de considérer les cas de comme un point dans un espace dimensionnel infini, par exemple une séquence de choc, mais une telle interprétation serait improductive, car vous n'obtiendrez alors aucune simplification par rapport à la spécification directe du processus sur l'espace de probabilité filtré et seulement produit des entités supplémentaires indésirables pour compliquer les choses.ω

Cette approche est beaucoup mieux adaptée aux applications sur des points dans un espace de dimension finie. Ensuite, par cette approche, vous construirez un processus de Markov homogène dans le temps et sera interprété comme un point dans son espace d'état, par exemple, la position actuelle du processus, ou plusieurs dernières positions. Les considérations sur l'interprétation de S seront reportées jusqu'à ce que des exemples soient discutés.ω

Par conséquent, je suppose que est une séquence iid de variables aléatoires sur l'espace de probabilité défini dans la question. Ensuite, le deuxième processus peut être défini comme suit:ϵt

ωR, S(ω)=ω, X(St(ω))=St(ω).L'index supérieur indique ici une application multiple de l'opérateur.

Le premier exemple est une élaboration sur le premier:

S ( ( ω 1 , ω 2 ) ) = ( ρ ω 1 + ω 2 , ω 2 ) , X ( S t ( ω ) ) = ( S t ( ω ) ) 1 .ωR2, S((ω1,ω2))=(ρω1+ω2,ω2), X(St(ω))=(St(ω))1.Un indice inférieur désigne ici la composante respective du vecteur correspondant.

Comme nous l'avons vu, l'opération S elle-même est assez ambiguë et difficile à interpréter raisonnablement. Le point à noter, cependant, est qu'il définit une mesure préservant la transformation et que la prise d'une image en dessous produit l'ensemble avec la même mesure. Donc cette dynamique de fonction de mesure sur notre espace d'état dans le temps.

Nikita Toropov
la source
1

Il pense simplement à comme étant un déterministe et comme étant inobservable. Ensuite, nous observons comme une forme d'informations incomplètes sur . et nous aident alors à déduire une distribution de probabilité conjointe sur . ω X ( ω ) ω S X { X t } t = 0SωX(ω)ωSX{Xt}t=0

Pat W.
la source