Utilisez l'expansion de Taylor multivariée pour calculer une approximation de (de manière similaire à l'exemple à la fin de "First Moment" dans le lien qui fait le cas le plus simple de , et utiliser des extensions univariées pour calculer des approximations de et (comme indiqué dans la première partie de la même section) avec une précision similaire. À partir de ces éléments, calculez la covariance (approximative).E ( X .1 / Y ) ) E ( U ) E ( V )E(UV)E(X.1/Y))E(U)E(V)
S'étendant à un degré d'approximation similaire à l'exemple du lien, je pense que vous vous retrouvez avec des termes dans la moyenne et la variance de chaque variable (non transformée), et leur covariance.
Modifier 2:
Mais voici une petite astuce qui peut vous faire économiser quelques efforts:
Notez que et et .X = exp ( U ) Y = exp ( V )E(XY)=Cov(X,Y)+E(X)E(Y)X=exp(U)Y=exp(V)
Étant donné
nous avons
E[f(X)]≈f(μX)+f′′(μX)2σ2X
E(exp(U))≈exp(μU)+exp(μU)2σ2U≈exp(μU+12σ2U)
Edit: Cette dernière étape découle de l'approximation de Taylor , ce qui est bon pour les petits (en prenant ).exp(b)≈1+bbb=12σ2U
(cette approximation est exacte pour , normal: )UVE(exp(U))=exp(μU+12σ2U)
SoitW=U+V
E(XY)=E(exp(U).exp(V))=E(exp(W))
≈exp(μW)+exp(μW)2σ2W≈exp(μW+12σ2W)
et étant donné , puisVar(W)=Var(U)+Var(V)+2Cov(U,V)
Pourriez-vous donner un peu plus de détails s'il vous plaît? Quoi qu'il en soit, merci pour la suggestion
user7064
Édité pour les détails.
Glen_b -Reinstate Monica
Merci @Glend_b. J'accepterai lorsque des détails seront ajoutés. En attendant, +1 :-)
user7064
Pas de soucis; J'étais occupé à l'époque, puis j'ai complètement oublié. Maintenant corrigé
Glen_b -Reinstate Monica
Cela fonctionne généralement mieux pour les variables non gaussiennes si les variances de et sont petites (de manière équivalente, si les coefficients de variation de et sont petits). UVXY
Glen_b -Reinstate Monica
8
Sans hypothèses supplémentaires sur et , il n'est pas possible de déduire la covariance du log en connaissant la covariance initiale. En revanche, si vous avez pu calculer partir de et , qu'est-ce qui vous empêche de calculer partir de et directement?XYCov(X,Y)XYCov(log(X),log(Y))log(X)log(Y)
Réponses:
On pourrait adopter l'approche de l'expansion de Taylor:
http://en.wikipedia.org/wiki/Taylor_expansions_for_the_moments_of_functions_of_random_variables
Éditer:
Prenez , .U=log(X) V=log(Y)
Utilisez l'expansion de Taylor multivariée pour calculer une approximation de (de manière similaire à l'exemple à la fin de "First Moment" dans le lien qui fait le cas le plus simple de , et utiliser des extensions univariées pour calculer des approximations de et (comme indiqué dans la première partie de la même section) avec une précision similaire. À partir de ces éléments, calculez la covariance (approximative).E ( X .1 / Y ) ) E ( U ) E ( V )E(UV) E(X.1/Y)) E(U) E(V)
S'étendant à un degré d'approximation similaire à l'exemple du lien, je pense que vous vous retrouvez avec des termes dans la moyenne et la variance de chaque variable (non transformée), et leur covariance.
Modifier 2:
Mais voici une petite astuce qui peut vous faire économiser quelques efforts:
Notez que et et .X = exp ( U ) Y = exp ( V )E(XY)=Cov(X,Y)+E(X)E(Y) X=exp(U) Y=exp(V)
Étant donné nous avons
Edit: Cette dernière étape découle de l'approximation de Taylor , ce qui est bon pour les petits (en prenant ).exp(b)≈1+b b b=12σ2U
(cette approximation est exacte pour , normal: )U V E(exp(U))=exp(μU+12σ2U)
SoitW=U+V
et étant donné , puisVar(W)=Var(U)+Var(V)+2Cov(U,V)
(Éditer:)
D'où . Cela devrait être exact pour le gaussien bivariéU,VCov(U,V)≈log(1+Cov(X,Y)E(X)E(Y)) U,V
Si vous utilisiez la première approximation plutôt que la seconde, vous obtiendriez une approximation différente ici.
la source
Sans hypothèses supplémentaires sur et , il n'est pas possible de déduire la covariance du log en connaissant la covariance initiale. En revanche, si vous avez pu calculer partir de et , qu'est-ce qui vous empêche de calculer partir de et directement?X Y Cov(X,Y) X Y Cov(log(X),log(Y)) log(X) log(Y)
la source