Je suis tombé sur une transformation stabilisant la variance en lisant la méthode Kaggle Essay Eval . Ils utilisent une transformation de stabilisation de variance pour transformer les valeurs kappa avant de prendre leur moyenne, puis de les retransformer. Même après avoir lu le wiki sur les transformations de stabilisation de variance, je ne peux pas comprendre, pourquoi stabilisons-nous réellement les variances? Quel avantage en retirons-nous?
variance
mathematical-statistics
Pushpendre
la source
la source
Réponses:
Voici une réponse: généralement, le moyen le plus efficace pour effectuer une inférence statistique est lorsque vos données sont iid Si ce n'est pas le cas, vous obtenez différentes quantités d'informations à partir de différentes observations, et c'est moins efficace. Une autre façon de voir les choses est de dire que si vous pouvez ajouter des informations supplémentaires à votre inférence (c'est-à-dire la forme fonctionnelle de la variance, via la transformation de stabilisation de la variance), vous améliorerez généralement la précision de vos estimations, au moins asymptotiquement. Dans de très petits échantillons, la peine de modéliser la variance peut augmenter le biais de votre petit échantillon. Il s'agit d'une sorte d'argument économétrique de type GMM: si vous ajoutez des moments supplémentaires, votre variance asymptotique ne peut pas augmenter; et votre biais d'échantillon fini augmente avec les degrés de liberté suridentifiés.
Une autre réponse a été donnée par le cardinal: si vous avez une variance inconnue dans votre expression de variance asymptotique, la convergence sur la distribution asymptotique sera plus lente, et vous devrez estimer cette variance d'une manière ou d'une autre. Le pré-pivot de vos données ou de vos statistiques contribue généralement à améliorer la précision des approximations asymptotiques.
la source