Pourquoi stabilisons-nous la variance?

15

Je suis tombé sur une transformation stabilisant la variance en lisant la méthode Kaggle Essay Eval . Ils utilisent une transformation de stabilisation de variance pour transformer les valeurs kappa avant de prendre leur moyenne, puis de les retransformer. Même après avoir lu le wiki sur les transformations de stabilisation de variance, je ne peux pas comprendre, pourquoi stabilisons-nous réellement les variances? Quel avantage en retirons-nous?

Pushpendre
la source
6
Généralement, l'intention est de rendre la variance (asymptotique) indépendante du paramètre d'intérêt. Ceci est particulièrement important dans l'inférence où nous devons connaître la distribution de référence pour calculer les quantités d'intérêt connexes.
cardinal

Réponses:

13

Voici une réponse: généralement, le moyen le plus efficace pour effectuer une inférence statistique est lorsque vos données sont iid Si ce n'est pas le cas, vous obtenez différentes quantités d'informations à partir de différentes observations, et c'est moins efficace. Une autre façon de voir les choses est de dire que si vous pouvez ajouter des informations supplémentaires à votre inférence (c'est-à-dire la forme fonctionnelle de la variance, via la transformation de stabilisation de la variance), vous améliorerez généralement la précision de vos estimations, au moins asymptotiquement. Dans de très petits échantillons, la peine de modéliser la variance peut augmenter le biais de votre petit échantillon. Il s'agit d'une sorte d'argument économétrique de type GMM: si vous ajoutez des moments supplémentaires, votre variance asymptotique ne peut pas augmenter; et votre biais d'échantillon fini augmente avec les degrés de liberté suridentifiés.

Une autre réponse a été donnée par le cardinal: si vous avez une variance inconnue dans votre expression de variance asymptotique, la convergence sur la distribution asymptotique sera plus lente, et vous devrez estimer cette variance d'une manière ou d'une autre. Le pré-pivot de vos données ou de vos statistiques contribue généralement à améliorer la précision des approximations asymptotiques.

StasK
la source
Je pense que je comprends la première phrase de votre réponse et elle me plaît intuitivement. Y a-t-il un nom pour cette observation que je pourrais google? Je voudrais trouver des expériences de réflexion ou des exemples qui montrent ce qui se passe lorsque vous avez différentes informations dans différentes observations et comment cela est inefficace
Pushpendre
Le texte de Korn et Graubard (1999) sur les statistiques d'enquête en discute.
StasK
F-1(1njeF(κje))
@PushpendreRastogi vous voudrez peut-être lire l'article de wikipedia sur cette transformation même. Il a été introduit par Fisher pour stabiliser la variance d'un coefficient de corrélation empirique (entre les variables normales). Dans ce cas, la variable transformée sera approximativement normale, la variance ne dépendant que de la taille de l'échantillon et non du coefficient de corrélation inconnu (c'est pourquoi cela «stabilise» la variance).
Elvis
@Elvis, j'ai donné l'exemple de corrélation dans l'article de wikipedia sur les statistiques pivots ( en.wikipedia.org/wiki/Pivotal_statistic ). [Comment diable avez-vous fourni le joli lien dans le commentaire? J'ai essayé un href, ça avait l'air moche.]
StasK