Comparaison de la variance des observations appariées

16

J'ai N observations appariées ( , ) tirées d'une distribution inconnue commune, qui a des premier et deuxième moments finis, et est symétrique autour de la moyenne.XiYi

Soit l'écart type de (inconditionnel à ), et même pour Y. Je voudrais tester l'hypothèse X Y σ YσXXYσY

H0 :σX=σY

H1 :σXσY

Quelqu'un connaît-il un tel test? Je peux supposer en première analyse que la distribution est normale, bien que le cas général soit plus intéressant. Je recherche une solution de forme fermée. Bootstrap est toujours un dernier recours.

gappy
la source
3
Je ne sais pas pourquoi l'information que les observations sont appariées est importante pour l'hypothèse testée; pourriez-vous expliquer?
russellpierce
1
@drknexus c'est important car la dépendance rend difficile le calibrage du test de Fisher.
Robin Girard

Réponses:

4

Vous pouvez utiliser le fait que la distribution de la variance de l'échantillon est une distribution du khi carré centrée sur la vraie variance. Sous votre hypothèse nulle, votre statistique de test serait la différence de deux variables aléatoires chi carré centrées sur la même variance vraie inconnue. Je ne sais pas si la différence de deux variables aléatoires chi carré est une distribution identifiable, mais ce qui précède peut vous aider dans une certaine mesure.


la source
3
@svadali, il est plus habituel d'utiliser ratio ici car la distribution du ratio du chi carré est tabulée (Fisher's F). Cependant, la partie problématique de la question (c'est-à-dire la dépendance entre et Y ) est toujours là quoi que vous utilisiez. Il n'est pas simple de construire un test avec deux chi carrés dépendants ... J'ai essayé de donner une réponse avec une solution sur ce point (voir ci-dessous). XY
robin girard
7

Si vous souhaitez emprunter la route non paramétrique, vous pouvez toujours essayer le test des rangs au carré.

Pour le cas non apparié, les hypothèses pour ce test (prises à partir d' ici ) sont:

  1. Les deux échantillons sont des échantillons aléatoires de leurs populations respectives.
  2. En plus de l'indépendance au sein de chaque échantillon, il existe une indépendance mutuelle entre les deux échantillons.
  3. L'échelle de mesure est au moins un intervalle.

Ces notes de cours décrivent en détail le cas non apparié.

Pour le boîtier jumelé, vous devrez modifier légèrement cette procédure. Au milieu de cette page, vous devriez savoir par où commencer.

csgillespie
la source
6

L'approche la plus naïve que je peux penser est régresse vs X i en Y i ~ m X i + b , puis effectuer une t -test sur l'hypothèse m = 1 . Voir test t pour la pente de régression .YiXiYim^Xi+b^tm=1

Une approche moins naïve est le test Morgan-Pitman. Soit puis effectuez un test du coefficient de corrélation de Pearson entre U i et V i . (On peut le faire simplement en utilisant la transformée Fisher RZ , qui donne les intervalles de confiance autour du coefficient de Pearson de l'échantillon, ou via un bootstrap.)Ui=XiYi,Vi=Xi+Yi,UiVi

Si vous utilisez R, et que vous ne voulez pas avoir à tout coder vous-même, j'utiliserais le bootdpcipackage Robust Stats de Wilcox, WRS. (voir la page de Wilcox .)

shabbychef
la source
4

Si vous pouvez supposer une normalité bivariée, vous pouvez développer un test de rapport de vraisemblance comparant les deux structures de matrice de covariance possibles. Les estimations du maximum de vraisemblance sans contrainte (H_a) sont bien connues - juste la matrice de covariance de l'échantillon, les contraintes (H_0) peuvent être dérivées en écrivant la probabilité (et ce sera probablement une sorte d'estimation "groupée").

Si vous ne voulez pas dériver les formules, vous pouvez utiliser SAS ou R pour ajuster un modèle de mesures répétées avec des structures de covariance de symétrie non structurées et composées et comparer les probabilités.

Aniko
la source
3

La difficulté vient clairement parce que et Y sont corellés (je suppose que ( X , Y ) est conjointement gaussien, comme Aniko) et vous ne pouvez pas faire de différence (comme dans la réponse de @ svadali) ou un rapport (comme dans Standard Fisher-Snedecor "F-test") parce que ceux-ci seraient de distribution dépendante χ 2 , et parce que vous ne savez pas ce qu'est cette dépendance qui rend difficile de dériver la distribution sous H 0 .XY(X,Y)χ2H0

Ma réponse repose sur l'équation (1) ci-dessous. Étant donné que la différence de variance peut être factorisée avec une différence de valeurs propres et une différence d'angle de rotation, le test d'égalité peut être décliné en deux tests. Je montre qu'il est possible d'utiliser le test de Fisher-Snedecor ensemble avec un test sur la pente comme celle suggérée par @shabbychef à cause d'une simple propriété des vecteurs 2D gaussiennes.

Test de Fisher-Snedecor: Si pour ( Z i 1 , ... , Z i n i ) IID variables aléatoires gaussiennes avec variance sans biais empirique λ 2 i et variance réelle λ 2 i , alors il est possible de tester si λ 1 = λ 2 en utilisant le fait que, sous le zéro,i=1,2 (Z1i,,Znii)λ^i2λi2λ1=λ2

Elle utilise le fait que

R=λ^X2λ^Y2
follows a Fisher-Snedecor distribution F(n11,n21)

R(θ)=[cosθsinθsinθcosθ]
λ1,λ2>0 ϵ1ϵ2N(0,λi2) such that

[XY]=R(θ)[ϵ1ϵ2]
and that we have
Var(X)Var(Y)=(λ12λ22)(cos2θsin2θ)[1]

Testing of Var(X)=Var(Y) can be done through testing if ( λ12=λ22 or θ=π/4mod[π/2])

Conclusion (Answer to the question) Testing for λ12=λ22 is easely done by using ACP (to decorrelate) and Fisher Scnedecor test. Testing θ=π/4[modπ/2] is done by testing if |β1|=1 in the linear regression Y=β1X+σϵ (I assume Y and X are centered).

Testing wether (λ12=λ22 or θ=π/4[modπ/2]) at level α is done by testing if λ12=λ22 at level α/3 or if |β1|=1 at level α/3.

robin girard
la source