J'ai observations appariées ( , ) tirées d'une distribution inconnue commune, qui a des premier et deuxième moments finis, et est symétrique autour de la moyenne.
Soit l'écart type de (inconditionnel à ), et même pour Y. Je voudrais tester l'hypothèse X Y σ Y
:
:
Quelqu'un connaît-il un tel test? Je peux supposer en première analyse que la distribution est normale, bien que le cas général soit plus intéressant. Je recherche une solution de forme fermée. Bootstrap est toujours un dernier recours.
Réponses:
Vous pouvez utiliser le fait que la distribution de la variance de l'échantillon est une distribution du khi carré centrée sur la vraie variance. Sous votre hypothèse nulle, votre statistique de test serait la différence de deux variables aléatoires chi carré centrées sur la même variance vraie inconnue. Je ne sais pas si la différence de deux variables aléatoires chi carré est une distribution identifiable, mais ce qui précède peut vous aider dans une certaine mesure.
la source
Si vous souhaitez emprunter la route non paramétrique, vous pouvez toujours essayer le test des rangs au carré.
Pour le cas non apparié, les hypothèses pour ce test (prises à partir d' ici ) sont:
Ces notes de cours décrivent en détail le cas non apparié.
Pour le boîtier jumelé, vous devrez modifier légèrement cette procédure. Au milieu de cette page, vous devriez savoir par où commencer.
la source
L'approche la plus naïve que je peux penser est régresse vs X i en Y i ~ m X i + b , puis effectuer une t -test sur l'hypothèse m = 1 . Voir test t pour la pente de régression .Yi Xi Yi∼m^Xi+b^ t m=1
Une approche moins naïve est le test Morgan-Pitman. Soit puis effectuez un test du coefficient de corrélation de Pearson entre U i et V i . (On peut le faire simplement en utilisant la transformée Fisher RZ , qui donne les intervalles de confiance autour du coefficient de Pearson de l'échantillon, ou via un bootstrap.)Ui=Xi−Yi,Vi=Xi+Yi, Ui Vi
Si vous utilisez R, et que vous ne voulez pas avoir à tout coder vous-même, j'utiliserais le
bootdpci
package Robust Stats de Wilcox, WRS. (voir la page de Wilcox .)la source
Si vous pouvez supposer une normalité bivariée, vous pouvez développer un test de rapport de vraisemblance comparant les deux structures de matrice de covariance possibles. Les estimations du maximum de vraisemblance sans contrainte (H_a) sont bien connues - juste la matrice de covariance de l'échantillon, les contraintes (H_0) peuvent être dérivées en écrivant la probabilité (et ce sera probablement une sorte d'estimation "groupée").
Si vous ne voulez pas dériver les formules, vous pouvez utiliser SAS ou R pour ajuster un modèle de mesures répétées avec des structures de covariance de symétrie non structurées et composées et comparer les probabilités.
la source
La difficulté vient clairement parce que et Y sont corellés (je suppose que ( X , Y ) est conjointement gaussien, comme Aniko) et vous ne pouvez pas faire de différence (comme dans la réponse de @ svadali) ou un rapport (comme dans Standard Fisher-Snedecor "F-test") parce que ceux-ci seraient de distribution dépendante χ 2 , et parce que vous ne savez pas ce qu'est cette dépendance qui rend difficile de dériver la distribution sous H 0 .X Y (X,Y) χ2 H0
Ma réponse repose sur l'équation (1) ci-dessous. Étant donné que la différence de variance peut être factorisée avec une différence de valeurs propres et une différence d'angle de rotation, le test d'égalité peut être décliné en deux tests. Je montre qu'il est possible d'utiliser le test de Fisher-Snedecor ensemble avec un test sur la pente comme celle suggérée par @shabbychef à cause d'une simple propriété des vecteurs 2D gaussiennes.
Test de Fisher-Snedecor: Si pour ( Z i 1 , ... , Z i n i ) IID variables aléatoires gaussiennes avec variance sans biais empirique λ 2 i et variance réelle λ 2 i , alors il est possible de tester si λ 1 = λ 2 en utilisant le fait que, sous le zéro,i=1,2 (Zi1,…,Zini) λ^2i λ2i λ1=λ2
Elle utilise le fait que
Testing ofVar(X)=Var(Y) can be done through testing if (
λ21=λ22 or θ=π/4mod[π/2] )
Conclusion (Answer to the question) Testing forλ21=λ22 is easely done by using ACP (to decorrelate) and Fisher Scnedecor test. Testing θ=π/4[modπ/2] is done by testing if |β1|=1 in the linear regression Y=β1X+σϵ (I assume Y and X are centered).
Testing wether(λ21=λ22 or θ=π/4[modπ/2]) at level α is done by testing if λ21=λ22 at level α/3 or if |β1|=1 at level α/3 .
la source