Je connais bien l'utilisation de régressions linéaires multiples pour créer des modèles de diverses variables. Cependant, j'étais curieux de savoir si des tests de régression sont jamais utilisés pour effectuer une sorte de test d'hypothèse de base. Si oui, à quoi ressembleraient ces scénarios / hypothèses?
regression
hypothesis-testing
multiple-regression
cryptic_star
la source
la source
Réponses:
Voici un exemple simple. Je ne sais pas si vous connaissez R, mais j'espère que le code est suffisamment explicite.
Maintenant, voyons à quoi cela ressemble:
Nous pouvons nous concentrer sur la section "Coefficients" de la sortie. Chaque paramètre estimé par le modèle obtient sa propre ligne. L'estimation réelle elle-même est répertoriée dans la première colonne. La deuxième colonne répertorie les erreurs types des estimations, c'est-à-dire une estimation de la quantité d'estimations qui «rebondiraient» d'un échantillon à l'autre, si nous répétions ce processus encore et encore et encore. Plus précisément, il s'agit d'une estimation de l'écart-type de la distribution d'échantillonnage de l'estimation. Si nous divisons chaque estimation de paramètre par son SE, nous obtenons un score t , qui est répertorié dans la troisième colonne; ceci est utilisé pour le test d'hypothèse, spécifiquement pour tester si l'estimation du paramètre est «significativement» différente de 0. La dernière colonne est lap-value associée à ce t-score. C'est la probabilité de trouver une valeur estimée aussi éloignée ou éloignée de 0, si l'hypothèse nulle était vraie. Notez que si l'hypothèse nulle n'est pas vraie, il n'est pas clair que cette valeur nous dit quoi que ce soit de significatif du tout.
Si nous regardons en arrière entre le tableau des coefficients et le véritable processus de génération de données ci-dessus, nous pouvons voir quelques choses intéressantes. L'ordonnée à l'origine est estimée à -1,8 et son SE est à 27, alors que la vraie valeur est à 15. Étant donné que la valeur p associée est de 0,95, elle ne serait pas considérée comme «significativement différente» de 0 (une erreur de type II ), mais elle se situe néanmoins à l' intérieur d' un SE de la valeur réelle. Il n'y a donc rien de terriblement extrême dans cette estimation du point de vue de la valeur réelle et du montant qu'elle devrait fluctuer; nous avons simplement un pouvoir insuffisant pour le différencier de 0. La même histoire vaut, plus ou moins, pour.21214 ≈ .2
x1
x2
x3
x1
prédit la variable de réponse mieux que le hasard seul. Une autre façon de le dire est de savoir si toutes les estimations ne doivent pas être considérées comme non différenciables de 0. Les résultats de ce test suggèrent qu'au moins certaines des estimations de paramètres ne sont pas égales à 0, une autre décision correcte. Puisqu'il y a 4 tests ci-dessus, nous n'aurions aucune protection contre le problème des comparaisons multiples sans cela. (Gardez à l'esprit que parce que les valeurs de p sont des variables aléatoires - si quelque chose est significatif varierait d'une expérience à l'autre, si l'expérience était réexécutée - il est possible qu'elles ne soient pas cohérentes les unes avec les autres. CV ici: Signification des coefficients en régression multiple: test t significatif vs statistique F non significative, et la situation inverse ici: comment une régression peut-elle être significative mais tous les prédicteurs peuvent-ils être non significatifs , et ici: les statistiques F et t dans une régression .) Peut-être curieusement, il n'y a pas d' erreurs de type I dans cet exemple. Quoi qu'il en soit, les 5 tests examinés dans ce paragraphe sont tous des tests d'hypothèse.D'après votre commentaire, je suppose que vous pouvez également vous demander comment déterminer si une variable explicative est plus importante qu'une autre. C'est une question très courante, mais assez délicate. Imaginez vouloir prédire le potentiel de réussite dans un sport en fonction de la taille et du poids d'un athlète et se demander ce qui est le plus important. Une stratégie courante consiste à chercher quel coefficient estimé est le plus élevé. Cependant, ces estimations sont spécifiques aux unités qui ont été utilisées: par exemple, le coefficient de poids changera selon que des livres ou des kilogrammes sont utilisés. De plus, il n'est pas très clair comment assimiler / comparer les livres et les pouces, ou les kilogrammes et les centimètres. Une stratégie que les gens utilisent consiste à normaliserR2 r = r2--√
la source
Le test essentiel dans les modèles de régression est le test Full-Reduced. C'est là que vous comparez 2 modèles de régression, le modèle complet contient tous les termes et le test réduit a un sous-ensemble de ces termes (le modèle réduit doit être imbriqué dans le modèle complet). Le test teste ensuite l'hypothèse nulle selon laquelle le modèle réduit s'adapte aussi bien que le modèle complet et toute différence est due au hasard.
Les impressions courantes à partir de logiciels statistiques incluent un test F global, c'est juste le test Full-Reduced où le test réduit est un modèle d'interception uniquement. Ils impriment également souvent une valeur de p pour chaque prédicteur individuel, il ne s'agit que d'une série de tests de modèle entièrement réduit, dans chacun, le modèle réduit n'inclut pas ce terme spécifique. Il existe de nombreuses façons d'utiliser ces tests pour répondre à des questions d'intérêt. En fait, presque tous les tests enseignés dans un cours d'introduction aux statistiques peuvent être calculés à l'aide de modèles de régression et du test de réduction complète et les résultats seront identiques dans de nombreux cas et une approximation très proche dans les quelques autres.
la source