Quelqu'un peut-il m'expliquer pourquoi quelqu'un choisirait-il une méthode statistique paramétrique plutôt qu'une méthode statistique non paramétrique pour le test d'hypothèses ou l'analyse de régression?
Dans mon esprit, c'est comme opter pour le rafting et choisir une montre qui ne résiste pas à l'eau, car il se peut que vous ne l' ayez pas mouillé. Pourquoi ne pas utiliser l'outil qui fonctionne à chaque occasion?
Réponses:
Rarement, si jamais, un test paramétrique et un test non paramétrique ont réellement la même valeur nulle. Le test paramétrique teste la moyenne de la distribution, en supposant que les deux premiers moments existent. Le test de somme des rangs de Wilcoxon ne suppose aucun moment et teste plutôt l’égalité des distributions. Son paramètre implicite est une fonction bizarre des distributions, la probabilité que l'observation d'un échantillon soit inférieure à l'observation de l'autre. Vous pouvez en quelque sorte parler de comparaisons entre les deux tests sous le null complètement spécifié de distributions identiques ... mais vous devez reconnaître que les deux tests testent des hypothèses différentes.t
Les informations fournies par les tests paramétriques et leur hypothèse permettent d’améliorer la puissance des tests. Bien entendu, ces informations ont intérêt à être exactes, mais il n’existe que très peu de domaines de la connaissance humaine de nos jours où de telles informations préliminaires n’existent pas. Une exception intéressante qui dit explicitement "je ne veux rien présumer" est la salle d'audience où les méthodes non paramétriques continuent d'être très populaires - et cela est parfaitement logique pour l'application. Il y a probablement une bonne raison, Phillip Good, que Phillip Good soit l'auteur de bons livres sur les statistiques non paramétriques et les statistiques d'audience .
Il existe également des situations de test où vous n'avez pas accès aux microdonnées nécessaires au test non paramétrique. Supposons que l'on vous demande de comparer deux groupes de personnes pour déterminer si l'un est plus obèse que l'autre. Dans un monde idéal, vous aurez des mesures de la taille et du poids pour tout le monde et vous pourrez former un test de permutation par stratification en fonction de la hauteur. Dans un monde moins qu'idéal (c.-à-d. Réel), vous pouvez n'avoir que la taille moyenne et le poids moyen de chaque groupe (ou certaines plages ou variations de ces caractéristiques au-dessus de la moyenne de l'échantillon). Votre meilleur choix est alors de calculer l’IMC moyen pour chaque groupe et de les comparer si vous n’avez que les moyens; ou supposons une normale à deux variables pour la taille et le poids si vous avez des moyennes et des variances (vous devrez probablement prendre une corrélation à partir de données externes si elles ne venaient pas avec vos échantillons),
la source
Comme d'autres l'ont écrit: si les conditions préalables sont remplies, votre test paramétrique sera plus puissant que le test non paramétrique.
Dans votre analogie de montre, le non-résistant à l'eau serait beaucoup plus précis, sauf si elle est mouillée. Par exemple, votre montre résistante à l'eau pourrait être décalée d'une heure dans les deux sens, alors que la montre non résistante à l'eau serait précise ... et vous devez prendre un bus après votre sortie en rafting. Dans un tel cas, il pourrait être judicieux d'emporter avec vous la montre non résistante à l'eau et de vous assurer qu'elle ne soit pas mouillée.
Point bonus: les méthodes non paramétriques ne sont pas toujours faciles. Oui, une alternative de test de permutation à at test est simple. Mais une alternative non paramétrique à un modèle linéaire mixte avec de multiples interactions bidirectionnelles et des effets aléatoires imbriqués est un peu plus difficile à configurer qu’un simple appel à
nlme()
. Je l’ai fait en utilisant des tests de permutation et, d’après mon expérience, les valeurs p des tests paramétriques et des tests de permutation ont toujours été assez proches les unes des autres, même si les résidus du modèle paramétrique étaient relativement anormaux. Les tests paramétriques sont souvent étonnamment résistants aux écarts par rapport à leurs conditions préalables.la source
Bien que je convienne que dans de nombreux cas, les techniques non paramétriques sont favorables, il existe également des situations dans lesquelles les méthodes paramétriques sont plus utiles.
Concentrons-nous sur la discussion "test t à deux échantillons versus test de somme des rangs de Wilcoxon" (sinon nous devons écrire un livre entier).
la source
Dans les tests d'hypothèses, les tests non paramétriques testent souvent différentes hypothèses, ce qui explique pourquoi on ne peut pas toujours substituer un test non paramétrique à un test paramétrique.
la source
Les modèles semi-paramétriques présentent de nombreux avantages. Ils proposent des tests tels que le test de Wilcoxon comme cas particulier, mais permettent d’estimer les ratios d’effet, les quantiles, les moyennes et les probabilités de dépassement. Ils s'étendent aux données longitudinales et censurées. Ils sont robustes dans l'espace Y et invariants de la transformation, sauf pour l'estimation des moyennes. Voir http://biostat.mc.vanderbilt.edu/rms un lien vers la documentation du cours pour un exemple détaillé / une étude de cas.
la source
Parmi la multitude de réponses fournies, je voudrais également attirer l'attention sur les statistiques bayésiennes. Certains problèmes ne peuvent pas être résolus uniquement par des probabilités. Un Frequentist utilise un raisonnement contrefactuel dans lequel la "probabilité" fait référence à des univers alternatifs et un cadre d'univers alternatifs n'a pas de sens pour inférer l'état d'un individu, tel que la culpabilité ou l'innocence d'un criminel, ou le goulot d'étranglement de la fréquence des gènes les espèces exposées à un changement environnemental massif ont conduit à son extinction. Dans le contexte bayésien, la probabilité est une "croyance" et non une fréquence, qui peut être appliquée à celle qui a déjà précipité.
Maintenant, la majorité des méthodes bayésiennes nécessitent de spécifier pleinement des modèles de probabilité pour le précédent et le résultat. Et, la plupart de ces modèles de probabilité sont paramétriques. Conformément à ce que disent d'autres personnes, il n'est pas nécessaire que ces informations soient exactement correctes pour produire des résumés significatifs des données. "Tous les modèles sont faux, certains modèles sont utiles."
Il existe bien sûr des méthodes bayésiennes non paramétriques. Celles-ci ont beaucoup de rides statistiques et, en général, nécessitent une utilisation précise de données démographiques complètes.
la source
La seule raison pour laquelle je réponds malgré toutes les bonnes réponses ci-dessus est que personne n’a attiré l’attention sur la première raison pour laquelle nous utilisons des tests paramétriques (du moins dans l’analyse des données de physique des particules). Parce que nous connaissons la paramétrisation des données. Duh! C'est un gros avantage. Vous résumez vos centaines, milliers et millions de points de données dans les quelques paramètres qui vous intéressent et décrivez votre distribution. Celles-ci vous indiquent la physique sous-jacente (ou tout ce que la science vous communique).
Bien sûr, si vous n’avez aucune idée de la densité de probabilité sous-jacente, vous n’avez pas le choix: utilisez des tests non paramétriques. Les tests non paramétriques ont l'avantage de ne comporter aucun parti pris préconçu, mais peuvent être plus difficiles à mettre en œuvre - parfois beaucoup plus difficiles.
la source
La statistique non paramétrique a ses propres problèmes! L’un d’eux est l’accent mis sur les tests d’hypothèses, nous avons souvent besoin d’estimations et d’intervalles de confiance, et leur utilisation dans des modèles compliqués avec des paramètres non paramétriques est - compliquée. Il existe un très bon article sur ce blog, avec discussion, à l' adresse http://andrewgelman.com/2015/13/13/dont-do-the-wilcoxon/. La discussion mène à cet autre article, http: // notstatschat. tumblr.com/post/63237480043/rock-paper-scissors-wilcoxon-test , recommandé pour un point de vue très différent sur Wilcoxon. La version courte est la suivante: le test de Wilcoxon (et d’autres tests de rangs) peut entraîner une non-transitivité.
la source
Je dirais que les statistiques non paramétriques sont plus généralement applicables en ce sens qu'elles supposent moins d'hypothèses que les statistiques paramétriques.
Néanmoins, si l’on utilise une statistique paramétrique et que les hypothèses sous-jacentes sont remplies, les statistiques paramatriques seront alors plus puissantes que les statistiques non paramétriques.
la source
Les statistiques paramétriques sont souvent des moyens d’incorporer des connaissances externes [aux données]. Par exemple, vous savez que la distribution des erreurs est normale et que cette connaissance provient d'une expérience antérieure ou d'une autre considération et non de l'ensemble de données. Dans ce cas, en supposant une distribution normale, vous intégrez cette connaissance externe à vos estimations de paramètres, ce qui doit améliorer vos estimations.
Sur votre analogie montre. De nos jours, presque toutes les montres sont résistantes à l'eau, à l'exception des pièces spéciales avec des bijoux ou des matériaux inhabituels comme le bois. La raison pour les porter est précisément cela: ils sont spéciaux. Si vous voulez dire résistant à l'eau, de nombreuses montres habillées ne le sont pas. La raison de les porter est encore une fois leur fonction: vous ne porteriez pas une montre de plongée avec une suite et une cravate. De plus, ces dernières années, de nombreuses montres se sont ouvertes afin que vous puissiez regarder le mouvement à travers le cristal. Naturellement, ces montres ne sont généralement pas étanches.
la source
Ce n'est pas un scénario de test d'hypothèse, mais il peut constituer un bon exemple pour répondre à votre question: considérons l'analyse en grappes. Il existe de nombreuses méthodes de clustering "non paramétriques" telles que le clustering hiérarchique, K-means, etc., mais le problème est toujours de savoir si votre solution de clustering est "meilleure" que d'autres solutions possibles (et il existe souvent de multiples solutions possibles). . Chaque algorithme vous donne le meilleur qu’il peut obtenir, mais comment savoir s’il n’ya rien de mieux ..? Maintenant, il existe également des approches paramétriques de la mise en grappe, dite de la mise en grappe basée sur un modèle, comme les modèles de mélange finis. Avec FMM, vous construisez un modèle statistique décrivant la distribution de vos données et l’adaptez-vous à ces données. Lorsque vous avez votre modèle, vous pouvez évaluer la probabilité de vos données avec ce modèle, vous pouvez utiliser des tests de rapport de vraisemblance, comparer les AIC et utiliser plusieurs autres méthodes pour vérifier l'ajustement du modèle et la comparaison de modèles. Les algorithmes de classification non paramétriques ne font que regrouper des données en utilisant des critères de similarité, tandis que l'utilisation de FMM vous permet de décrire et de comprendre vos données, de vérifier son exactitude, de faire des prédictions ... Dans la pratique, les approches non paramétriques sont simples: travaillez bien que bien que les FMM soient problématiques, les approches basées sur des modèles fournissent souvent des résultats plus riches.
la source
Les prévisions et les prévisions basées sur de nouvelles données sont souvent très difficiles, voire impossibles, pour les modèles non paramétriques. Par exemple, je peux prévoir le nombre de demandes de garantie pour les 10 prochaines années à l'aide d'un modèle de survie Weibull ou Lognormal, mais cela n'est pas possible avec le modèle de Cox ou Kaplan-Meier.
Edit: Laissez-moi être un peu plus clair. Si une entreprise a un produit défectueux, elle est souvent intéressée par la projection du taux de demande de garantie futur et du CDF en fonction des demandes de garantie actuelles et des données de vente. Cela peut les aider à décider si un rappel est nécessaire ou non. Je ne sais pas comment vous faites cela en utilisant un modèle non paramétrique.
la source
Je crois honnêtement qu'il n'y a pas de bonne réponse à cette question. À en juger par les réponses données, le consensus est que les tests paramétriques sont plus puissants que les équivalents non paramétriques. Je ne contesterai pas ce point de vue, mais je le vois davantage comme un point de vue hypothétique que factuel, car ce n’est pas enseigné explicitement dans les écoles et aucun relecteur ne vous dira jamais "votre article a été rejeté parce que vous avez utilisé des tests non paramétriques". Cette question concerne un sujet auquel le monde des statistiques est incapable de répondre clairement, mais qu’il tient pour acquis.
Mon opinion personnelle est que la préférence de paramétrique ou non paramétrique a plus à voir avec la tradition qu'autre chose (faute d'un meilleur terme). Les techniques paramétriques de test et de prédiction existaient en premier et ont une longue histoire. Il n'est donc pas facile de les ignorer complètement. Prediction, en particulier, propose d’impressionnantes solutions non paramétriques qui sont largement utilisées de nos jours comme outil de premier choix. Je pense que c'est l'une des raisons pour lesquelles les techniques d'apprentissage automatique telles que les réseaux de neurones et les arbres de décision, qui ne sont pas paramétriques par nature, sont devenues très populaires ces dernières années.
la source
C'est une question de puissance statistique. Les tests non paramétriques ont généralement une puissance statistique inférieure à celle de leurs homologues paramétriques.
la source
Beaucoup de bonnes réponses déjà, mais il y a des raisons que je n'ai pas vu mentionnées:
Familiarité. Selon votre public cible, le résultat paramétrique peut être beaucoup plus familier qu'un résultat non paramétrique à peu près équivalent. Si les deux donnent des conclusions similaires, la familiarité est bonne.
Simplicité. Parfois, le test paramétrique est plus simple à réaliser et à rapporter. Certaines méthodes non paramétriques sont très gourmandes en ordinateur. Bien sûr, les ordinateurs sont devenus beaucoup plus rapides et les algorithmes se sont également améliorés, mais ... les données sont devenues "plus volumineuses".
la source