C'est une opportunité bienvenue pour discuter et clarifier ce que signifient les modèles statistiques et comment nous devons y penser. Commençons par les définitions, afin que la portée de cette réponse ne fasse aucun doute, et continuons à partir de là. Pour garder ce message court, je limiterai les exemples et renoncerai à toutes les illustrations, en faisant confiance au lecteur pour pouvoir les fournir par expérience.
Définitions
Il semble possible de comprendre le «test» dans un sens très général comme signifiant tout type de procédure statistique: non seulement un test d'hypothèse nulle, mais aussi une estimation, une prédiction et une prise de décision, dans un cadre fréquentiste ou bayésien. En effet, la distinction entre "paramétrique" et "non paramétrique" est distincte des distinctions entre les types de procédures ou des distinctions entre ces cadres.
Quoi qu'il en soit, ce qui rend une procédure statistique, c'est qu'elle modélise le monde avec des distributions de probabilité dont les caractéristiques ne sont pas entièrement connues. De manière très abstraite, nous concevons des donnéesX comme résultant du codage numérique des valeurs des objets ω ∈ Ω; les données particulières que nous utilisons correspondent à unω; et il y a une loi de probabilitéF qui a en quelque sorte déterminé la ω nous avons réellement.
Cette loi de probabilité est supposée appartenir à un ensemble Θ. Dans un cadre paramétrique , les élémentsF∈ Θ correspondent à des collections finies de nombres θ ( F), les paramètres. Dans un cadre non paramétrique , il n'y a pas une telle correspondance. Ceci est généralement dû au fait que nous ne sommes pas disposés à faire des hypothèses solides surF.
La nature des modèles
Il semble utile de faire une autre distinction qui est rarement discutée. Dans certaines circonstances,Fest sûr d'être un modèle entièrement précis pour les données. Plutôt que de définir ce que j'entends par «entièrement précis», permettez-moi de donner un exemple. Faites un relevé d'une population finie et bien définie dans laquelle les observations sont binaires, aucune ne manquera et il n'y a aucune possibilité d'erreur de mesure. Un exemple pourrait être le test destructif d'un échantillon aléatoire d'objets sortant d'une chaîne de montage, par exemple. Le contrôle que nous avons sur cette situation - connaître la population et pouvoir sélectionner l'échantillon de manière vraiment aléatoire - garantit l'exactitude d'un modèle binomial pour les dénombrements résultants.
Dans de nombreux - peut-être la plupart - autres cas, Θn'est pas «entièrement précis». Par exemple, de nombreuses analyses supposent (implicitement ou explicitement) queFest une distribution normale. C'est toujours physiquement impossible, car toute mesure réelle est soumise à des contraintes physiques sur sa plage possible, alors qu'il n'y a pas de telles contraintes sur les distributions normales. Nous savons d'emblée que les hypothèses normales sont fausses!
Dans quelle mesure un modèle non entièrement précis pose-t-il un problème? Considérez ce que font les bons physiciens. Lorsqu'un physicien utilise la mécanique newtonienne pour résoudre un problème, c'est parce qu'il sait qu'à cette échelle particulière - ces masses, ces distances, ces vitesses - la mécanique newtonienne est plus que suffisamment précise pour fonctionner. Elle choisira de compliquer son analyse en considérant les effets quantiques ou relativistes (ou les deux) uniquement lorsque le problème l'exige. Elle connaît les théorèmes qui montrent, quantitativement, comment la mécanique newtonienne est un cas limite de la mécanique quantique et de la relativité restreinte. Ces théorèmes l'aident à comprendre quelle théorie choisir. Cette sélection n'est généralement pas documentée ni même défendue; cela peut même se produire inconsciemment: le choix est évident.
Un bon statisticien a toujours en tête des considérations comparables. Lorsqu'elle sélectionne une procédure dont la justification repose sur une hypothèse de normalité, par exemple, elle évalue dans quelle mesure leFpourrait s'écarter du comportement normal et de la façon dont cela pourrait affecter la procédure. Dans de nombreux cas, l'effet probable est si faible qu'il n'a même pas besoin d'être quantifié: elle "assume la Normalité". Dans d'autres cas, l'effet probable est inconnu. Dans de telles circonstances, elle effectuera des tests de diagnostic pour évaluer les écarts par rapport à la normalité et leurs effets sur les résultats.
Conséquences
Cela commence à sonner comme si le paramètre non entièrement précis n'était guère distinct du paramètre non paramétrique: y a-t-il vraiment une différence entre l'hypothèse d'un modèle paramétrique et l'évaluation de la façon dont la réalité s'en écarte, d'une part, et l'hypothèse d'un modèle non paramétrique d'autre part? Au fond, les deux sont non paramétriques.
À la lumière de cette discussion, réexaminons les distinctions conventionnelles entre les procédures paramétriques et non paramétriques.
"Les procédures non paramétriques sont robustes." Donc, dans une certaine mesure, toutes les procédures doivent l' être. Le problème n'est pas de la robustesse contre la non-robustesse, mais de la robustesse d'une procédure. Combien et de quelle manière le vraiF s'écarter des distributions dans l'hypothèse Θ? En fonction de ces départs, dans quelle mesure les résultats des tests sont-ils affectés? Ce sont des questions de base qui s'appliquent dans n'importe quel cadre, paramétrique ou non.
"Les procédures non paramétriques ne nécessitent pas de test de qualité d'ajustement ou de test de distribution." Ce n'est généralement pas vrai. «Non paramétrique» est souvent qualifié à tort de «sans distribution», dans le sens où il permetFêtre littéralement n'importe quelle distribution, mais ce n'est presque jamais le cas. Presque toutes les procédures non paramétriques font des hypothèses qui restreignentΘ. Par exemple,X pourrait être divisé en deux ensembles pour comparaison, avec une distribution F0 régissant un ensemble et une autre distribution F1gouvernant l'autre. Peut-être aucune hypothèse n'est faite surF0, maisF1 est supposé être une version traduite de F0. C'est ce que supposent de nombreuses comparaisons de tendance centrale. Le point est qu'il ya est une hypothèse précise faite au sujetF dans de tels tests et il mérite d'être vérifié autant que toute hypothèse paramétrique pourrait l'être.
"Les procédures non paramétriques ne font pas d'hypothèses." Nous l'avons vu. Ils ont seulement tendance à émettre des hypothèses moins contraignantes que les procédures paramétriques.
Une focalisation indue sur paramétrique vs non paramétrique pourrait être une approche contre-productive. Il ignore le principal objectif des procédures statistiques, qui est d'améliorer la compréhension, de prendre de bonnes décisions ou de prendre les mesures appropriées. Les procédures statistiques sont sélectionnées en fonction de leur efficacité attendue dans le contexte du problème, à la lumière de toutes les autres informations et hypothèses sur le problème, et en fonction des conséquences pour toutes les parties prenantes du résultat.
La réponse à "est-ce que ces distinctions sont importantes" semble donc être "pas vraiment".