Le «théorème du déjeuner gratuit» s'applique-t-il aux tests statistiques généraux?

12

Une femme pour laquelle je travaillais m'a demandé de faire une ANOVA unidirectionnelle sur certaines données. J'ai répondu que les données étaient des données de mesures répétées (séries chronologiques) et que je pensais que l'hypothèse d'indépendance était violée. Elle a répondu que je ne devais pas m'inquiéter des hypothèses, juste faire le test et elle tiendrait compte du fait que les hypothèses n'étaient peut-être pas remplies.

Cela ne me semblait pas juste. J'ai fait quelques recherches et j'ai trouvé ce merveilleux article de blog de David Robinson, Le clustering K-means n'est pas un déjeuner gratuit , ce qui m'a exposé au théorème du déjeuner gratuit. J'ai regardé le document original et certains suivent des trucs, et franchement, les maths sont un peu au-dessus de ma tête.

L'essentiel - selon David Robinson - semble être que la puissance d'un test statistique vient de ses hypothèses. Et il donne deux excellents exemples. En parcourant les autres articles et articles de blog à ce sujet, il semble toujours être référencé en termes d'apprentissage supervisé ou de recherche.

Ma question est donc la suivante: ce théorème s'applique-t-il aux tests statistiques en général? En d'autres termes, peut-on dire que la puissance d'un test t ou d'une ANOVA vient de son adhésion aux hypothèses, et citer le théorème du déjeuner gratuit?

Je dois à mon ancien patron un document final concernant le travail que j'ai fait, et j'aimerais savoir si je peux me référer au théorème du déjeuner gratuit en déclarant que vous ne pouvez pas simplement ignorer les hypothèses d'un test statistique et dire que vous en tiendrez compte. compte lors de l'évaluation des résultats.

rwjones
la source
4
Pourquoi ne faites-vous pas simplement "secrètement" des mesures répétées d'ANOVA?
Horst Grünbusch
1
@ HorstGrünbusch En fait, les données et les tests ont déjà été discutés sur le forum, avec des questions spécifiques sur les mesures répétées ANOVA, et il s'avère qu'un modèle linéaire à effets mixtes est probablement le meilleur choix.
rwjones
2
C'est déjà une bonne réponse, donc une réponse plus désinvolte peut être ajoutée. Vous pourriez demander à votre patron exactement comment elle prendrait en compte les conséquences d'une violation des hypothèses ("être prudent" serait mieux que rien!). En bref, c'est un chemin long et difficile à acquérir suffisamment de compréhension et d'expérience pour savoir quand on peut se méfier des hypothèses. Beyond ANOVA de Rupert G.Miller (New York: Wiley, 1986 et réimpressions ultérieures) est une bonne source sur les conséquences et un thème majeur est que l'ignorance des hypothèses d'indépendance est l'une des choses les plus dangereuses que vous puissiez faire.
Nick Cox
1
@NickCox Eh bien, elle n'est plus mon patron, et cette situation particulière est la principale raison. C'était essentiellement l'aboutissement de beaucoup de réflexion bâclée et de gestion de projet bâclée de sa part dans un environnement de recherche par ailleurs décent. Cela mis à part, merci pour la recommandation du livre. À première vue, c'est l'une des choses que je cherche à citer dans mon rapport final.
rwjones

Réponses:

11

Je ne connais pas de preuve mais je parie que cela s'applique assez généralement. Un exemple est une expérience avec 2 sujets dans chacun des 2 groupes de traitement. Le test de Wilcoxon ne peut pas être significatif au niveau de 0,05, mais le test t peut l'être. On pourrait dire que sa puissance provient plus de la moitié de ses hypothèses et pas seulement des données. Pour votre problème d'origine, il ne convient pas de procéder comme si les observations par sujet étaient indépendantes. Prendre en compte les choses après coup n'est certainement pas une bonne pratique statistique, sauf dans des circonstances très particulières (par exemple, les estimateurs sandwich en grappes).

Frank Harrell
la source
2

Vous pouvez citer le théorème du déjeuner gratuit si vous le souhaitez, mais vous pouvez également citer le Modus Ponens (également connu sous le nom de loi du détachement , la base du raisonnement déductif), qui est la racine du théorème du déjeuner gratuit .

Le Théorème No Free Lunch englobe une idée plus spécifique: le fait qu'il n'y a pas d'algorithme qui puisse convenir à toutes les fins. En d'autres termes, le théorème du déjeuner gratuit dit essentiellement qu'il n'y a pas de solution miracle algorithmique . Cela trouve son origine dans le Modus Ponens, car pour qu'un algorithme ou un test statistique donne le résultat correct, vous devez satisfaire les prémisses.

Comme dans tous les théorèmes mathématiques, si vous violez les prémisses, le test statistique est simplement vide de sens et vous ne pouvez en tirer aucune vérité. Donc, si vous voulez expliquer vos données à l'aide de votre test, vous devez supposer que les prémisses requises sont remplies, si elles ne le sont pas (et vous le savez), alors votre test est complètement faux.

En effet , le raisonnement scientifique est basée sur la déduction: essentiellement, votre test / droit / théorème est une règle d'implication , qui dit que si vous avez la Prémisse Avous pouvez conclure B: A=>B, mais si vous n'avez pas A, vous pouvez soit avoir Bou non B, et les deux cas sont vrais , c'est l'un des principes de base de l'inférence / déduction logique (la règle Modus Ponens). En d'autres termes, si vous violez les prémisses, le résultat n'a pas d'importance et vous ne pouvez rien en déduire .

Rappelez-vous le tableau binaire d'implication:

A   B   A=>B
F   F    T
F   T    T
T   F    F
T   T    T

Donc, dans votre cas, pour simplifier, vous avez Dependent_Variables => ANOVA_correct. Maintenant, si vous utilisez des variables indépendantes, ce qui Dependent_Variablesest False, l'implication sera vrai, puisque l' Dependent_Variableshypothèse est violée.

Bien sûr, cela est simpliste, et dans la pratique, votre test ANOVA peut toujours renvoyer des résultats utiles car il y a presque toujours un certain degré d'indépendance entre les variables dépendantes, mais cela vous donne l'idée pourquoi vous ne pouvez pas simplement vous fier au test sans remplir les hypothèses .

Cependant, vous pouvez également utiliser des tests dont les prémisses ne sont pas satisfaites par l'original en réduisant votre problème: en relâchant explicitement la contrainte d'indépendance, votre résultat peut toujours être significatif, bien que non garanti (car alors vos résultats s'appliquent au problème réduit, pas au problème complet, vous ne pouvez donc pas traduire tous les résultats sauf si vous pouvez prouver que les contraintes supplémentaires du nouveau problème n'ont pas d'impact sur votre test et donc sur vos résultats).

Dans la pratique, cela est souvent utilisé pour modéliser des données pratiques, en utilisant par exemple Naive Bayes, en modélisant des variables dépendantes (au lieu d'indépendantes) en utilisant un modèle qui suppose des variables indépendantes et, étonnamment, cela fonctionne souvent très bien, et parfois mieux que les modèles comptables pour les dépendances . Vous pouvez également être intéressé par cette question sur la façon d'utiliser l'ANOVA lorsque les données ne répondent pas exactement à toutes les attentes .

Pour résumer: si vous avez l'intention de travailler sur des données pratiques et que votre objectif n'est pas de prouver un résultat scientifique mais de créer un système qui fonctionne simplement (c'est-à-dire un service Web ou toute autre application pratique), l'hypothèse d'indépendance (et peut-être d'autres hypothèses) peut être détendu, mais si vous essayez de déduire / prouver une vérité générale , alors vous devez toujours utiliser des tests que vous pouvez garantir mathématiquement (ou au moins en toute sécurité et de manière prouvable) que vous satisfaites à toutes les prémisses .

généreux
la source
2
Si je comprends bien votre argument, vous commencez par dire qu'aucune application de statistiques pour lesquelles les hypothèses ne sont pas exactement remplies n'est valable. Si c'est vrai, c'est vraiment une très mauvaise nouvelle. La plupart des livres d'économétrie (pour ne donner qu'un exemple) passent leur temps à expliquer que c'est faux (résumé en un mot) et en détail pourquoi. Cependant, vous semblez changer de cap au milieu et ce que vous préconisez à la place est alors flou. D'une manière ou d'une autre, travailler sur les données peut être sain même s'il n'est pas valide sur le plan logique. Je ne vois donc pas de ligne claire de conseils ici.
Nick Cox
Le fait est que si les prémisses sont violées, vous ne pouvez pas prendre les résultats du test à leur valeur nominale car l'inférence est biaisée. Cependant, vous pouvez toujours l'essayer et si vous êtes suffisamment confiant et expérimenté, vous pouvez toujours en tirer quelque chose, mais surtout sur des implémentations pratiques où en fait vous ne vous souciez pas du raisonnement scientifique (vous essayez simplement de modéliser les données pour un objectif pratique, ne pas essayer d'inférer une vérité générale bien fondée sur le monde). Donc ma réponse n'est pas un "résumé en un mot", c'est juste le cas général (faux) vs le cas spécifique (peut-être bien).
génial
PS: Ma déclaration ne concerne pas seulement les applications statistiques mais toute application d'un quelconque théorème / règle / test logique ou mathématique, ceci est vrai de tout raisonnement utilisant l'inférence et l'induction. Mais je suis intéressé par vos références de livres d'économétrie, l'autre référence que vous avez fournie dans un commentaire de la question du PO était très pertinente.
génial
Merci d'avoir ajouté un commentaire, mais je dois dire que je ne trouve pas votre déclaration particulièrement claire ou bien fondée. Je ne vois pas que les scientifiques qui travaillent (j'en suis un) comprendront votre distinction entre l'analyse de données pour le raisonnement scientifique et pour des objectifs pratiques. Je vais en rester là, sauf pour féliciter des manuels tels que ceux de Jeff Wooldridge, car en fait de longs essais sur lesquels les hypothèses sont cruciales, lesquelles ne le sont pas, et une grande zone grise entre les deux. amazon.com/Jeffrey-M.-Wooldridge/e/B001IGLWNY
Nick Cox
Merci pour la référence. Je viens de trouver une autre question où ils mentionnent un article qui explique pourquoi les hypothèses d'indépendance naïve peuvent toujours fonctionner sur des données avec des variables dépendantes: des fonctionnalités les unes des autres sont similaires / opposées entre les fonctionnalités " stats.stackexchange.com/a/23491/25538
gaborous