Comment expliquez-vous la différence entre risque relatif et risque absolu?

12

L'autre jour, j'ai eu une consultation avec un épidémiologiste. Elle est MD avec un diplôme en santé publique en épidémiologie et possède beaucoup de connaissances statistiques. Elle encadre ses chercheurs et résidents et les aide à résoudre des problèmes statistiques. Elle comprend assez bien les tests d'hypothèses. Elle avait un problème typique de comparer deux groupes pour voir s'il y avait une différence dans le risque lié à une insuffisance cardiaque congestive (CHF). Elle a testé la différence moyenne dans la proportion de sujets recevant une CHF. La valeur de p était de 0,08. Ensuite, elle a également décidé d'examiner le risque relatif et a obtenu une valeur de p de 0,027. Elle a donc demandé pourquoi l'un est important et l'autre non. En examinant des intervalles de confiance bilatéraux à 95% pour la différence et pour le rapport, elle a vu que l'intervalle de différence moyenne contenait 0 mais la limite de confiance supérieure pour le rapport était inférieure à 1. Alors, pourquoi obtenons-nous des résultats incohérents. Ma réponse, bien que techniquement correcte, n'était pas très satisfaisante. J'ai dit: «Ce sont des statistiques différentes et peuvent donner des résultats différents. Les valeurs de p sont toutes deux dans le domaine de marginalement significatives. Cela peut facilement se produire. Je pense qu'il doit y avoir de meilleures façons de répondre en termes simples aux médecins pour les aider à comprendre la différence entre tester le risque relatif et le risque absolu. Dans les études d'épi, ce problème se pose souvent car ils examinent souvent des événements rares où les taux d'incidence pour les deux groupes sont très faibles et les tailles d'échantillon ne sont pas très grandes. J'y ai réfléchi un peu et j'ai quelques idées que je partagerai. Mais j'aimerais d'abord savoir comment certains d'entre vous géreraient cela. Je sais que beaucoup d'entre vous travaillent ou consultent dans le domaine médical et ont probablement fait face à ce problème. Qu'est-ce que tu ferais?

Michael R. Chernick
la source
Les modèles incluent-ils d'autres covariables en plus de l'effet de groupe?
onestop
@onestop Il existe des covariables qu'ils souhaitent examiner, mais le test réel ne faisait que comparer l'effet principal. Si vous souhaitez commenter en supposant que le test était basé sur un modèle de régression ou un événement, supposez que nous ayons eu le temps de donner des données sur les événements pour s'adapter à un modèle de régression de Cox, n'hésitez pas à commenter. J'aimerais entendre vos idées. Ma question porte sur le problème général et pas seulement sur l'exemple spécifique.
Michael R. Chernick
Je veux dire, le test comparant l'effet principal (groupe) a-t-il été ajusté pour les covariables, ou non ajusté? S'il n'est pas ajusté, il pourrait être utile de nous donner le tableau 2 × 2, ou un tableau similaire, pour concentrer les idées.
onestop
Non ajusté pour ces tests particuliers.
Michael R. Chernick

Réponses:

7

Eh bien, d'après ce que vous avez déjà dit, je pense que vous avez couvert l'essentiel de la question, mais il suffit de le mettre dans sa langue: l'un est une différence de risques, l'autre est un rapport. Ainsi, un test d'hypothèse demande si tandis que l'autre demande si . Parfois, ce sont "proches", parfois non. (Fermez entre guillemets parce qu'ils ne sont clairement pas proches au sens arithmétique habituel). Si le risque est rare, ceux-ci sont généralement «très éloignés». par exemple (loin de 1) tandis que (près de 0); mais si le risque est élevé, ils sont alors "proches": (loin de 0) et (également loin de 0, du moins par rapport au cas rare.p 2p2p1=0.002/.001=2.002-.001=.001.2/.1=2.2-.1=.1p2p1=1.002/.001=2.002.001=.001.2/.1=2.2.1=.1

Peter Flom - Réintégrer Monica
la source
2
Vous avez une de mes idées là-dedans, lorsque le nombre est petit, ce qui est courant dans l'étude des faibles taux d'incidence, les différences semblent petites mais les ratios semblent toujours importants. Votre exemple numérique est très convaincant. Je suis tenté d'ajouter quelque chose sur la stabilité des estimations sous l'hypothèse nulle. Pour certains, cela peut être trop technique, mais à son niveau de sophistication peut-être pas. Supposons que les deux populations aient des distributions nominales moyennes nulles et une variance commune connue. La différence normalisée est alors N (0,1) sous l'hypothèse nulle donnant une statistique de test très stable.
Michael R. Chernick
1
Mais selon ces hypothèses, le ratio a une distribution de Cauchy et peut être très grand. Peut-être que cet argument doit être modifié car les taux d'incidence doivent être positifs et peut-être que la distribution est très biaisée. Je suppose que ce que je veux, c'est un exemple montrant que la différence a une distribution très stable et le rapport ne l'est pas spécialement parce que la taille de l'échantillon est petite et que le dénominateur peut être très proche de 0. Quelqu'un a-t-il un bon exemple illustratif?
Michael R. Chernick
@Peter Avez - vous l' intention d'écrire trois s pas deux? Si oui, pourriez-vous définir votre notation? pi
onestop
Je pense qu'il voulait dire p1 quand il a écrit p0. Juste une erreur de base. Avoir trois ps dans ce contexte n'a aucun sens.
Michael R. Chernick
1
J'ai fait le changement pour Peter. Criez-moi si je fais quelque chose de mal!
Michael R. Chernick
6

N'oubliez pas que dans les deux tests, vous testez une hypothèse complètement différente avec des hypothèses différentes. Les résultats ne sont pas comparables, et c'est une erreur beaucoup trop courante.

Dans le risque absolu, vous testez si la différence (moyenne) de proportion diffère considérablement de zéro. L'hypothèse sous-jacente dans le test standard pour cela suppose que les différences de proportion sont normalement distribuées. Cela peut tenir pour de petites proportions, mais pas pour de grandes. Techniquement, vous calculez la probabilité conditionnelle suivante:

P(p1p2=0|X)

p1p2Xb

p=a+bX+ϵ

ϵN(0,σ)

X

P(log(p1p2)=0|X)

ce qui revient à tester la pente dans le modèle logistique suivant:

log(p1p)=a+bX+ϵ

log(p1p)

La raison pour laquelle cela fait une différence est donnée dans la réponse de Peter Flom: une petite différence dans les risques absolus peut conduire à une grande valeur pour les cotes. Donc, dans votre cas, cela signifie que la proportion de personnes atteintes de la maladie ne diffère pas considérablement, mais les chances d'être dans un groupe sont considérablement plus élevées que les chances d'être dans l'autre groupe. C'est parfaitement sensé.

Joris Meys
la source
1
Je pense que nous sommes tous d'accord jusqu'à présent pour dire que la principale raison du problème est que de petites différences de risque absolu peuvent entraîner de grandes différences de risque relatif. Après tout, 0,2 à 1 présente le même risque relatif que 0,0002 à 0,0001. Je pense que c'est le message que nous pouvons transmettre au profane. Votre explication est excellente pour les statisticiens, mais je ne suis pas sûr qu'elle serait facilement comprise par un profane et on pourrait dire "Et si vous testez une hypothèse différente.
Michael R. Chernick
Vous essayez toujours de déterminer où les tarifs sont différents ou non. Ainsi, même si les hypothèses sont différentes, les résultats doivent être cohérents. Après tout, p1-p2 = 0 est le même que p1 / p2 = 1. "Je pense donc que le fait que les hypothèses soient différentes passe à côté et n'est pas une explication satisfaisante.
Michael R. Chernick
@MichaelChernick J'étais sur le point de dire que les différences de proportion sont conditionnelles, et l'odds ratio ne l'est pas. Mais ce n'est pas le cas, les deux donnent exactement le même résultat après transposition de la table (dans le cas d'une table 2X2). J'ai exécuté des simulations, mais je ne peux pas forcer les valeurs de p prop.test(ou chisq.testcomme c'est équivalent dans le cas 2x2) et fisher.testêtre à plus de 0,005 d'intervalle. Je me demande donc quels tests elle a utilisés ...
Joris Meys
Ce serait soit le chi carré, soit le test de Fisher. Probablement le test de Fisher parce qu'elle sait dans de petits échantillons que l'approximation du chi carré n'est pas bonne. Quand je fais des statistiques pour eux, j'utilise SAS. Elle a fait son travail en utilisant STATA. Je peux probablement déterrer le tableau actuel.
Michael R. Chernick
2
log(p1p0)=log(p1)log(p0)p1p0