L'instrument AUDIT est essentiellement une échelle de Likert. Un ensemble de questions (éléments de Likert), avec des réponses souvent sur une échelle de cinq points, est conçu pour aborder un phénomène sous-jacent. La somme des réponses à l'ensemble des questions, l'échelle de Likert, est ensuite utilisée comme mesure du phénomène sous-jacent. Bien que les éléments Likert sont souvent sur une échelle de « fortement en désaccord » à « fortement d' accord » , l'application pour mesurer une tendance à « A lcohol U se D isorders » dans ce « je DENTIFICATION T est » est simple.
Comme indiqué dans la page Wikipédia de l'échelle de Likert , "La question de savoir si les éléments de Likert individuels peuvent être considérés comme des données au niveau de l'intervalle, ou s'ils doivent être traités comme des données catégorielles ordonnées fait l'objet d'un désaccord considérable dans la littérature, avec de fortes convictions sur ce qui est les méthodes les plus applicables. " Ce différend remonte probablement à la majeure partie des 80 ans et plus depuis que Likert a proposé la première échelle: chaque étape de l'échelle est-elle équivalente, à la fois à l'intérieur et entre les éléments qui composent l'échelle? Le problème a été résolu sur la validation croisée, comme dans les réponses à cette question , l'une des premières questions posées sur ce site.
Si vous acceptez l'idée que l'échelle comporte des étapes qui sont uniformes (ou suffisamment proches pour être uniformes pour l'application en question, peut-être moyennées en ajoutant 10 éléments différents, comme dans AUDIT), alors plusieurs approches d'analyse sont possibles. L'une consiste à considérer la réponse sur l'échelle comme une série d'étapes choisies ou non pour monter l'échelle, avec la même probabilité de monter chacune des étapes.
Cela permet de penser aux « données d'échelle de Likert à n points comme à n essais d'un processus binomial» , comme dans une question de 2010 de @MikeLawrence. Bien que les réponses à cette question ne soient pas très favorables à cette idée, il n'a pas été difficile de trouver rapidement aujourd'hui une étude de 2014 qui a utilisé et étendu cette approche avec succès pour distinguer les sous-populations avec différentes probabilités binomiales. Bien qu'un processus binomial soit souvent utilisé pour modéliser les données de comptage, il peut donc être utilisé pour modéliser le nombre, le comptage, des mesures qu'un individu a prises le long de l'échelle des «troubles liés à la consommation d'alcool».
Comme @Scortchi l'a noté dans une réponse à la question liée au deuxième paragraphe, une limitation du modèle binomial est qu'il impose une relation particulière entre la moyenne et la variance de la réponse. Le binôme négatif supprime cette restriction, avec la perte de l'interprétation facile fournie par le modèle binomial simple. Dans l'analyse, le paramètre supplémentaire qui doit être ajusté n'utilise qu'un degré de liberté supplémentaire. En revanche, essayer de spécifier des probabilités différentes pour chacune des 40 étapes de Likert et leur somme dans l'échelle de Likert serait intimidant.
Comme @MatthewGraves l'a noté dans sa réponse à cette question, il est préférable de déterminer si le modèle binomial négatif est approprié en examinant les résidus. Dans l' étude originale qui a développé AUDIT, une valeur de 8 ou plus sur l'échelle de 40 points avait une spécificité et une sensibilité tout à fait raisonnables pour distinguer les personnes diagnostiquées pour "consommation dangereuse ou nocive d'alcool", dans 6 pays différents. Alors peut-être qu'un modèle binomial à deux populations basé sur des populations à risque élevé et à faible risque, similaire à l'étude de 2014 liée ci-dessus, serait mieux.
Les personnes intéressées par AUDIT en particulier devraient examiner cette étude originale. Par exemple, bien que le besoin d'une boisson le matin puisse sembler mesurer quelque chose de complètement différent de la fréquence de la consommation d'alcool, comme l'a supposé @SeanEaster, la consommation du matin a une corrélation moyenne pondérée de 0,73 avec une échelle de mesures de la consommation d'alcool. (Ce résultat n'est pas surprenant pour quelqu'un qui a eu des amis souffrant de troubles liés à la consommation d'alcool.) L'AUDIT semble être un bon exemple des compromis nécessaires pour développer un instrument qui peut être utilisé de manière fiable dans plusieurs cultures.
La distribution binomiale négative est préférée pour les événements discrets "contagieux". Une distribution de Poisson est utilisée lorsque les événements discrets sont indépendants. Ces distributions sont également assez faciles à tronquer, en remplaçant le point par un point , en gros.x=40 x≥40
En règle générale, les différentes saveurs de la régression ont des priorités différentes pour les paramètres (c'est-à-dire la régularisation) et différents modèles de bruit. La régression standard des moindres carrés a un modèle de bruit gaussien, la régression binomiale négative a un modèle de bruit binomial négatif, etc. Le véritable test pour déterminer si un modèle de régression est approprié est de savoir si le bruit résiduel a ou non la distribution attendue.
Vous pouvez donc appliquer une régression binomiale négative à vos données, calculer les résidus, puis les tracer sur un tracé de probabilité binomiale négative, et avoir une idée de l'adéquation ou non du modèle. Si le bruit est structuré d'une autre manière, alors nous devons chercher un modèle de bruit qui correspond mieux à cette structure.
Le raisonnement du modèle génératif à la structure de bruit est utile - si nous savons que les données sont multiplicatives au lieu d'additives, par exemple, nous atteignons la lognormale au lieu de la normale - mais si le modèle génératif attendu et la structure de bruit ne sont pas d'accord, aller avec les données, pas les attentes.
la source