Quelqu'un peut-il me dire la différence entre les marges d'erreur et les intervalles de confiance? Sur Internet, je vois ces deux significations s'utiliser de manière interchangeable.
Est-il juste de dire:
"Les intervalles de confiance sont représentés par 1,96 et affichés sur les graphiques comme des marges d'erreur"?
Réponses:
Internet est plein d'ordures, comme nous le savons tous. Il permet de trouver des sources faisant autorité et de se concentrer sur elles pour résoudre ces problèmes. Une brochure publiée par l' American Statistical Association (attribuée à Fritz Scheuren et «soigneusement mise à jour vers 1997») définit la marge d'erreur comme un intervalle de confiance à 95% (p. 64, à droite).
À la lumière de cela, il est surprenant que l'article de Wikipedia sur la marge d'erreur utilise une définition différente, même s'il fait référence à cette brochure! Wikipédia écrit,
En d'autres termes, pour Wikipedia, le MoE est la moitié de la largeur maximale d'un ensemble d'intervalles de confiance (qui peuvent avoir des couvertures différentes de 95%).
Nous avons discuté de cette confusion (ou, du moins, du manque de standardisation) dans des commentaires ailleurs sur ce site. Nous avons conclu que vous devez être clair sur ce que vous entendez par «marge d'erreur» chaque fois que vous utilisez ce terme.
la source
Il n'y a pas de convention universellement suivie sur ce qu'est une "marge d'erreur" mais je pense (comme vous l'avez observé) qu'elle est le plus souvent utilisée comme signifiant le rayon d'un intervalle de confiance , soit dans l'échelle d'origine de l'estimation, soit en pourcentage d'une estimation. Parfois, il est utilisé comme synonyme de «l'erreur standard», vous devez donc faire attention à ce que les autres comprennent ce que vous voulez dire lorsque vous l'utilisez.
Un « intervalle de confiance » ne possède convention universelle sur sa signification. Il s'agit essentiellement de la plage d'estimations possibles générée par un processus d'estimation qui contiendrait, X% du temps (95% étant le plus couramment utilisé), la vraie valeur du paramètre estimé. Ce concept de "processus" qui produirait la vraie valeur X% du temps est un peu contre-intuitif et ne doit pas être mélangé avec un "intervalle de crédibilité" de l'inférence bayésienne, qui a une définition beaucoup plus intuitive, mais est pas la même chose que l'intervalle de confiance largement utilisé.
Votre devis réel est un peu compliqué et nécessite quelques corrections mineures, comme décrit. J'éviterais cette utilisation supplémentaire du mot "marge" et privilégierais les "barres d'erreur". Donc:
"Les intervalles de confiance sont estimés à 1,96 multiplié par les erreurs types pertinentes et affichés sur les graphiques sous forme de barres d'erreur."
(Cela met de côté la question de savoir si c'est un bon moyen de calculer les intervalles de confiance, qui dépend de votre modèle, etc. et n'est pas pertinent).
Dernier commentaire sur la terminologie - je n'aime pas «l'erreur type», qui signifie simplement «l'écart type de l'estimation»; ou "erreur d'échantillonnage" en général - je préfère penser en termes de caractère aléatoire et de variance des statistiques plutôt qu'en termes "d'erreurs". Mais j'ai glissé dans l'utilisation du terme "erreur standard" ci-dessus parce qu'il est si largement utilisé, je suppose.
la source