Comment déterminez-vous la précision d'un appareil de mesure?

10

Disons que vous avez un appareil de mesure dont vous ne connaissez pas la précision et un appareil de mesure de référence. Les deux mesurent une variable $ x $. La plage d'intérêt est de $ x_0 & lt; x & lt; x_1 $. Comment déterminez-vous la précision du périphérique inconnu dans cette plage?

Mon plan d’action serait de rassembler des valeurs pour les deux appareils de $ x_0 $ à $ x_1 $ et de créer une distribution les erreurs . le précision pourrait alors être l'erreur span, $ \ pm3 \ sigma $ ou quelque chose de similaire - est-ce correct?

Hypothèses:

  • Le dispositif de mesure de référence est calibré et ne présente pratiquement aucune erreur
John H. K.
la source
Tout d'abord, le dispositif de référence de mesure doit être correctement étalonné. Ensuite, la précision peut être déterminée par l'entrée minimale pour laquelle il y a un changement dans la sortie. Ex. dans les pieds à coulisse, l’entrée minimale est la distance.
Fennekin
J'ai ajouté l'hypothèse qu'il est calibré. - Je ne sais pas vraiment comment appliquer votre exemple avec des pieds à coulisse
John H. K.
1
ok, donc «exactitude» ou «exactitude» selon votre référence? Il semblerait que vous deviez d'abord déterminer la justesse du dispositif de référence, en supposant la précision indiquée pour le dispositif, puis comparer votre lecture moyenne sur le dispositif de test pour déterminer la justesse, puis calculer la variance pour déterminer la précision. Je pense que la plupart d'entre nous les "anciens" utilisons la "précision" pour cette "vérité" nouvelle.
Carl Witthoft

Réponses:

2

Votre approche est globalement correcte.

Si vous êtes seulement intéressé par la précision de votre système, vous voudrez probablement utiliser quelque chose comme l'erreur maximale. Votre précision est alors +/- Max erreur en supposant que les erreurs réelles sont uniformément distribuées dans cette plage (une distribution uniforme sera souvent une surestimation, mais une option simple si aucune meilleure information n’est disponible).

Cependant, cette approche produira souvent de grandes erreurs en raison d'effets systématiques qui peuvent facilement être corrigés en ajustant une courbe (normalement linéaire) à l'aide du graphique des valeurs mesurées et vraies.

Cela devrait corriger le biais de votre instrument et vous pouvez ensuite calculer l'incertitude en fonction de l'écart type des résidus. L’incertitude totale est normalement un multiple de $ \ sigma $, le choix est assez arbitraire, vous devez donc indiquer le multiple (valeur k) ou le facteur de couverture associé. quel multiple donne une couverture spécifique. Par exemple. Pour une couverture gaussienne à 95%, k ~ 2, mais pour une distribution uniforme, une couverture à 95%, k ~ 1,68

nivag
la source
Comme vous l'avez dit, le choix est arbitraire, mais existe-t-il une norme commune? J'ai souvent rencontré des fiches techniques qui disaient simplement "Précision: + -Y", sans préciser s'il s'agissait de 2sigma, 3sigma, etc. ...
John H. K.
@ JohnH.K. 2 $ \ sigma $ est normalement l'intervalle par défaut ou un intervalle de confiance de 95%. Ne pas préciser en quoi ce n'est pas une bonne pratique. Bien que si on dit juste précision, je pense / espère que cela parle d'une erreur maximale tolérée.
nivag
D'après mon expérience, les fiches techniques sont souvent un fouillis de termes peu clairs et de valeurs mal définies (les soldes sont encore pires).
nivag
3

Le seul moyen de déterminer la précision à laquelle tout appareil de mesure fournit des mesures consiste à le calibrer par rapport à un appareil de précision connue et aux erreurs de mesure connues.

Votre technique est partiellement correcte; ne vous contentez pas de mesurer les erreurs pour les limites de l'appareil sous la forme d'une population ou d'un échantillon. En effet, les erreurs de mesure ne sont pas toujours uniformes.

Par exemple, pour les lectures comprises entre 0 & amp; 1, l’erreur peut être de -0,2 et pour les lectures comprises entre 2 & amp; 3 l'erreur peut être +0,6. Vos tests doivent être effectués dans des plages ou des bandes, que les unités soient mm (pour les règles), m / s (pour les anémomètres ou les compteurs de vitesse) ou Pa (pour les baromètres).

Pour chaque plage / bande, vous déterminez l'erreur pour cette plage / bande, puis vous appliquez cette erreur à la mesure prise sur l'appareil à étalonner.

Fred
la source
Ce serait avec l'hypothèse que je veux calibrer l'appareil - ce que je ne voulais pas. Je veux juste l'évaluer. Je comprends votre exemple et je vais plus loin: vous avez maintenant une erreur -0.2 pour le premier "bin", une erreur +0.6 pour le second, etc. un seul numéro, qu'est-ce que vous utilisez? Écart type pour toutes les erreurs?
John H. K.
Comment pouvez-vous "évaluer" sans générer simultanément des informations fournissant un étalonnage?
Carl Witthoft
@CarlWitthoft Eh bien, vous générez des informations pour le calibrage, mais il peut ne pas être possible d'intégrer ces informations dans l'appareil ou de les rendre disponibles sous une autre forme pour l'utilisateur.
John H. K.
@CarlWitthoft thefreedictionary.com/calibrate pas d'accord avec moi. Je pense toujours qu'il y a une différence entre déterminer l'exactitude et améliorer un dispositif en rendant ces informations disponibles, mais je ne pense pas que nous progressions en nous disputant à propos de cette définition.
John H. K.
1
"Le seul moyen de déterminer la précision ... consiste à le calibrer avec un appareil de précision connue" n'est pas vrai. Si c'était le cas, nous ne pourrions jamais calibrer nos appareils les plus précis. Pour déterminer la précision des instruments pour lesquels il n'existe pas d'appareil plus précis, comparez-le à des copies identiques de lui-même (ou utilisez un raisonnement physique).
Chris Mueller
1

J'étais dans une équipe d'ingénieurs qualité (mais pas l'un des experts) et ils avaient un visuel où ils ont utilisé un tracé 2D où l'axe X était la première mesure et Y était la deuxième mesure du même élément observable.

Ils répètent la mesure / mesure et créent ce qu'ils appellent une "carte de saucisse". Ils élimineraient les 2% restants des échantillons et feraient un "saucisson" autour du reste.

Vous pouvez voir visuellement la qualité du système de mesure en observant à quelle distance les points de données sont tombés par rapport à la ligne d'angle à 45 degrés.

Baronz
la source