Disons que vous avez un appareil de mesure dont vous ne connaissez pas la précision et un appareil de mesure de référence. Les deux mesurent une variable $ x $. La plage d'intérêt est de $ x_0 & lt; x & lt; x_1 $. Comment déterminez-vous la précision du périphérique inconnu dans cette plage?
Mon plan d’action serait de rassembler des valeurs pour les deux appareils de $ x_0 $ à $ x_1 $ et de créer une distribution les erreurs . le précision pourrait alors être l'erreur span, $ \ pm3 \ sigma $ ou quelque chose de similaire - est-ce correct?
Hypothèses:
- Le dispositif de mesure de référence est calibré et ne présente pratiquement aucune erreur
measurements
statistics
metrology
John H. K.
la source
la source
Réponses:
Votre approche est globalement correcte.
Si vous êtes seulement intéressé par la précision de votre système, vous voudrez probablement utiliser quelque chose comme l'erreur maximale. Votre précision est alors +/- Max erreur en supposant que les erreurs réelles sont uniformément distribuées dans cette plage (une distribution uniforme sera souvent une surestimation, mais une option simple si aucune meilleure information n’est disponible).
Cependant, cette approche produira souvent de grandes erreurs en raison d'effets systématiques qui peuvent facilement être corrigés en ajustant une courbe (normalement linéaire) à l'aide du graphique des valeurs mesurées et vraies.
Cela devrait corriger le biais de votre instrument et vous pouvez ensuite calculer l'incertitude en fonction de l'écart type des résidus. L’incertitude totale est normalement un multiple de $ \ sigma $, le choix est assez arbitraire, vous devez donc indiquer le multiple (valeur k) ou le facteur de couverture associé. quel multiple donne une couverture spécifique. Par exemple. Pour une couverture gaussienne à 95%, k ~ 2, mais pour une distribution uniforme, une couverture à 95%, k ~ 1,68
la source
Le seul moyen de déterminer la précision à laquelle tout appareil de mesure fournit des mesures consiste à le calibrer par rapport à un appareil de précision connue et aux erreurs de mesure connues.
Votre technique est partiellement correcte; ne vous contentez pas de mesurer les erreurs pour les limites de l'appareil sous la forme d'une population ou d'un échantillon. En effet, les erreurs de mesure ne sont pas toujours uniformes.
Par exemple, pour les lectures comprises entre 0 & amp; 1, l’erreur peut être de -0,2 et pour les lectures comprises entre 2 & amp; 3 l'erreur peut être +0,6. Vos tests doivent être effectués dans des plages ou des bandes, que les unités soient mm (pour les règles), m / s (pour les anémomètres ou les compteurs de vitesse) ou Pa (pour les baromètres).
Pour chaque plage / bande, vous déterminez l'erreur pour cette plage / bande, puis vous appliquez cette erreur à la mesure prise sur l'appareil à étalonner.
la source
J'étais dans une équipe d'ingénieurs qualité (mais pas l'un des experts) et ils avaient un visuel où ils ont utilisé un tracé 2D où l'axe X était la première mesure et Y était la deuxième mesure du même élément observable.
Ils répètent la mesure / mesure et créent ce qu'ils appellent une "carte de saucisse". Ils élimineraient les 2% restants des échantillons et feraient un "saucisson" autour du reste.
Vous pouvez voir visuellement la qualité du système de mesure en observant à quelle distance les points de données sont tombés par rapport à la ligne d'angle à 45 degrés.
la source