Afin d'évaluer et d'utiliser le résultat d'un mesurage, une déclaration sur la qualité du résultat doit être faite en plus de la valeur estimée déterminée du mesurande. L'indication de l'incertitude de mesure renforce la confiance dans les résultats de mesure et permet la comparaison de différentes mesures.
L'incertitude est directement liée au fait qu'un mesurage n'est jamais parfait et que ces imperfections vont générer une erreur sur la valeur numérique obtenue (voir Erreur de mesure).
L'incertitude, quant à elle, fait appel à la non-disponibilité des facteurs qui affectent la précision des conclusions. Ceci est une faiblesse qui est bien connue dans l'évaluation des risques – par exemple, l'identification des dangers peut être incomplète.
a) JUSTIFICATION DES INCERTITUDES: La justification des incertitudes et les formules d'incertitude s'inscrivent sous le tableau. On justifie la valeur que l'on a choisie pour l'incertitude absolue de chacune des quantités mesurées. Pour cela, il faut identifier et évaluer chacune des contributions à cette incertitude.
Étant donné que les erreurs aléatoires doivent être réparties uniformément autour de la valeur réelle, le fait de prendre plusieurs mesures et de calculer une moyenne peut généralement atténuer l'effet des erreurs aléatoires.
Action de déterminer la valeur (de certaines grandeurs) par comparaison avec une grandeur constante de même espèce. ➙ évaluation ; -métrie. Système de mesure.
La pression de ligne impacte négativement la précision et la répétabilité de la mesure. La pression statique peut avoir un effet sur le zéro du transmetteur ainsi que sur l'étendue de mesure. Un étalonnage sur le terrain peut contribuer à éliminer les effets de pression statique du process.
Pour rendre compte du degré d'approximation auquel nous travaillerons, nous devrons estimer les erreurs commises dans les diverses mesures et nous devrons calculer leurs conséquences dans les résultats obtenus. C'est le but du calcul d'erreur ou calcul d'incertitude.
La manière la plus simple pour calculer l'incertitude à partir de l'ensemble des valeurs du mesurande est d'utiliser la demi-étendue. L'étendue de la mesure est égale à la différence entre la valeur la plus grande et la valeur la plus petite du mesurande.
L'incertitude est déterminée à partir du calcul de l'écart type d'un ensemble de valeurs. A utiliser lorsque l'on dispose d'une série de valeurs répétées. Cette méthode est coûteuse en temps. Elle est plus particulièrement utilisée pour exprimer l'incertitude de répétabilité du process de mesure.
Le principe est énoncé pour la première fois en 1927, par le physicien allemand Werner Heisenberg.
L'incertitude absolue est notée avec au maximum 2 chiffres significatifs. C'est la dernière décimale de l'incertitude absolue qui fixe le nombre de C.S. de la grandeur estimée. X = Xe ± U(X) signifie que la grandeur mesurée est comprise entre Xe – U(X) et Xe + U(X).
Pour réduire les incertitudes sur une mesure, et donc effectuer une mesure plus précise, on peut tout d'abord utiliser un instrument de mesure plus précis. Par exemple, dans le cas de notre règle graduée, une règle graduée tous les millimètres aurait permis de déterminer la longueur de l'objet au millimètre près.
1. Caractère de ce qui est incertain : L'incertitude de son avenir préoccupe ses parents. 2. État de quelqu'un qui ne sait quel parti prendre, ou état plus ou moins préoccupant de quelqu'un qui est dans l'attente d'une chose incertaine : Être dans une profonde incertitude et incapable de se décider.
Quelle que soit sa source, l'incertitude ne peut jamais être éliminée de l'expérimentation et, contrairement à l'erreur systématique, elle ne peut être corrigée.
La précision de mesure d'un instrument de mesure est souvent désignée par le terme « précision de base ». Cette valeur possède l'unité [%] et indique de quel pourcentage maximum le résultat mesuré par l'instrument peut s'écarter de la valeur physiquement correcte.
L'incertitude relative n'a pas d'unités et s'exprime en général en % (100∆x/x). Exemple 2: une balance d'analyse de laboratoire permet de peser typiquement à ± 0,1 mg près. Si la pesée est de 10 mg l'incertitude absolue est ± 0,1 mg. L'incertitude relative est 1%.
Parfois, la seule manière de gérer l'incertitude consiste donc à lâcher-prise et à accepter qu'elle fait partie de notre réalité. À un moment donné, il y aura des choix difficiles à faire et il nous faudra apprendre à vivre avec.
Synonyme : anxiété, doute, embarras, flottement, hésitation, indécision, indétermination, irrésolution, perplexité, scepticisme, vacillement.
Par exemple, l'incertitude de cette mesure doit se présenter ainsi : 60 cm ± 2 cm et non : 60 cm ± 2,2 cm. Si votre mesure est de 3,4 cm, alors l'incertitude doit être donnée à 0,1 cm. Par exemple, l'incertitude de cette mesure doit se présenter ainsi : 3,4 cm ± 0,1 cm et non : 3,4 cm ± 1 cm.
Elle s'exprime via la formule suivante : « erreur = valeur mesurée - valeur vraie ». En réalité, il est difficile d'obtenir la valeur vraie, qu'importe la précision de la mesure. La valeur mesurée implique donc inévitablement un certain degré d'incertitude.
Mesure du temps
Les mesures de temps sont effectuées avec un chronomètre électronique précis au 1/100 de seconde. On doit ajouter une incertitude de 0,2 à 0,5 seconde pour tout intervalle de temps chronométré à cause du temps de réaction de l'expérimentateur.
L'erreur de justesse est l'erreur globale résultant de toutes les causes pour chacun des résultats de mesure pris isolément. C'est donc l'aptitude de l'appareil à donner des résultats qui ne sont pas entachés d'erreur. Dans le cas de mesures multiples c'est l'écart entre le résultat moyen et la valeur vraie.
En métrologie, dans un mesurage, une erreur de mesure est la « différence entre la valeur mesurée d'une grandeur et une valeur de référence ». un mesurage peut être composé de une ou plusieurs valeurs mesurées.
Il existe plusieurs stratégies qui peuvent être utilisées pour minimiser les erreurs de mesure, notamment l'utilisation d'instruments de mesure plus précis, l'augmentation de la taille de l'échantillon et l'utilisation de plusieurs mesures de la même variable.