Beruflich Dokumente
Kultur Dokumente
Mesurer, c'est comparer une grandeur physique inconnue avec une grandeur de
même nature prise comme référence, à l'aide d'un instrument. C'est exprimer le
résultat de cette comparaison à l'aide d'une valeur numérique, associée à une
unité qui rappelle la nature de la référence, et assortie d'une incertitude qui
dépend à la fois des qualités de l'expérience effectuée et de la connaissance que
l'on a de la référence et de ses conditions d'utilisation.
Les méthodes et conventions qui régissent la définition, l'évaluation et
l'expression des résultats de mesure, unités et incertitudes sont partie intégrante
du langage commun, à vocation universelle, de la métrologie.
LE RÔLE DE LA MESURE
Page 1 sur10
globale, comme le système américain, Global Positioning System (GPS), et le
système russe, Global Navigation Satellite System (GLONASS).
Par ailleurs, la pratique de la médecine fait appel à des mesures délicates et
parfois difficiles tant pour les diagnostics qu'en thérapie, qu’il s’agisse
d’analyses chimiques ou de mesure des doses de rayonnements X ou y. En
agriculture, pour le contrôle des produits alimentaires et la protection de
l'environnement, les mesures prennent une importance croissante car elles
constituent à la fois la base d'un large éventail de dispositions législatives et le
moyen de vérifier que celles-ci sont respectées. Plus généralement, l’expertise
judiciaire s’appuie chaque jour davantage sur des résultats de mesure, du
simple contrôle de vitesse ou d’alcoolémie aux investigations les plus poussées
en matière, par exemple, de résistance des matériaux.
L’opération de mesure
Mesurer, c'est compter; c'est exprimer, sous forme d'une valeur numérique, la
grandeur physique caractérisant l'état d'un système. Plus précisément mesurer,
c'est comparer (2) ; c'est comparer une grandeur physique inconnue avec une
grandeur de même nature prise comme référence, à l'aide d'un instrument. C'est
exprimer le résultat de cette comparaison à l'aide d'une valeur numérique,
associée à une unité qui rappelle la nature de la référence, et assortie d'une
incertitude qui dépend à la fois des qualités de l'expérience effectuée et de la
connaissance que l'on a de la référence et de ses conditions d'utilisation.
La traçabilité
Mesurer a aussi pour finalité d'asseoir les résultats de mesure sur des bases
reconnues sans équivoque par plusieurs partenaires, que ce soit à des fins
scientifiques, commerciales, ou d'expertise légale. Cela nécessite l'existence de
références dont les caractéristiques sont clairement établies. Ce peut être la
référence de travail d'un établissement ou d'un laboratoire, périodiquement
étalonnée, par comparaison (à nouveau !) à une référence d'incertitude plus
faible, c'est-à-dire située à un niveau plus élevé dans ce qu'on appelle la
hiérarchie d'une chaîne d'étalonnage.
Au sein de cette hiérarchie, les comparaisons sont entreprises selon des
méthodes et des procédures de plus en plus élaborées et contraignantes. Le
stade ultime de la hiérarchie nationale est la matérialisation dite primaire des
unités les plus fondamentales permettant d'accéder à la grandeur. Il n'est plus
question alors d'étalonnage, mais de mise en pratique de la définition de l'unité.
Seules des intercomparaisons effectuées entre des montages indépendants
permettent de préciser l'incertitude, on dit l'exactitude de réalisation. Le Bureau
National de Métrologie est en France le garant de la traçabilité des mesures
(3).
Page 2 sur10
Ainsi, les « fournisseurs » de résultats de mesure et leurs « clients » ont besoin
d’exprimer ces résultats en utilisant des références reconnues sans équivoque
par chacun des acteurs et en exprimant de façon scientifiquement convenue
l’incertitude associée. Cet ensemble constitue, pour toutes les grandeurs
physiques, le langage (universel ?) de la métrologie (4).
Généralités
C'est dans le cadre du Système International d'Unités que sont élaborées les
références correspondant à l'ensemble des mesures physiques, références
disséminées à travers le monde entier. En fait, les premières tentatives
d'harmonisation des références remontent à la Révolution Française, à la fin du
18ème siècle.
Mais c'est en 1875 que la signature de la Convention du Mètre, traité
international qui régit la métrologie mondiale, auquel adhèrent aujourd'hui la
quasi totalité des états, précise le contour de l'actuel système de référence. Un
Comité International des Poids et Mesures (C.I.P.M.), assemblée de
scientifiques de différentes nations, fait des propositions aux diplomates de la
Conférence Générale des Poids et Mesures (C.G.P.M.) qui arrêtent les
nouvelles définitions, et chargent le Bureau International (B.I.P.M.) situé au
Pavillon de Breteuil, à Sèvres, de la mise en place des références et du pilotage
des intercomparaisons entre les divers étalons nationaux.
Ce système d'unités cohérent et rationalisé a couvert peu à peu l'ensemble du
champ disciplinaire des mesures physiques, en mécanique, électrodynamique,
et plus récemment thermodynamique, physico-chimie, photométrie.
Il repose sur sept grandeurs de base, pour lesquelles les définitions des unités
correspondantes ont été précisées : le mètre, la seconde, le kilogramme,
l'ampère, le kelvin, la mole, la candela. C'est un système évolutif qui tente de
mettre à profit les avancées les plus récentes de la science pour permettre aux
scientifiques et à tous les utilisateurs industriels de disposer des outils les plus
exacts, au sommet des chaînes d'étalonnage nationales qui garantissent la
traçabilité des mesures. Les structures nationales garantes de la traçabilité des
mesures inscrivent bien entendu leur action dans ce cadre.
Page 3 sur10
numérique d'une constante physique fondamentale, la vitesse de propagation
de la lumière c, qui vaut désormais exactement 299 792 458 ms-1. Étalon
macroscopique terrestre, prototype, étalon atomique, expression d'une loi
physique fondamentale fixant la valeur numérique en SI d'une constance
fondamentale, ces quatre définitions successives montrent que le système
d'unités évolue de façon pragmatique dans le sens de la prise en compte de
toujours d'avantage de sciences et de lois fondamentales.
De nombreux travaux sont entrepris pour obtenir une exactitude plus grande,
des références plus pérennes ou plus accessibles, ou encore pour élargir le
champ d’applications effectivement couvert. Ils portent principalement,
aujourd'hui, sur l'utilisation et la mise en oeuvre de phénomènes de physique
fondamentale. Dans le domaine électrique, - mais les recouvrements de ce
domaine avec les grandeurs énergétiques, et donc le kilogramme, sont
nombreux - on cherche à mettre à profit les effets quantiques macroscopiques
découverts au cours des trente dernières années : l'effet Josephson, aujourd'hui
pour la conservation du volt ; l'effet Hall quantique pour la conservation de
l'ohm ; les effets monoélectroniques dont la matérialisation pratique à un haut
niveau d'exactitude permettrait de boucler le triangle de la métrologie
quantique et d'introduire dans la détermination des constantes fondamentales h
(constante de Planck) et e (charge de l'électron) la redondance nécessaire à
l'estimation des incertitudes associées. De même les progrès en spectroscopie
atomique, ceux accomplis dans l'évaluation des caractéristiques des systèmes
microscopiques, permettent d'espérer de substantielles améliorations.
Aujourd'hui pour la seconde par exemple, la perspective d'obtenir et d'observer
expérimentalement des systèmes composés d'atomes pratiquement immobiles,
pratiquement isolés, et de construire à partir de ces atomes des horloges dans le
domaine optique, devient peu à peu une réalité grâce aux méthodes de
ralentissement et de refroidissement par laser. L'interférométrie atomique, dans
laquelle on met à profit le comportement ondulatoire de systèmes aussi lourds
que des atomes ou des molécules (qui doivent être ralentis de façon drastique)
permet d’utiliser ces atomes comme de très précises sondes locales et semble,
par exemple, une technique de gravimétrie prometteuse. L'Échelle
Page 4 sur10
Internationale de Température promulguée en 1990, et qui fait appel à un
instrument d'interpolation particulier (le thermomètre à résistance de platine)
entre des points fixes de référence nombreux, peut être utilement complétée
par la mise en oeuvre d'effets physiques nouveaux dans le domaine des très
basses températures, comme l’étude de la propagation du second son dans
l’hélium liquide. Les mesures de rayonnement reposent désormais sur la
radiométrie cryogénique à substitution électrique. Enfin d’importants efforts
sont engagés pour obtenir, à terme, une définition de l’unité de masse qui ne
fasse plus intervenir un prototype dont la pérennité n’est en aucun cas garanti :
expériences de mesure de flux magnétique dans des systèmes en lévitation
supraconductrice, de comparaison d’une puissance électrique à une puissance
mécanique, de comptage et de pesage simultanés d’ions lourds (susceptible de
raccorder, par une détermination meilleure de la constante d’Avogadro, une
masse atomique à une masse macroscopique au niveau d’exactitude requis)...
Page 5 sur10
les conditions dans lesquelles le raccordement des instruments et des
références a été effectué.
Une valeur mesurée n'est donc pas une valeur certaine: elle est issue de
résultats présentant une certaine dispersion, et de plus il existe une certaine
méconnaissance de la valeur de chaque correction individuelle, donc de la
correction totale. Une fois prises en compte toutes ces causes d'erreur, on
appelle incertitude de mesure le paramètre associé au résultat qui caractérise la
dispersion des valeurs numériques et qui ne peut être, raisonnablement,
attribuée au mesurande. En l'absence d’incertitude, il n'est plus possible, plus
pertinent, de comparer entre eux des résultats. Comment savoir, sans connaître
l'incertitude, si une grandeur a évolué, si tel procédé de mesure conduit au
même résultat, ou si la différence éventuellement observée ne tient qu'à des
phénomènes aléatoires mal maîtrisés dont l'origine peut être intrinsèquement
liée à la grandeur elle-même ? Comment, dans des conditions analogues,
comparer un résultat à des valeurs de référence spécifiées par exemple dans
une norme, un autre texte réglementaire, un contrat, et donc garantir la
conformité du produit ou du système ainsi caractérisé ?
Ces résultats bruts mettent en évidence, s'il en était besoin, l'existence d'une
dispersion des valeurs numériques Il convient d'apporter, pour chaque cause
d'erreur j et chaque biais identifiés, une correction Cj aux résultats bruts.
Chaque correction peut être déterminée expérimentalement ou analytiquement
Page 6 sur10
au moyen d'un modèle plus ou moins complexe et plus ou moins étayé sur des
considérations empiriques ou physiques. Un modèle affiné est fréquemment
utilisé pour décrire le comportement des instruments, en introduisant une
correction additive constante (un décalage de zéro...) et un facteur correctif
multiplicatif (la sensibilité...). On obtient alors la correction totale C (pouvant
dépendre éventuellement de i), les valeurs corrigées
Cette valeur n'est pas une valeur certaine: elle est issue de résultats présentant
une certaine dispersion, et de plus il existe une certaine méconnaissance de la
valeur de chaque correction individuelle, donc de la correction totale. Une fois
prises en compte toutes ces causes d'erreur, on appelle incertitude de mesure le
paramètre associé au résultat qui caractérise la dispersion des valeurs
numériques et qui peut être, raisonnablement, attribuée au mesurande. Deux
classes de méthodes permettent son évaluation (8).
Page 7 sur10
d'erreur identifiées, même lorsqu'elles n'apportent pas à priori de dispersion
aux résultats. On applique le même formalisme que pour les méthodes de type
A, à savoir évaluer l'incertitude sur la correction (correction qui peut être
nulle!) par une valeur Uj qu'on peut traiter comme un écart-type. Cette valeur
est déterminée à partir d'éléments tels que bibliographie sur les matériaux et
capteurs, notices des fournisseurs et constructeurs, certificats d'étalonnage,
rapport d'intercomparaisons, ... mais aussi à partir des connaissances et du
savoir faire de l'analyste et de l'opérateur. Cette manière de procéder revient,
dans certains cas, à postuler l'existence sous-jacente d'une loi de distribution
pour la correction considérée.
Pour obtenir l'incertitude Uc (écart-type) sur la correction totale, on applique
la loi de composition des variances qui s'écrit, dans l'hypothèse où causes
d'erreur et corrections sont non corrélées,
Incertitude-type
L'incertitude composée tient compte des incertitudes évaluées par les méthodes
de type A et de type B. Elle est obtenue en composant les variances associées
à et C, c'est à dire pour des mesurages bruts indépendants :
Page 8 sur10
Ce paragraphe illustre la détermination du budget d’incertitude permettant
d'évaluer l'incertitude associée à la mesure d'une résistance électrique d'environ
10 à l'aide d'un voltmètre numérique et d'un ampèremètre à aiguille
préalablement étalonnés.
Outre le biais introduit par le mode opératoire utilisé (courte dérivation, en
l’occurrence), une analyse des causes d'erreur qui imposent une correction a
conduit à l'inventaire suivant :
étalonnage du voltmètre, étalonnage de l'ampèremètre
incertitude élargie
0,05
Page 9 sur10
Dans ce cas élémentaire, la conclusion est simple. Si le niveau
d’incertitude atteint n’est pas suffisant pour l’application
envisagée, l’élimination ou la réduction de la composante
principale s’impose : meilleur étalonnage de l’ampèremètre,
meilleure caractérisation de cet instrument (effet de la
température, dérives, ...).
CONCLUSION
REFERENCES
Marc Himbert
Page 10 sur10