Mesurer, c’est comparer

La société s’appuie sur une infrastructure vaste, et souvent invisible, de services, de denrées, de réseaux de transport et de communication dont la présence nous est familière mais dont le bon fonctionnement est essentiel à la vie quotidienne.

La métrologie, ou science de la mesure, constitue une partie de cette infrastructure cachée car elle garantit qu’on peut accorder confiance aux mesures qui permettent la fabrication et les échanges de produits, l’analyse des phénomènes physiques et chimiques, le diagnostic médical, les hauts débits de communication, les systèmes de repérage, la définition et le contrôle des règles de sécurité…

Mesurer, c’est comparer une grandeur physique inconnue…

Mesurer, c’est comparer ; c’est comparer une grandeur physique inconnue avec une grandeur de même nature prise comme référence, à l’aide d’un instrument. C’est exprimer le résultat de cette comparaison à l’aide d’une valeur numérique, associée à une unité qui rappelle la nature de la référence, et assortie d’une incertitude qui dépend à la fois des qualités de l’expérience effectuée et de la connaissance que l’on a de la référence et de ses conditions d’utilisation.

De nombreuses causes d’erreur viennent affecter le résultat brut d’un mesurage : la grandeur mesurée elle-même est parfois mal définie, varie dans le temps, ou l’espace, ou bien est affectée par le procédé de mesure ; les capteurs et instruments utilisés présentent le cas échéant des défauts ; le mode opératoire utilisé introduit des erreurs ; de nombreuses “grandeurs d’influence” caractérisant les conditions d’ambiance influent sur le résultat… Il faut introduire des corrections pour compenser ces erreurs. Ce résultat n’est pas une valeur certaine: il est issu de résultats présentant une certaine dispersion, et de plus il existe une certaine méconnaissance de la valeur de chaque correction individuelle, donc de la correction totale. Une fois prises en compte toutes ces causes d’erreur, on appelle incertitude de mesure le paramètre associé au résultat qui caractérise la dispersion des valeurs numériques et qui peut être, raisonnablement, attribuée au mesurande.

Par ailleurs, les « fournisseurs » de résultats de mesure et leurs « clients » ont besoin d’exprimer les résultats en utilisant des références reconnues sans équivoque par chacun des acteurs et en exprimant de façon scientifiquement convenue l’incertitude associée. Cet ensemble constitue, pour toutes les pondeurs physiques, le langage (universel ?) de la métrologie.

…à une référence dont la traçabilité est établie…

La « stabilité » à long terme de notre système de mesures est particulièrement importante. On ne peut être sûr de mesures fiables et exactes présentant une stabilité à long terme que si l’on a recours à un système de mesures solidement liées à la physique fondamentale. Celle-ci, sur laquelle reposent toutes les techniques avancées actuelles, ne peut elle-même être fiable que si ses prévisions peuvent être vérifiées de façon quantitative. La vérification de théories physiques au moyen d’expérimentations dont l’exactitude est toujours plus grande et la détermination d’une série cohérente de constantes physiques fondamentales contribuent de façon essentielle aux progrès scientifiques et constituent une partie importante de l’activité que l’on désigne sous le nom de métrologie scientifique.

C’est dans le cadre du Système International d’Unités que sont élaborées les références correspondant à l’ensemble des mesures physiques, références disséminées à travers le monde entier.

En fait, les premières tentatives d’harmonisation des références remontent à la Révolution Française, à la fin du 18ème siècle. Mais c’est en 1875 que la signature de la Convention du Mètre, traité international qui régit la métrologie mondiale, auquel adhèrent aujourd’hui la quasi totalité des états, précise le contour de l’actuel système de référence. Un Comité International des Poids et Mesures (C.I.P.M.), assemblée de scientifiques de différentes nations, fait des propositions aux diplomates de la Conférence Générale des Poids et Mesures (C.G:P.M.) qui arrêtent les nouvelles définitions, et chargent le Bureau International (B.I.P.M.) situé au Pavillon de Breteuil, à Sèvres, de la mise en place des références et du pilotage des intercomparaisons entre les divers étalons nationaux.

…dans le cadre du Système International d’unités …

Ce système d’unités cohérent et rationalisé a couvert peu-à-peu l’ensemble du champ disciplinaire des mesures physiques, en mécanique, électrodynamique, et plus récemment thermodynamique, physico-chimie, photométrie. Il repose sur sept grandeurs de base, pour lesquelles les définitions des unités correspondantes ont été précisées : le mètre, la seconde, le kilogramme, l’ampère, le kelvin, la mole, la candela. C’est un système évolutif qui tente de mettre à profit les avancées les plus récentes de la science pour permettre aux scientifiques et à tous les utilisateurs industriels de disposer des outils les plus exacts, au sommet des chaînes d’étalonnage nationales qui garantissent la traçabilité des mesures. Les structures nationales garantes de la traçabilité des mesures inscrivent bien entendu leur action dans ce cadre.

Les définitions obtenues ont pour objectif d’assurer la pérennité, l’uniformité, l’accessibilité et la plus grande exactitude possible des références ; elles sont de type très varié. A cet égard l’exemple du mètre, qui a connu en deux siècles quatre définitions successives, est intéressant pour appréhender ces évolutions; d’abord lié à un système supposé invariable, la longueur du méridien terrestre (1795), le mètre devient en 1889 associé au prototype international, étalon matériel particulier en plaine iridié ; les progrès de la spectroscopie et de la physique quantique conduise à retenir en 1960 un multiple de la longueur d’onde d’une radiation résonante sur une transition dans l’atome de krypton.

En 1983, la définition du mètre change une dernière fois : il est désormais établi à partir du phénomène de propagation de la lumière dans le vide. La définition traduit l’existence d’une loi physique fondamentale et impose le gel de la valeur numérique d’une constante physique fondamentale, la vitesse de propagation de la lumière c, qui vaut désormais exactement 299 792 458 ms-1. Étalon macroscopique terrestre, prototype, étalon atomique, expression d’une loi physique fixant la valeur numérique en SI d’une constante fondamentale, ces quatre définitions successives montrent que ce système d’unités évolue de façon pragmatique dans le sens de la prise en compte de toujours davantage de science et de lois fondamentales.

Les autres unités de base du SI traduisent cette variété de définitions : la seconde est aujourd’hui réalisée avec une exactitude relative de 10 -14, à l’aide d’une horloge atomique, matérialisant la période d’une transition dans l’atome de césium ; le kilogramme reste défini par le biais d’un prototype, dont les copies peuvent être étalonnées à quelques 10-9 près ; la définition de l’ampère exprime la loi de Laplace et permet d’établir au dixième de millionième près les principaux étalons du domaine électriques; le kelvin fait référence à la matérialisation du point triple de l’eau pure, réalisée en pratique au dixième de millilkelvin près ; la mole relie, par l’intermédiaire de la masse de l’isotope 12 de l’atome de carbone, les grandeurs à l’échelle atomique aux grandeurs macroscopiques ; enfin la candela assure, à quelques millièmes près, le raccordement entre les grandeurs radiométriques et le domaine photométrique au sein duquel il est fait usage d’un instrument de mesure particulier, “l’oeil humain moyen”.

….qui met à profit les effets nouveaux de la physique fondamentale

De nombreux travaux sont entrepris pour obtenir une exactitude plus grande, des références plus pérennes ou plus accessibles. Ils portent principalement, aujourd’hui, sur l’utilisation et la mise en oeuvre de phénomènes de physique fondamentale. Dans le domaine électrique, mais les recouvrements de ce domaine avec les grandeurs énergétiques, et donc le kilogramme, sont nombreux, on cherche à mettre à profit les effets quantiques macroscopiques découverts au cours des trente dernières années : l’effet Josephson, aujourd’hui pour la conservation du volt ; l’effet Hall quantique pour la conservation de l’ohm ; les effets monoélectriques dont la matérialisation pratique à un haut niveau d’exactitude permettrait de boucler le triangle de la métrologie quantique et d’introduire dans la détermination des constantes fondamentales h (constante de Planck) et e (charge de l’électron) la redondance nécessaire à l’estimation des incertitudes associées.

De même les progrès en spectroscopie atomique, ceux accomplis dans l’évaluation des caractéristiques des systèmes microscopiques, permettent d’espérer de substantielles améliorations. Aujourd’hui pour la seconde par exemple, la perspective d’obtenir et d’observer expérimentalement des systèmes composés d’atomes pratiquement immobiles, pratiquement isolés, et de construire à partir de ces atomes des horloges dans le domaine optique, devient peu à peu une réalité grâce aux méthodes de ralentissement et de refroidissement par laser. L’interférométrie atomique semble une technique de gravimétrie prometteuse. L’Echelle Internationale de Température promulguée en 1990, et qui fait appel à un instrument d’interpolation particulier (le thermomètre à résistance de platine) entre des points fixes de référence nombreux, peut être utilement complétée par la mise en oeuvre d’effets physiques nouveaux dans le domaine des très basses températures… etc.

Il y a cinquante ans G.A.BOUTRY, professeur au CNAM et directeur du Laboratoire National d’Essais, estimait dans son opuscule intitulé “Introduction à l’art de la mesure” que pour accomplir les opérations les plus spectaculaires de la physique, il est nécessaire de mesurer quelques temps, quelques longueurs, quelques masses, directement ou d’une autre manière. Pour garantir aujourd’hui la traçabilité des mesures de temps, masse, longueur, au profit des scientifiques qui testent les théories physiques comme dans les cas plus directement applicables au monde industriel ou dédiés à la satisfaction des besoins de notre société, il est nécessaire que, dans les laboratoires, les métrologues accomplissent certaines des opérations parmi les plus spectaculaires de la physique moderne.

Marc Himbert

Journées Mesures Physiques, Métrologie et Qualité. BNM-IUT Paris-Jussieu, CNAM, 26.27 mai 1997. Avec l’aimable autorisation de Marc Himbert, professeur CNAM, Directeur scientifique du Laboratoire commun de métrologie LNE-CNAM

Bibliographie sommaire

QUINN, T.J., Metrology, its role in today’s world, Rapport BIPM 94/5, 1994
BNM, Etalons et unités, Afnor, ed., 1996.
BIPM, Le système international d’unités (SI) 6° édition, 1991.
Metrologia Special issue on physical units, vol.31, n°6, pp. 403-541, February 1995.
GIACOMO, P., Mesure et métrologie, Bulletin du BNM n°101, 1, Chiron ed., 1995.
Guide to the expression of uncertainty in measurement (GUM), ISO, 1993. Version Française en 1995
Vocabulaire international des termes fondamentaux et généraux de métrologie (VIM), ISO, 1993 N.f x 07 011.
RANSON, C. (1994) Introduction à la lecture du “guide pour l’expression des incertitudes de mesures”. Bulletin du Bureau National de Métrologie, n°103, janvier 1996.
HIMBERT, M., Le mètre: l’aventure continue… Bulletin du BNM n°93, 1, Chiron ed., 1993.
B.W.PETLEY, The Physical fundamental constants and the frontier of measurement, épuisé.