Épistémologie de la mesureLa mesure, ou, plus rigoureusement, le mesurage, est une opération qui associe une qualité donnée d'un phénomène à un nombre — la mesure[1] — et à une unité conventionnelle appropriée à cette qualité, par une série d'opérations que définit la méthode expérimentale. Cette opération fait partie des fondements de la démarche scientifique. L'épistémologie pose les questions de la nature des connaissances qu'on peut acquérir par ce moyen et des méthodes utilisées pour les obtenir. Tout modèle mathématique se réfère à des mesures. La question de la validité du passage de la mesure, affectée d'une incertitude et d'une précision limitée, aux grandeurs mathématiques idéalement continues et précises, est un élément de cette mise en question, tout comme la démarche analytique qui décompose les phénomènes en grandeurs mesurables pour en déduire une série de relations partielles. Dans beaucoup de domaines où interviennent des échanges, qu'ils soient scientifiques ou commerciaux, il ne saurait y avoir de consensus sans un accord sur la mesure qui inclue sa méthode et ses unités[2]. Conceptions de la mesureOpérationnisme et réalismeDeux doctrines président à la conception de la mesure et de son rapport à la connaissance[3].
De l'erreur de mesure à l'incertitudeCes deux conceptions utilisent un même langage métrologique. Tout résultat d'un mesurage concret est quantifié — il est pris dans un ensemble fini de valeurs possibles. Lorsqu'on peut augmenter suffisamment la résolution de l'échelle de mesure — en améliorant un instrument, en multipliant les possibilités de réponse à un questionnaire, on arrive à une situation où chaque procédure de mesurage aboutit à une mesure différente. On va appliquer une nouvelle procédure, de nature statistique, pour faire la synthèse des résultats bruts, qui est, du point de vue mathématique, une distribution de nombres entiers. Cette synthèse s'exprime généralement par un nombre qui exprime la valeur type, et un autre qui indique l'intervalle de confiance[6]. Au cours du XXe siècle, la conception courante de la mesure a progressivement changé. On considérait classiquement qu'une grandeur avait une valeur vraie, nombre réel cohérent avec une théorie connue ou à découvrir, tandis que les résultats d'un mesurage étaient entachés d'une erreur, avec deux composantes. L'erreur systématique serait celle que produit la procédure elle-même et qu'on ne sait pas corriger (par exemple, étalonnage imparfait ou défaut de linéarité de l'instrument). On suppose que l'erreur aléatoire se répartit suivant une loi normale[7]. Cette conception a été abandonnée, au profit de la notion, plus statistique, de l'incertitude. Cette différence a pris de plus en plus d'importance avec l'amélioration de la précision des instruments, de la rapidité du mesurage, qui permet de produire beaucoup de résultats, et de plusieurs évolutions théoriques en mathématique[8]. La notion de hasard, de variation aléatoire, a subi un examen critique sévère, qui a montré que pour être imprévisibles, de nombreuses variations ne suivaient pas la loi de Gauss, qui suppose que chaque événement est indépendant des précédents[9]. L'importance accrue des ordinateurs n'a pas seulement produit des myriades de données numériques, elle a amené un renouveau des mathématiques discrètes. Le calcul infinitésimal, à la base de la notion de nombre réel, suppose les grandeurs continues. La physique quantique a montré que ce n'était pas le cas. Le principe d'incertitude, énoncé pour les particules, s'applique aussi à la description temporelle ou fréquentielle de l'évolution d'une variable[10]. AnnexesBibliographie
Articles connexesNotes et références
|