Les physiciens ont plus souvent l'habitude de travailler avec des notions microscopiques comme celui d'atome, concept élémentaire bien maîtrisé aujourd'hui mais dont la pertinence n'a été démontrée qu'au début du XXe siècle.
Les deux approches sont bien établies, mais il n'est pas évident que ces deux modes de description du monde soient compatibles entre elles.
Assurer la cohérence entre les deux est une tâche complexe et, pour l'essentiel, inachevée, mais les résultats obtenus par les scientifiques qui s'y sont attelés sont à la fois intéressants, car ils confortent l'idée que la Nature peut être décrite comme un tout cohérent, et prometteurs, car ils promettent des progrès technologiques grâce à de nouvelles méthodes et de nouveaux outils de conception.
Manipuler l'indénombrable
D'après les connaissances actuelles, on peut décrire l'essentiel du comportement de la matière à l'aide de trois ingrédients : des électrons, des noyaux atomiques et des photons. Il y a bien sûr moyen de compliquer le tableau (avec des tas de particules élémentaires) mais si l'on se limite aux situations les plus usuelles, c'est le cas. Trois ingrédients : c'est simple !Sauf que ces ingrédients sont extrêmement petits par rapport à l'échelle humaine, et que le moindre gramme de matière en contient un nombre gigantesque, de l'ordre de 1023, soit 100000000000000000000000. Et je ne suis pas resté trop longtemps sur la touche "zéro" de mon clavier. Tout de suite, c'est plus compliqué !
Cela soulève immédiatement un problème : comment faire ne serait-ce qu'une description sommaire d'un échantillon de matière d'un gramme avec nos trois ingrédients ? Les équations qui décrivent la relation entre eux sont bien connues et très bien vérifiées, mais le chiffre évoqué ci-dessus est bien trop grand même pour le plus grand ordinateur disponible aujourd'hui. Pour donner une idée, la totalité des serveurs de Google en 2004 avait une capacité de l'ordre de 1017 bits selon Wikipedia, soit un million de fois moins...
Alors, infaisable ? Non. Depuis longtemps, on a trouvé des solutions.
La première, c'est de faire des statistiques : ainsi, pour décrire les gaz, Boltzmann a proposé une approche statistique qui lui a permis de proposer une équation qui porte son nom et qui permet de prédire l'évolution d'un gaz moyennant des hypothèses simplificatrices mais assez raisonnables. On peut d'ailleurs, dans certaines conditions, en déduire les équations de la mécanique des fluides les plus utilisées (celles de Navier-Stokes) par les ingénieurs spécialisés dans ce domaine.
Plus généralement, l'idée est d'abandonner la description complète d'un système composé d'un trop grand nombre d'éléments, qui n'a d'ailleurs aucun intérêt pratique, pour se concentrer sur des quantités synthétiques qui résument ce qu'il faut savoir sur un bout de matière : température, pression, densité pour un gaz par exemple.
Mais l'approche de Boltzmann ne marche pas toujours. Ainsi, à ma connaissance, personne n'a réussi à déduire les équations de Navier-Stokes pour un liquide à partir d'une telle méthode. Pourtant, les équations sont les mêmes que pour les gaz, et l'expérience montre que ces équations fonctionnent très bien.
Dans d'autre cas, on se ramène à un système plus petit. Dans l'idéal, un système à un nombre très réduit d'éléments. Dans le domaine de la physique des solides, on sait décrire un cristal parfait (un monocristal, pour les spécialistes) grâce à sa structure régulière constituée d'un motif qui se répète dans les trois directions de l'espace. Le motif étant généralement constitué d'une poignée d'atomes, il est possible de faire un tas de calculs et de déduire les propriétés d'un tel cristal.
Le bât blesse lorsqu'on s'intéresse à un matériau cristallin réel, constitué d'un patchwork de petits cristaux, ces derniers présentant en outre des défauts de régularité. Certaines propriétés comme la densité sont peu sensible à ces subtilités, mais d'autres comme la conductivité électriques sont déterminées de manière cruciale par les défauts et les interfaces entre cristaux.
Dans certains cas, on peut se servir de certaines "symétries d'échelle" : la structure d'un système à une certaine échelle peut parfois ressembler fortement à la structure d'un système identique mais dont on aurait changé l'échelle d'un certain facteur. A titre d'illustration, c'est par exemple le cas d'un chou-fleur. Une telle structure est dite fractale, et les méthodes qui font usage de cette particularité sont les méthodes de renormalisation.
Mais le domaine d'application de ces méthodes est restreint, quoiqu'elles soient pertinentes pour l'étude des transitions de phase, une situation assez courante en physique de la matière condensée car les transitions de phases sont des phénomènes ayant des conséquences pratiques importantes. Un exemple intéressant, notamment pour la métallurgie, est la solidification dendritique.
Homogénéisation
Les méthodes précédentes ont leur intérêt, mais leur domaine d'application est restreint. Il existe en revanche des méthodes plus générales, quoique pas forcément d'application aisée.
Ainsi, les méthodes d'homogénéisation consistent à manipuler les équations décrivant la matière à l'échelle microscopique en cherchant à séparer les choses qui varient fortement et les choses qui varient faiblement à cette échelle.
Par exemple, si vous vous intéressez à l'écoulement d'un liquide comme l'eau dans une roche poreuse, vous devez en principe utiliser les équations de Navier-Stokes dans un domaine constitué de la porosité de la roche.
Or une roche poreuse peut avoir des milliards de pores au centimètre cube, ce qui rend en principe tout calcul prohibitif. L'homogénéisation suggère de séparer chaque variable de l'équation (pression et vitesse dans le cas le plus simple) en des parties de variations spatiales "rapides" et "lentes". On peut montrer que, si l'échelle des pores est très petite par rapport à l'échelle macroscopique pertinente, alors on peut obtenir des équations reliant les composantes "lentes" entre elles. Dans ce cas précis, il s'agit de l'équation de Darcy, qui dit que le débit dans une roche est proportionnel à la différence de pression entre l'amont et l'aval. La méthode retombe donc sur une loi établie empiriquement au milieu du XIXe siècle.
Voilà qui semble être parfaitement inutile : on utilise des méthodes compliquées pour découvrir ce que d'autres savaient il y a des lustres. C'est en apparence parfaitement contraire à l'esprit de la médiation technique : ne jamais réinventer l'eau tiède. Pourquoi en parler dans ce blog, me direz-vous ?
J'y viens. L'équation de Darcy fait intervenir un coefficient de proportionnalité, la perméabilité. Or celui-ci dépend de la structure microscopique de la roche. Mais au milieu du XIXe siècle, Henry Darcy n'avait aucun moyen de prédire le coefficient en question. Il devait nécessairement mesurer ce coefficient.
Lorsqu'il s'agit de décrire un site naturel, ce n'est pas grave, car cette mesure est une manière simple de caractériser une roche. Mais si vous êtes fabricant de filtres, et que vous avez la capacité de produire des structures poreuses comme vous le souhaitez, il est évidemment intéressant de prédire la perméabilité de chaque structure à des fins d'optimisation, car c'est plus rapide que de faire des essais.
C'est donc l'apport essentiel : donner un moyen de prédire, c'est-à-dire de calculer, des paramètres qui autrement ne seraient accessibles qu'à la mesure.
Le principe d'homogénéisation s'applique dans un grand nombre de situations. On peut par exemple homogénéiser du point de vue mécanique un matériau composite constitué de plusieurs matériaux homogènes et le décrire comme un matériau équivalent, qui peut avoir des propriétés sensiblement différentes des matériaux constitutifs, comme une élasticité anisotrope (le matériau est plus rigide dans une direction que dans une autre) alors que les matériaux constitutifs sont isotropes. Idem pour la conductivité thermique d'un matériau composite. C'est donc un outil transversal, non spécifique à un domaine technique ou scientifique particulier.
Dans certaines situations, l'homogénéisation se traduit par un jeu d'équations très différent du jeu d'équations initial. C'est le cas de l'équation de Boltzmann ou des équations de Navier-Stokes décrivant un gaz vis-à-vis des équations de Newton régissant la dynamique individuelle des atomes de ce gaz.
L'homogénéisation apporte un double avantage :
- d'une part, elle justifie des équations macroscopiques empiriques à partir d'équations microscopiques mieux maîtrisées du point de vue théorique,
- et d'autre part, elle offre un moyen d'évaluer les paramètres de ces équations macroscopiques, et donc de faire de la conception à l'aide de calculs là où seule la mesure et donc l'expérience permettait de travailler, avec à la clé une économie de temps de développement pour une entreprise.
- L'homogénéisation n'est pas une méthode unique qu'il suffirait d'appliquer mécaniquement. En réalité, il y a plusieurs méthodes d'homogénéisation. Certaines sont plus faciles à manipuler mais exigent que la structure ait quelques propriétés simplificatrices qui en limitent l'application, comme l'homogénéisation périodique. D'autres sont plus générales mais sont très complexes à manipuler, voire trop complexes pour pouvoir faire des calculs pratiques.
- Un même jeu d'équations microscopiques peut conduire à plusieurs modèles macroscopiques après homogénéisation, selon que l'on considère que tel paramètre est petit. Ainsi, la loi de Darcy est remplacée par la loi de Brinkman lorsque la fraction solide est très petite (cas d'un matériau fibreux très peu dense). Il y a dans ces méthodes d'homogénéisation un processus mathématique de limite dont la pertinence est parfois douteuse lorsqu'on souhaite décrire un matériau dont les échelles microscopique et macroscopique ne sont pas assez différentes.
- La validité mathématique de certaines approches d'homogénéisation est parfois douteuse. Il est facile d'obtenir formellement un résultat qui semble très raisonnable, mais dont l'utilisation concrète est à côté de la plaque.
- Enfin, il y a des situations où l'idée même d'homogénéisation perd de son intérêt. Par exemple, la modélisation de la propagation des fractures en mécanique impose de considérer des zones plus fragiles que d'autres au sein d'un matériau qui semble homogène. L'homogénéisation n'est plus vraiment adaptée dans un tel cas ou l'hétérogénéité est fondamentale, mais on peut en conserver l'esprit (décrire à l'échelle macroscopique ce qui peut l'être) tout en conservant une modélisation microscopique "légère". On parle alors plus généralement d'approche micro-macro.
Le monde microscopique et le monde macroscopique correspondent bien à deux points de vue différents d'une réalité unique, et leurs descriptions peuvent être rendues compatibles par des méthodes comme l'homogénéisation. Il est important pour un médiateur technique de connaître l'existence de ces méthodes, car il s'agit de véritables dictionnaires bilingues pouvant faciliter les échanges entre deux experts de spécialité différentes à propos d'un même phénomène.
Aucun commentaire:
Enregistrer un commentaire
Bonjour,
je vous remercie de laisser un commentaire. Je vous invite à le signer de votre nom, ou éventuellement d'un pseudo, pour faciliter l'échange.
Bien à vous,
SG