La turbulence est un phénomène qui intrigue les physiciens depuis longtemps, et une des raisons pour lesquelles certains phénomènes météo sont encore aujourd’hui difficiles à prévoir.
On attribue à Werner Heinsenberg, physicien connu pour ses travaux en physique quantique et popularisé par la série Breaking Bad, la citation suivante :
« Quand je rencontrerai Dieu, je lui poserai deux questions : pourquoi la relativité ? Et pourquoi la turbulence ? Je crois vraiment qu’il aura une réponse à la première. » Werner Heisenber, vers 1946
Nombreux sont les esprits hantés par la question de la turbulence… et depuis bien longtemps. Si l’histoire de la compréhension de ce phénomène sur des bases scientifiques est le fruit d’un très long processus, ce sont surtout les observations qui ont permis d’en comprendre quelques caractéristiques.
De Vinci, qui avait l’œil de l’artiste et les talents d’observation du scientifique, s’est attelé à représenter ce que l’on nommera au XXe siècle « turbulence » (le terme fut introduit par Taylor et Von Karman). Hiroshige, en voulant représenter le tourbillon de Naruto, fait apparaître les structures complexes du phénomène.
Ce qui se dégage de ces visions d’artiste, c’est que le phénomène fait apparaître du mouvement en forme d’agitation capricieuse et de désordre esthétique représenté sous la forme d’insaisissables tourbillons de différentes tailles.
Ces turbulences jouent un rôle crucial dans nombre de phénomènes, par exemple les phénomènes météorologiques et océanographiques (formation des nuages et dynamique des courants océaniques), impactant ainsi les climats terrestres et les événements météorologiques extrêmes. Elles sont aussi importantes en météorologie solaire, qui étudie notamment les éruptions solaires et leurs impacts sur Terre.
Les premières contributions
Au XVIIIe siècle, Daniel Bernoulli et Leonhard Euler, sont les premiers scientifiques à avoir posé les premières bases de la mécanique des fluides avec leurs équations décrivant l’écoulement idéal des fluides, c’est-à-dire sans viscosité. La viscosité représente toute la résistance interne que réalise le fluide pour lui-même. Elle a pour effet de diminuer la liberté d’écoulement du fluide et dissipe son énergie.
Cela parait contre-intuitif, pourtant, la viscosité va jouer un rôle important pour une description réaliste de la turbulence. Au XIXe siècle, les travaux de George Stokes et Hermann von Helmholtz ont permis d’inclure les effets de la viscosité dans les équations des fluides, ce qui a ouvert la voie à une compréhension plus subtile du phénomène avec le nombre de Reynolds.
Les travaux d’Osborne Reynolds et l’invention du « nombre de Reynolds »
C’est aussi à cette époque qu’ont eut lieu les premières tentatives pour comprendre la transition entre écoulements laminaires (réguliers) et turbulents émergèrent, notamment à travers les études sur les instabilités hydrodynamiques, un phénomène où un écoulement fluide stable devient instable et évolue vers la turbulence sous l’effet de petites perturbations ou fluctuations.
On comprend que le comportement des fluides est contrôlé par un nombre issu d’un rapport entre la dynamique de son « mouvement » et sa viscosité : ce rapport s’appelle le nombre de Reynolds. Cette découverte a jeté les bases pour une classification des régimes d’écoulement en fonction de ce nombre, permettant ainsi de prédire la transition vers la turbulence. On parle d’écoulement faiblement turbulent et de turbulence développé.
Des ailes d’avion à la turbulence…
Au début du XXe siècle, inspiré par les problèmes d’aérodynamique notamment sur le lien entre la forme géométrique d’une aile et sa performance en vol (portance et traînée), Ludwig Prandtl, développe la théorie des « couches limites ».
Cette théorie se focalise sur une mince région de fluide située près d’une surface solide, appelée « couche limite », où la vitesse du fluide passe de zéro (à la surface solide) à celle de l’écoulement principal (loin du solide). Elle permet d’analyser séparément les effets de frottement visqueux, facilitant ainsi l’étude des portance et traînée et de la manière dont la turbulence se développe près des surfaces solides et dans les écoulements à grande vitesse.
La révolution de l’approche statistique
Dès 1895, Reynolds avait ouvert la voie à une approche statistique de la turbulence en émettant l’hypothèse que les écoulements turbulents peuvent être décrits en une somme d’un « comportement moyen » et de fluctuations.
Puis, dans les années 1920, Geoffrey Ingram Taylor et Lewis Fry Richardson proposent indépendamment de considérer les écoulements turbulents comme étant constitués de plusieurs échelles, tant spatiales que temporelles. En effet, les écoulements turbulents sont caractérisés par des tourbillons de tailles et de durées de vie variées, qui sont à l’origine de mouvements complexes à différentes échelles spatiales et temporelles.
À leur suite, Kolmogorov développe une approche basée sur des probabilités — un peu comme la physique quantique, qui s’est développée via la probabilité.
Cette approche statistique reste encore aujourd’hui un cadre essentiel pour comprendre les écoulements turbulents. En effet, elle permet de modéliser un comportement « imprévisible » en se concentrant sur des grandeurs moyennes et les fluctuations autour de ces valeurs, plutôt que de chercher à prévoir chaque mouvement individuel. Par ailleurs, les concepts clés de la théorie du chaos, tels que les attracteurs étranges et la sensibilité aux conditions initiales, sont aussi un ensemble d’outils mathématiques très utilisés pour caractériser l’apparition de phénomènes complexes.
D’ailleurs, Heisenberg, lors de sa résidence surveillée à Cambridge en 1945 comme prisonnier de guerre, s’attaqua au problème de la turbulence et retrouva les prédictions de Kolmogorov… alors qu’il ignorait tout de ses travaux publiés en russe.
Clairement, la description statistique de Kolmogorov a introduit une nouvelle conception des choses (en plus d’expliquer les observations expérimentales) : la turbulence ne serait qu’une manifestation d’un phénomène de cascade d’énergie, où l’énergie injectée à grande échelle est transférée aux petites échelles avant d’être dissipée par l’intermédiaire de tourbillons de différentes échelles. En d’autres termes, cette approche révèle les mécanismes physiques sous-jacents à la turbulence.
La turbulence aujourd’hui
Encore aujourd’hui, une meilleure compréhension de cette cascade d’énergie permettrait de réaliser des prédictions, offrant ainsi des applications cruciales, telles que l’amélioration de la performance des éoliennes, une meilleure gestion des catastrophes naturelles, une meilleure prévention d’évacuation pendant les saisons des ouragans et la sécurisation des trajets aériens. Ces avancées offriraient des bénéfices considérables en termes de performance et de sécurité dans divers domaines.
Bien que des progrès significatifs aient été réalisés, notamment grâce aux simulations numériques, le comportement turbulent reste un phénomène difficile à prédire et à contrôler en raison de sa nature chaotique et multiéchelle. Il n’y a toujours pas de théorie explicative universellement acceptée.
Pour étudier les turbulences, deux approches sont couramment utilisées aujourd’hui : d’une part l’analyse statistique d’un grand nombre de réalisations d’un même écoulement pour en extraire les comportements moyens et dominants (par exemple, certains radars d’aéroport sont utilisés pour repérer la turbulence atmosphérique), et l’examen détaillé d’une seule réalisation pour identifier les structures dynamiques fondamentales responsables des mouvements observés.
Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris