Je ne peux m’empêcher de culpabiliser chaque fois que je lance une application de vidéoconférence : Zoom, Meet, Teams, Skype, etc. Ces applications comme bien d’autres outils numériques ont fourni à mes collègues et moi-même une aide irremplaçable pour continuer nos activités d’enseignement et de recherche pendant les pires périodes de la crise sanitaire. Nous les utilisions déjà avant la crise, et personne n’envisage sérieusement de s’en passer à l’avenir. Ce qui me dérange chez elles n’est pas leur existence, mais le fait qu’elles consomment – et souvent gaspillent – une quantité considérable de ressources informatiques coûteuses et consommatrices d’énergie.
Quand vous ouvrez une application de vidéoconférence, un réseau social, un système de travail collaboratif ou un jeu en ligne, votre ordinateur établit une connexion vers une ou plusieurs autres machines situées dans un « centre de données » (souvent appelé « data center », version anglaise). C’est là que vos données sont transmises, traitées, transformées et réexpédiées vers les personnes avec lesquelles vous collaborez. Un centre de données est un immense hangar qui contient des dizaines de milliers, parfois des centaines de milliers de serveurs informatiques qui font fonctionner de très nombreuses applications simultanément. L’ensemble des centres de données constituent le « cloud », une infrastructure essentielle (au même sens qu’un réseau routier ou un réseau d’évacuation des eaux usées) sans laquelle l’Internet d’aujourd’hui ne pourrait pas fonctionner.
Le principal souci lié au cloud est que les centres de données qui le constituent sont généralement situés loin de leurs utilisateurs. Ce sont des infrastructures extrêmement coûteuses, et même les plus grands opérateurs n’en possèdent qu’un petit nombre. Par exemple, Google en possède une vingtaine à travers le monde. Les plus proches de la France sont en Belgique, aux Pays-Bas, en Irlande…
Quand j’interagis en ligne avec des collègues situés dans la même ville que moi, notre trafic réseau parcourt des centaines ou des milliers de kilomètres vers ces centres de données pour y être traité, avant de revenir quasiment au point de départ. Cette distance crée des temps de réponse importants qui limitent les possibilités d’interactivité des applications. Et cela gaspille des ressources de communication longue distance, lesquelles à leur tour consomment beaucoup d’énergie inutilement.
On le sait peu, mais les communications Internet longue distance consomment quasiment autant d’énergie que les centres de données proprement dits. L’ensemble du monde numérique (ordinateurs, téléphones, réseaux, centres de données) représente environ 10 % de la consommation électrique mondiale, ce qui est énorme.
Passer du « nuage » au brouillard
Pour répondre au gaspillage de ressources créé par le cloud, une nouvelle technologie appelée le « fog » ou le « edge » est en train d’être développée par des chercheurs industriels et académiques. Le fog n’a pas vocation à remplacer le cloud par quelque chose d’autre, mais plutôt à l’étendre pour le rendre plus efficace et moins gourmand en énergie. L’idée est de rajouter des machines supplémentaires, situées aussi près que possible des utilisateurs, de façon à raccourcir les distances réseau.
Pour reprendre l’exemple de la vidéoconférence avec des collègues dans la même ville que moi, l’utilisation de serveurs « fog » à proximité nous permettrait de considérablement réduire la consommation de ressources inutiles. On ne gagne cependant pas à tous les coups : si je veux communiquer avec un ami aux États-Unis, alors on ne pourra pas éviter d’envoyer beaucoup de données à travers l’océan Atlantique d’une façon ou d’une autre. Mais on sait que la majorité des interactions sur Internet réunissent des utilisateurs peu distants les uns des autres.
Le fog prend également tout son sens dans le contexte du développement extrêmement rapide de l’Internet des Objets, c’est-à-dire l’ensemble de tous les objets communicants présents dans notre vie quotidienne, en entreprise, chez les pouvoirs publics, etc. Par exemple, un agriculteur peut vouloir installer des capteurs dans ses champs pour mesurer les conditions météo, l’humidité des sols à tel ou tel emplacement, la croissance des végétaux, et ainsi de suite. Le traitement automatisé des données collectées peut par exemple permettre de contrôler à granularité très fine la quantité d’eau qui doit irriguer telle ou telle partie du champ. Même si chaque capteur produit peu de données, l’ensemble des objets connectés dans le monde produit un trafic réseau total qui croît beaucoup plus rapidement que la capacité de l’Internet.
Dans ces conditions, il devient indispensable à moyen terme de pouvoir traiter ces données aussi près que possible de leur lieu de production. Le fog fournit une infrastructure très bien adaptée à ce genre de besoins.
Le fog demande des développements technologiques
Le fog ne sera pas une réalité de la vie quotidienne avant plusieurs années. Même si la différence entre le cloud et le fog peut sembler ténue, on ne peut pas directement réutiliser les technologies du cloud pour construire un fog. L’architecture du cloud repose fortement sur l’hypothèse que de nombreuses machines très puissantes sont disposées sur un même site, et qu’elles peuvent donc communiquer entre elles de façon extrêmement rapide et peu coûteuse. Quand on passe au fog, la proximité que nous recherchons entre les serveurs et leurs utilisateurs nous force à disposer des serveurs dans de très nombreux emplacements de façon à couvrir un territoire donné. On utilise des machines plus petites, moins coûteuses, mais aussi moins puissantes, et surtout disposées à distance les unes des autres. C’est un nouvel environnement qu’il faut apprivoiser pour apprendre à en tirer le meilleur parti.
Puis viendra le temps du transfert industriel et du déploiement à grande échelle. De très nombreux groupes industriels majeurs se positionnent sur le sujet et lancent des investissements colossaux pour être prêts le moment venu à proposer des services « fog » commerciaux fiables et efficaces à leurs clients : Orange, Google, Microsoft, Hewlett Packard, Ericsson, Nokia, etc. Comme souvent dans ce genre de domaine, les premiers clients seront sans doute des entreprises de haute technologie. Puis la technologie se démocratisera peu à peu et deviendra accessible à des pouvoirs publics, des petites entreprises, et enfin au grand public.
Le rôle des chercheurs académiques comme moi-même est d’essayer de comprendre les limites de nos systèmes actuels, de développer une vision pour répondre aux défis scientifiques que nous identifions, et d’inventer les solutions pour transformer cette vision en réalité afin de rendre l’Internet toujours plus efficace, plus flexible, et plus frugal dans son utilisation des ressources limitées de notre planète.
L’aventure scientifique du fog est loin d’être terminée, et mon équipe et moi-même comptons fermement continuer à en faire partie. La nature de la recherche académique dans ce domaine est d’essayer d’ouvrir la voie à nos partenaires industriels en France et en Europe. Mais déjà une nouvelle question commence à me trotter dans la tête : quelle sera la prochaine révolution technologique après celle du fog, et comment pourrons-nous au mieux y contribuer ?
Guillaume Pierre, Professeur en informatique, responsable de l’équipe Inria/IRISA Myriads, Université de Rennes 1
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.