Rene Chun

Des scientifiques équipés de super-ordinateurs pourraient rendre potable l'eau des océans

Le dessalement de l'eau de mer constitue un immense défi. Des chercheurs ont peut-être trouvé la solution, mais celle-ci nécessite une puissance de traitement considérable.

Aleksandr Noy nourrit de grands espoirs pour un tout petit outil. Chercheur senior au Lawrence Livermore National Laboratory, il a consacré une grande partie de sa carrière au perfectionnement d'une alchimie liquide consistant à retirer le sel de l'eau de mer : le dessalement. Son cheval de bataille est le nanotube de carbone. En 2006, il a eu l'audace de formuler une théorie radicale : et si l'on pouvait fabriquer des filtres de dessalement à l'aide de nanotubes, des cylindres si petits qu'ils ne sont visibles qu'au microscope électronique ? Tout dépend de la largeur des tubes. L'ouverture doit être assez grande pour laisser passer les molécules d'eau, mais assez petite pour bloquer les particules de sel, plus grosses, qui rendent l'eau de mer impropre à la consommation. En assemblant suffisamment de nanotubes de carbone, on obtiendrait potentiellement le filtre à eau le plus efficace au monde.

À quel point ces nanotubes de carbone sont-il petits ?

Épaisseur d'un fil d'araignée

4 000 nanomètres

50 nanotubes de carbone

de 0,8 nanomètre chacun

Au laboratoire, la plupart de ses collègues trouvaient son idée farfelue. "Il était difficile d'imaginer de l'eau traversant des tubes aussi minuscules", explique Aleksandr Noy. Mais si sa théorie des nanotubes était exacte, elle présenterait des avantages inestimables. De nombreuses régions du monde font actuellement face à une pénurie d'eau potable, et 1,2 milliard de personnes (soit environ un sixième de la population mondiale) vivent dans des zones où l'eau est une denrée rare. Le dessalement est une solution, mais l'infrastructure qui existe aujourd'hui nécessite d'immenses quantités d'énergie (et donc d'argent) pour chauffer l'eau de mer ou pour l'obliger à traverser des systèmes de filtrage complexes. Si les filtres à nanotubes fonctionnaient, ils réduiraient considérablement les problèmes d'eau dans le monde.

L'équipe d'Aleksandr Noy a mis sur pied une expérience de filtration simple et l'a laissée fonctionner toute une nuit. Le lendemain matin, deux assistants ont remarqué une flaque d'eau sur le sol du laboratoire : l'eau avait traversé les nanotubes si rapidement que le petit réservoir destiné à la recueillir avait débordé. Par la suite, les chercheurs ont confirmé que le débit de l'eau passant par les nanotubes de carbone est six fois plus élevé qu'avec les filtres actuellement utilisés dans les usines de dessalement.

Cette petite flaque d'eau est à l'origine de l'une des plus grandes découvertes de la carrière d'Aleksandr Noy. Il se souvient : "L'expérience était d'autant plus passionnante que personne ne savait à quoi s'attendre." Maintenant qu'elle a porté ses fruits, le défi reste de taille, mais une puissance de calcul suffisamment importante permettrait sans doute de le relever.

Heureusement, la communauté scientifique est en train de connaître une révolution avec le développement de l'informatique exascale. Dans le cas de Google, cette technologie s'appuiera probablement sur une multitude d'ordinateurs connectés dans le cloud. Même les super-ordinateurs actuels les plus puissants seront largement dépassés par l'exascale. Cette puissance de traitement extrême représente un formidable atout pour les chercheurs qui tentent d'utiliser les nanotubes afin de créer des filtres à eau de grande ampleur. Ces tubes et les milliards de molécules qui les traversent sont en effet bien trop petits pour être étudiés en détail, et les essais physiques avec différentes variantes sont longs et difficiles. La modélisation informatique exascale va permettre une représentation plus précise de ces tubes minuscules et donc une accélération considérable de la recherche sur le dessalement à l'aide de nanotubes. D'ailleurs, cette technologie va vraisemblablement contribuer à résoudre certains des problèmes environnementaux les plus épineux de notre époque.

Les promesses de la puissance exascale

Une accélération considérable de la vitesse de calcul permettrait de surmonter des obstacles jusque-là infranchissables et de réaliser des avancées décisives.

  • Image : découverte de médicaments
    Découverte de médicaments

    Imaginez qu'il soit possible de rechercher un traitement parfaitement adapté à chaque patient parmi mille milliards de combinaisons médicamenteuses possibles.

  • Image : prévisions météo
    Prévisions météo

    Les météorologues pourraient traiter d'énormes quantités de données pour alerter, jusqu'à quatre semaines à l'avance, la population située sur la trajectoire d'une tempête.

  • Image : traduction
    Traduction

    La traduction en temps réel pourrait devenir une fonctionnalité courante des smartphones.

Pour ceux qui ne connaissent pas le jargon de la Silicon Valley, le terme "exascale" fait référence à la puissance qu'offrira la nouvelle génération de super-ordinateurs. Un ordinateur exascale sera capable de traiter un trillion (un milliard de milliards) de calculs par seconde. Il sera donc presque 11 fois plus puissant que le Sunway TaihuLight, l'ordinateur en service le plus rapide à l'heure actuelle, situé en Chine. L'exascale équivaut à la puissance de traitement d'environ 50 millions d'ordinateurs portables connectés entre eux.

Une course mondiale est engagée pour construire le premier ordinateur exascale, qui révolutionnera la façon de travailler des scientifiques dans tous les domaines, de la physique théorique aux prévisions météorologiques à long terme. Mais ce sont des projets comme celui d'Aleksandr Noy sur les nanotubes qui seront probablement les premiers à bénéficier de cette puissance de calcul accrue.

Selon George Dahl, chercheur au sein de l'équipe Google Brain, "une forte augmentation de la puissance de calcul aura un impact considérable sur la science des matériaux, la découverte de nouveaux médicaments et la chimie". Il explique en effet que tous ces domaines de recherche impliquent la création de modèles informatiques de molécules, une activité qui requiert une grande puissance de traitement. "L'analyse de chaque molécule ou matériau demande des calculs extrêmement longs."

"Mais ce n'est pas tout", ajoute-t-il. L'apprentissage automatique bénéficie lui aussi des progrès de la puissance de calcul. Si nous l'appliquons à la simulation moléculaire, notre puissance de traitement s'en trouve multipliée par deux. "On peut associer l'apprentissage automatique à la science des matériaux pour découvrir de tout nouveaux matériaux."

Ce sont de telles avancées qui donneront un jour naissance à un filtre d'eau de mer à la fois plus efficace et moins coûteux. Et l'informatique exascale pourrait apporter bien d'autres solutions aux problèmes liés à l'eau sur notre planète.

En effet, grâce à sa capacité exceptionnelle à traiter de grandes quantités de données, l'informatique exascale pourrait contribuer à des projets comme celui auquel participent actuellement certains ingénieurs qui travaillent chez Google : Noel Gorelick, cofondateur de la plate-forme Earth Engine, et Tyler Erickson, Developer Advocate senior, spécialiste des analyses liées à l'eau pour cette plate-forme. Hébergée dans le cloud, cette dernière permet d'analyser les données environnementales à l'échelle mondiale. Noel Gorelick a récemment collaboré avec le Centre commun de recherche de la Commission européenne à un projet ambitieux de cartographie haute résolution des eaux de surface du globe. En examinant les images satellite sur plus de 30 ans à l'aide des données Earth Engine, l'équipe a cartographié (et mesuré) l'évolution des étendues d'eau de la planète au fil des décennies, révélant des lacs disparus et des cours d'eau asséchés, mais aussi la formation de nouveaux plans d'eau. Le simple téléchargement des données nécessaires aurait pris trois ans s'il avait été réalisé en une seule fois. Comme l'explique Tyler Erickson, ces archives sont déjà impressionnantes, mais l'exascale permettra à l'équipe de recueillir encore plus d'informations, bien plus rapidement, pour générer des cartes encore plus précises.

"Si nous disposions d'une plus grande puissance de traitement, nous pourrions nous intéresser à d'autres sources de données", indique Tyler Erickson. Il souligne qu'un ordinateur exascale permettrait d'exploiter une ressource largement sous-estimée, à savoir les sciences participatives. Imaginez que le projet de cartographie des étendues d'eau soit ouvert, par exemple, à tous les propriétaires de drones équipés d'une caméra HD. "La quantité de données serait spectaculaire", dit-il. Des lycéens pourraient piloter leur DJI Phantom au-dessus des fleuves et des estuaires, puis importer leurs vidéos dans Google Cloud. Celles-ci pourraient alors être classées, géo-référencées sur la carte du monde de base de Google, analysées et intégrées à la cartographie numérique, le tout grâce à la puissance de l'exascale. Cette démocratisation de la science en action faciliterait l'aménagement agricole, la préparation aux catastrophes naturelles régionales et même la surveillance des changements écologiques. Pour encourager le lancement de projets similaires dans d'autres organisations, Google a annoncé en 2004 le don d'un pétaoctet de stockage dans le cloud pour les données climatiques, ainsi que 50 millions d'heures de traitement informatique avec la plate-forme Google Earth Engine.

George Dahl, quant à lui, s'empresse de souligner que l'augmentation de la puissance de traitement ne résoudra pas tous les problèmes liés aux calculs informatiques. Il ajoute que ses plus grands avantages résident peut-être dans des utilisations qui restent encore à imaginer. Il compare cette évolution à l'invention du microscope, un appareil qui a permis de réaliser de nouvelles découvertes vitales. "Ce qui était autrefois inenvisageable deviendra peut-être tout d'un coup réalisable", dit-il. "Nous pourrons peut-être construire un outil inédit qui, comme le microscope, ouvrira la voie à de toutes nouvelles découvertes.”

L'eau douce potable représente seulement 3 % des eaux de la planète

Et seule une toute petite partie nous est accessible.

Quantité totale d'eau douce, malheureusement presque entièrement emprisonnée dans les glaciers, les calottes polaires et les profondeurs du sous-sol.

Le calcul haute performance se mesure en nombre d'opérations en virgule flottante par seconde, ou FLOPS (floating-point operations per second), une unité qui s'applique aussi bien à un simple ordinateur portable qu'au super-ordinateur le plus rapide du monde. Plus le nombre de FLOPS est important, plus la vitesse est grande et plus la résolution est élevée, ce qui permet d'afficher plus de détails. Les simulations informatiques produisent ainsi des images et des prévisions beaucoup plus précises. Cet atout est particulièrement précieux pour des organismes comme la NOAA (National Oceanic and Atmospheric Administration), qui se sert d'ordinateurs pour prévoir les conditions météorologiques, les changements climatiques et les perturbations océaniques et côtières.

Les systèmes exaflops peuvent exécuter 1018 (un milliard de milliards) de calculs par seconde.

La NOAA prévoit d'utiliser des systèmes exascale dans les années 2020. "Nous pourrons ainsi lancer des alertes météo plus précises, plus précoces et mieux localisées, pour mieux protéger les biens et les personnes", déclare Brian D. Gross, directeur adjoint du calcul haute performance et des communications de l'agence. Les scientifiques pourraient aider la population à se prémunir contre les événements climatiques extrêmes tels qu'un ouragan dévastateur, et ainsi limiter les dégâts matériels et humains occasionnés dans toute une région.

Pour illustrer cette puissance de calcul, Brian D. Gross explique que dans les années 2000, son service utilisait des systèmes téraflops (mille milliards de calculs par seconde) capables d'effectuer un suivi précis de phénomènes météorologiques de la taille d'un petit pays, tandis qu'aujourd'hui, il utilise des systèmes pétaflops (un million de milliards de calculs par seconde) qui analysent des phénomènes de la taille d'un département. Avec l'informatique exascale, la NOAA pourra encore affiner ce niveau de détail et, par exemple, cartographier avec précision des orages de la taille d'une ville. Cette résolution fournit davantage d'informations, ce qui permet d'en savoir beaucoup plus sur le comportement et l'évolution d'orages de toutes tailles. "Les modèles de résolution supérieure décrivent plus précisément les systèmes météorologiques étendus comme les ouragans, ce qui permet de mieux prévoir les précipitations et la trajectoire des tempêtes", indique Brian D. Gross. En d'autres termes, dans quelques années, les présentateurs météo n'auront plus d'excuse si les prévisions à cinq jours s'avèrent erronées. Et nous saurons exactement où et quand s'abattra la prochaine tempête.

L'informatique exascale peut résoudre les problèmes de pénurie d'eau douce

Des super-ordinateurs plus rapides seront particulièrement utiles pour les chercheurs qui étudient des filtres de dessalement et de dépollution dans le but d'augmenter la quantité d'eau potable dans le monde.

L'accès à l'eau douce est un problème mondial. Des aquifères épuisés de l'Arabie saoudite au sol brûlé du Brésil en passant par la région des Grandes Plaines, considérée comme le grenier de l'Amérique et où la sécheresse se généralise, le risque de déshydratation massive est bien réel. Un rapport des services de renseignements des États-Unis concluait même en 2012 que la pénurie d'eau douce aurait un impact sur la sécurité nationale. Les prévisions indiquent que d'ici 2030, la demande en eau douce sera supérieure de 40 % aux réserves mondiales disponibles.

Hausse des températures, diminution des précipitations et augmentation de la population, de la pollution et de la pauvreté… Au premier abord, les problèmes liés aux besoins en eau peuvent sembler insurmontables. Mais Aleksandr Noy reste convaincu qu'un ordinateur exascale l'aidera à créer une membrane de nanotubes capable de filtrer l'eau et de sauver des vies. "Avec une telle puissance de calcul, explique-t-il, nous pourrons rapidement exécuter une simulation avant de travailler en laboratoire, et ainsi consacrer toute notre énergie aux expériences réellement utiles." En effet, de nombreux facteurs restent à définir, comme les dimensions précises à appliquer pour assurer l'écoulement de l'eau dans les nanotubes, le meilleur matériau à choisir pour fabriquer la membrane dans laquelle ces nanotubes seront imbriqués, ou encore leur agencement. "Les différentes études de modélisation des nanotubes qui ont recours à la simulation présentent des chiffres divergents", déclare Ramya Tunuguntla, chercheuse postdoctorale qui collabore avec Aleksandr Noy. "C'est une difficulté que nous devons surmonter." À l'instar d'Aleksandr Noy, elle pense qu'un super-ordinateur plus performant fera progresser la recherche : "L'exascale nous permettra d'exécuter des simulations plus longues afin de recueillir davantage de données."

En 2023, un nouvel ordinateur sera installé au Livermore Lab. Baptisé Sierra, il offrira une puissance de calcul quatre à six fois supérieure à celle du système actuel, et représentera probablement la dernière étape avant que l'exascale et son trillion de FLOPS ne permettent à ces chercheurs de visualiser de superbes images haute définition. Du reste, l'exascale sera peut-être déjà une réalité ailleurs d'ici là. Un éminent chercheur du Livermore Lab explique que, si les premiers ordinateurs exascale sont prévus pour 2020 environ aux États-Unis, la Chine se positionne en grand favori dans la course et annonce qu'elle présentera un prototype à la fin de l'année ou au début de l'année prochaine. Certains parlent déjà d'un "super-super-ordinateur".

Costas Bekas, deux fois lauréat du Gordon Bell Prize et expert en exascale au laboratoire IBM Research de Zurich, souligne que l'augmentation de la puissance de calcul se poursuivra au-delà de l'exascale. Il prévoit qu'un jour, la modélisation informatique nous permettra d'examiner l'univers non plus à l'échelle moléculaire, mais atomique.

"Avec l'exascale, nous pourrons enfin comprendre des éléments très complexes, comme le fonctionnement des nanotubes de carbone, dans des délais et avec des moyens raisonnables", explique Costas Bekas. "Les exaflops ne sauveront pas le monde. Les problèmes à résoudre sont trop nombreux. Cependant, ils contribueront sans aucun doute à le rendre plus vivable."

De retour au Lawrence Livermore Lab, Aleksandr Noy et Ramya Tunuguntla chargent une autre membrane de nanotubes dans une chambre d'essai, appuient sur un interrupteur et recueillent de nouvelles données. Grâce à eux, et à l'informatique exascale, la vie de milliards de personnes va peut-être bientôt changer.

RENE CHUN est un écrivain basé à New York. Il collabore à des publications comme The New York Times , The Atlantic , Wired et Esquire.

Animations : Justin Poulsen
Illustrations : Matthew Hollister

Haut de page