HPC, IA et Souveraineté : enjeux et perspectives

Les supercalculateurs jouent un rôle clé dans la recherche, l’industrie et la défense. Le CEA, à travers son complexe de calcul, opère des infrastructures de pointe et observe l’évolution des usages en simulation numérique, intelligence artificielle et gestion de données massives.
Jean-Philippe Nominé (X83), responsable des collaborations stratégiques en calcul haute performance (HPC) auprès du complexe de calcul du CEA revient sur les tendances actuelles et les défis de la souveraineté technologique.
Quel est le rôle du complexe de calcul du CEA et quelles sont ses missions ?
Le complexe de calcul du CEA repose sur plusieurs composantes, regroupées au CEA DAM Île-de-France en Essonne, et couvre trois grands domaines d’applications : la défense, la recherche et l’industrie. À l’origine conçu pour répondre aux besoins de la dissuasion, il s’est ouvert à d’autres usages, pour le calcul scientifique et industriel à l’échelle française et européenne. La particularité de ce complexe est son approche multisectorielle, avec plusieurs calculateurs utiles à des domaines aussi variés que la modélisation du climat, la physique nucléaire, la conception de matériaux ou encore la mise au point d’algorithmes d’intelligence artificielle (IA). Grâce à cette diversité d’usages, nous avons une vision d’ensemble des tendances en matière de simulation numérique et d’IA appliquée.
L’IA et le calcul haute performance (HPC) sont de plus en plus imbriqués. Quelles tendances observez-vous ?
L’IA et le HPC sont de plus en plus complémentaires. Nous observons trois grandes tendances. D’abord, l’utilisation des modèles de substitution se généralise. Plutôt que d’effectuer des calculs numériques en boucle, certains segments de simulations sont remplacés par des modèles pré-entraînés qui accélèrent les calculs sans perte de précision. Ceci bénéficie par exemple à la météorologie, la climatologie, où chaque boucle de calcul économisée représente un gain considérable. Ensuite, les réseaux de neurones informés par la physique sont une autre avancée prometteuse. Les algorithmes d’apprentissage automatique sont guidés par des lois physiques dans le processus de modélisation. Le modèle reste cohérent tout en accélérant la résolution des équations complexes. Enfin, l’IA améliore la gestion et l’exploitation des masses de données produites par les supercalculateurs, pour filtrer, structurer et analyser ces données, rendant leur exploitation beaucoup plus efficace et pertinente.
Comment l’IA contribue-t-elle à l’optimisation des centres de calcul eux-mêmes ?
L’IA n’est pas seulement utilisée pour améliorer les simulations, elle est aussi un outil pour optimiser le fonctionnement des infrastructures de calcul. Nous devons gérer simultanément des centaines d’utilisateurs qui lancent des milliers de simulations complexes. Cela implique une gestion fine des ressources informatiques, des flux de données et de la consommation énergétique. En analysant en temps réel des millions d’événements journalisés, nous sommes capables d’améliorer les réglages pour la production, voire d’anticiper les défaillances et d’intervenir avant qu’une panne ne survienne. Cette approche améliore la fiabilité et la disponibilité des systèmes. L’optimisation énergétique est un autre enjeu majeur.
Nos machines fonctionnent en continu et consomment énormément d’énergie. Nous surveillons, affinons la gestion des charges de calcul, ajustons les paramètres de refroidissement et améliorons l’efficacité du stockage des données. Ces ajustements, parfois imperceptibles à l’échelle individuelle, permettent de réduire la consommation électrique sur l’ensemble du complexe. Introduire encore plus d’IA dans ces processus permettra de mieux organiser les files d’attente des simulations, et garantir un accès équitable aux ressources.
Face à la domination des géants américains et asiatiques, comment la France et l’Europe peuvent-elles structurer une alternative souveraine ?
L’Europe a su structurer une réponse efficace avec le programme EuroHPC, qui finance des supercalculateurs mutualisés avec plusieurs États membres. Ce dispositif nous permet de rester dans la course scientifique, ce qui est indispensable pour exister face aux investissements des États-Unis et de la Chine. Le principal défi reste le financement des infrastructures dédiées à l’IA. Contrairement aux supercalculateurs HPC, historiquement portés par les gouvernements et les instituts de recherche, les grandes machines pour l’IA sont majoritairement financées par des entreprises privées.
“Si nous voulons préserver notre souveraineté, nous devons trouver un équilibre entre financements publics et investissements privés. Il ne s’agit pas de surenchérir, mais d’adopter une approche hybride qui garantisse un accès aux infrastructures pour les entreprises et les chercheurs européens.”
Les GAFAM, OpenAI, xAI ou encore les grands acteurs chinois investissent des sommes considérables pour bâtir des centres de calcul entièrement dédiés à l’apprentissage profond. Si nous voulons préserver notre souveraineté, nous devons trouver un équilibre entre financements publics et investissements privés. Il ne s’agit pas de surenchérir, mais d’adopter une approche hybride qui garantisse un accès aux infrastructures pour les entreprises et les chercheurs européens. Rappelons aussi que nous travaillons avec EVIDEN/Bull, seul constructeur informatique européen capable d’assembler les plus grosses machines pour le HPC et l’IA, de classe exascale. C’est un atout pour l’Europe.
Quels sont les efforts menés pour réduire l’empreinte énergétique des centres de calcul ?
La consommation énergétique des supercalculateurs est un sujet central. Nos infrastructures actuelles consomment environ 15 MW et nous prévoyons d’y ajouter plus de 20 MW pour une machine exascale en 2026. Cette croissance de la puissance de calcul doit impérativement s’accompagner d’une meilleure efficacité énergétique. Nous suivons plusieurs voies pour réduire notre impact. Le refroidissement liquide direct, beaucoup plus efficace que l’air, est désormais privilégié. L’utilisation d’eau tiède ou chaude limite les besoins en refroidissement actif. Dans certains cas, la chaleur générée est récupérée pour chauffer des infrastructures voisines. Nous optimisons également l’alimentation électrique en limitant les onduleurs, en affinant la distribution de l’énergie, et en optimisant le stockage (données à vie longue sur bandes passives). À plus long terme, nous explorons des solutions permettant d’intégrer davantage d’énergies renouvelables et de développer des modèles de récupération de chaleur plus performants.
Quelles sont les grandes tendances technologiques qui façonneront l’avenir du calcul intensif ?
Les années à venir seront marquées par trois tendances majeures. D’abord, l’essor des accélérateurs spécialisés devrait s’amplifier. Le marché est dominé par les processeurs classiques et les GPU. De nouvelles architectures apparaissent, avec des puces optimisées pour des usages spécifiques, comme l’apprentissage profond, l’inférence en IA, ou la simulation moléculaire. Ensuite, l’essor du calcul quantique en complément du calcul classique pourrait redéfinir la manière dont certaines simulations sont réalisées. Nous installons actuellement deux machines quantiques dans nos infrastructures pour expérimenter ce nouveau paradigme. Enfin, la question énergétique restera au cœur des préoccupations.
La puissance des supercalculateurs continuera d’augmenter, mais leur consommation devra être plafonnée. Nous devrons développer des algorithmes plus efficaces et repenser l’organisation des centres de calcul pour réduire leur empreinte environnementale. L’IA et le HPC sont en pleine mutation et nécessitent une approche équilibrée entre innovation technologique, souveraineté numérique et responsabilité énergétique. Si l’Europe veut conserver un rôle de premier plan, elle devra continuer à investir dans des infrastructures de pointe tout en développant des solutions durables et ouvertes aux acteurs industriels et académiques.