Supercalculateur EXA du CEA/DAM. © CEA/CADAM

HPC, IA et Souveraineté : enjeux et perspectives

Dossier : Vie des entreprises - Transformation numérique et intelligence artificielleMagazine N°805 Mai 2025
Par Jean-Philippe NOMINÉ (X83)

Les super­cal­cu­la­teurs jouent un rôle clé dans la recherche, l’industrie et la défense. Le CEA, à tra­vers son com­plexe de cal­cul, opère des infra­struc­tures de pointe et observe l’évolution des usages en simu­la­tion numé­rique, intel­li­gence arti­fi­cielle et ges­tion de don­nées massives.
Jean-Phi­lippe Nomi­né (X83), res­pon­sable des col­la­bo­ra­tions stra­té­giques en cal­cul haute per­for­mance (HPC) auprès du com­plexe de cal­cul du CEA revient sur les ten­dances actuelles et les défis de la sou­ve­rai­ne­té technologique.

Quel est le rôle du complexe de calcul du CEA et quelles sont ses missions ?

Le com­plexe de cal­cul du CEA repose sur plu­sieurs com­po­santes, regrou­pées au CEA DAM Île-de-France en Essonne, et couvre trois grands domaines d’applications : la défense, la recherche et l’industrie. À l’origine conçu pour répondre aux besoins de la dis­sua­sion, il s’est ouvert à d’autres usages, pour le cal­cul scien­ti­fique et indus­triel à l’échelle fran­çaise et euro­péenne. La par­ti­cu­la­ri­té de ce com­plexe est son approche mul­ti­sec­to­rielle, avec plu­sieurs cal­cu­la­teurs utiles à des domaines aus­si variés que la modé­li­sa­tion du cli­mat, la phy­sique nucléaire, la concep­tion de maté­riaux ou encore la mise au point d’algorithmes d’intelligence arti­fi­cielle (IA). Grâce à cette diver­si­té d’usages, nous avons une vision d’ensemble des ten­dances en matière de simu­la­tion numé­rique et d’IA appliquée.

L’IA et le calcul haute performance (HPC) sont de plus en plus imbriqués. Quelles tendances observez-vous ?

L’IA et le HPC sont de plus en plus com­plé­men­taires. Nous obser­vons trois grandes ten­dances. D’abord, l’utilisation des modèles de sub­sti­tu­tion se géné­ra­lise. Plu­tôt que d’effectuer des cal­culs numé­riques en boucle, cer­tains seg­ments de simu­la­tions sont rem­pla­cés par des modèles pré-entraî­nés qui accé­lèrent les cal­culs sans perte de pré­ci­sion. Ceci béné­fi­cie par exemple à la météo­ro­lo­gie, la cli­ma­to­lo­gie, où chaque boucle de cal­cul éco­no­mi­sée repré­sente un gain consi­dé­rable. Ensuite, les réseaux de neu­rones infor­més par la phy­sique sont une autre avan­cée pro­met­teuse. Les algo­rithmes d’apprentissage auto­ma­tique sont gui­dés par des lois phy­siques dans le pro­ces­sus de modé­li­sa­tion. Le modèle reste cohé­rent tout en accé­lé­rant la réso­lu­tion des équa­tions com­plexes. Enfin, l’IA amé­liore la ges­tion et l’exploitation des masses de don­nées pro­duites par les super­cal­cu­la­teurs, pour fil­trer, struc­tu­rer et ana­ly­ser ces don­nées, ren­dant leur exploi­ta­tion beau­coup plus effi­cace et pertinente.

Comment l’IA contribue-t-elle à l’optimisation des centres de calcul eux-mêmes ?

L’IA n’est pas seule­ment uti­li­sée pour amé­lio­rer les simu­la­tions, elle est aus­si un outil pour opti­mi­ser le fonc­tion­ne­ment des infra­struc­tures de cal­cul. Nous devons gérer simul­ta­né­ment des cen­taines d’utilisateurs qui lancent des mil­liers de simu­la­tions com­plexes. Cela implique une ges­tion fine des res­sources infor­ma­tiques, des flux de don­nées et de la consom­ma­tion éner­gé­tique. En ana­ly­sant en temps réel des mil­lions d’événements jour­na­li­sés, nous sommes capables d’améliorer les réglages pour la pro­duc­tion, voire d’anticiper les défaillances et d’intervenir avant qu’une panne ne sur­vienne. Cette approche amé­liore la fia­bi­li­té et la dis­po­ni­bi­li­té des sys­tèmes. L’optimisation éner­gé­tique est un autre enjeu majeur.

Nos machines fonc­tionnent en conti­nu et consomment énor­mé­ment d’énergie. Nous sur­veillons, affi­nons la ges­tion des charges de cal­cul, ajus­tons les para­mètres de refroi­dis­se­ment et amé­lio­rons l’efficacité du sto­ckage des don­nées. Ces ajus­te­ments, par­fois imper­cep­tibles à l’échelle indi­vi­duelle, per­mettent de réduire la consom­ma­tion élec­trique sur l’ensemble du com­plexe. Intro­duire encore plus d’IA dans ces pro­ces­sus per­met­tra de mieux orga­ni­ser les files d’attente des simu­la­tions, et garan­tir un accès équi­table aux ressources.

Face à la domination des géants américains et asiatiques, comment la France et l’Europe peuvent-elles structurer une alternative souveraine ?

L’Europe a su struc­tu­rer une réponse effi­cace avec le pro­gramme EuroHPC, qui finance des super­cal­cu­la­teurs mutua­li­sés avec plu­sieurs États membres. Ce dis­po­si­tif nous per­met de res­ter dans la course scien­ti­fique, ce qui est indis­pen­sable pour exis­ter face aux inves­tis­se­ments des États-Unis et de la Chine. Le prin­ci­pal défi reste le finan­ce­ment des infra­struc­tures dédiées à l’IA. Contrai­re­ment aux super­cal­cu­la­teurs HPC, his­to­ri­que­ment por­tés par les gou­ver­ne­ments et les ins­ti­tuts de recherche, les grandes machines pour l’IA sont majo­ri­tai­re­ment finan­cées par des entre­prises privées.

“Si nous voulons préserver notre souveraineté, nous devons trouver un équilibre entre financements publics et investissements privés. Il ne s’agit pas de surenchérir, mais d’adopter une approche hybride qui garantisse un accès aux infrastructures pour les entreprises et les chercheurs européens.”

Les GAFAM, Ope­nAI, xAI ou encore les grands acteurs chi­nois inves­tissent des sommes consi­dé­rables pour bâtir des centres de cal­cul entiè­re­ment dédiés à l’apprentissage pro­fond. Si nous vou­lons pré­ser­ver notre sou­ve­rai­ne­té, nous devons trou­ver un équi­libre entre finan­ce­ments publics et inves­tis­se­ments pri­vés. Il ne s’agit pas de sur­en­ché­rir, mais d’adopter une approche hybride qui garan­tisse un accès aux infra­struc­tures pour les entre­prises et les cher­cheurs euro­péens. Rap­pe­lons aus­si que nous tra­vaillons avec EVIDEN/Bull, seul construc­teur infor­ma­tique euro­péen capable d’assembler les plus grosses machines pour le HPC et l’IA, de classe exas­cale. C’est un atout pour l’Europe.

Quels sont les efforts menés pour réduire l’empreinte énergétique des centres de calcul ?

La consom­ma­tion éner­gé­tique des super­cal­cu­la­teurs est un sujet cen­tral. Nos infra­struc­tures actuelles consomment envi­ron 15 MW et nous pré­voyons d’y ajou­ter plus de 20 MW pour une machine exas­cale en 2026. Cette crois­sance de la puis­sance de cal­cul doit impé­ra­ti­ve­ment s’accompagner d’une meilleure effi­ca­ci­té éner­gé­tique. Nous sui­vons plu­sieurs voies pour réduire notre impact. Le refroi­dis­se­ment liquide direct, beau­coup plus effi­cace que l’air, est désor­mais pri­vi­lé­gié. L’utilisation d’eau tiède ou chaude limite les besoins en refroi­dis­se­ment actif. Dans cer­tains cas, la cha­leur géné­rée est récu­pé­rée pour chauf­fer des infra­struc­tures voi­sines. Nous opti­mi­sons éga­le­ment l’alimentation élec­trique en limi­tant les ondu­leurs, en affi­nant la dis­tri­bu­tion de l’énergie, et en opti­mi­sant le sto­ckage (don­nées à vie longue sur bandes pas­sives). À plus long terme, nous explo­rons des solu­tions per­met­tant d’intégrer davan­tage d’énergies renou­ve­lables et de déve­lop­per des modèles de récu­pé­ra­tion de cha­leur plus performants.

Quelles sont les grandes tendances technologiques qui façonneront l’avenir du calcul intensif ?

Les années à venir seront mar­quées par trois ten­dances majeures. D’abord, l’essor des accé­lé­ra­teurs spé­cia­li­sés devrait s’amplifier. Le mar­ché est domi­né par les pro­ces­seurs clas­siques et les GPU. De nou­velles archi­tec­tures appa­raissent, avec des puces opti­mi­sées pour des usages spé­ci­fiques, comme l’apprentissage pro­fond, l’inférence en IA, ou la simu­la­tion molé­cu­laire. Ensuite, l’essor du cal­cul quan­tique en com­plé­ment du cal­cul clas­sique pour­rait redé­fi­nir la manière dont cer­taines simu­la­tions sont réa­li­sées. Nous ins­tal­lons actuel­le­ment deux machines quan­tiques dans nos infra­struc­tures pour expé­ri­men­ter ce nou­veau para­digme. Enfin, la ques­tion éner­gé­tique res­te­ra au cœur des préoccupations.

La puis­sance des super­cal­cu­la­teurs conti­nue­ra d’augmenter, mais leur consom­ma­tion devra être pla­fon­née. Nous devrons déve­lop­per des algo­rithmes plus effi­caces et repen­ser l’organisation des centres de cal­cul pour réduire leur empreinte envi­ron­ne­men­tale. L’IA et le HPC sont en pleine muta­tion et néces­sitent une approche équi­li­brée entre inno­va­tion tech­no­lo­gique, sou­ve­rai­ne­té numé­rique et res­pon­sa­bi­li­té éner­gé­tique. Si l’Europe veut conser­ver un rôle de pre­mier plan, elle devra conti­nuer à inves­tir dans des infra­struc­tures de pointe tout en déve­lop­pant des solu­tions durables et ouvertes aux acteurs indus­triels et académiques.

Poster un commentaire