DDN

« Écrire une page de l’histoire technologique »

Dossier : Vie des entreprises - Transformation numérique et intelligence artificielleMagazine N°805 Mai 2025
Par Laurent THIERS

Quels sont les grands enjeux stra­té­giques liés au déve­lop­pe­ment de l’intelligence arti­fi­cielle, de l’entraînement des modèles, de leur infé­rence, et du « Agen­tic Ai » sou­ve­rain ? Le « code source » de l’IA est la don­née, et DDN détient un rôle struc­tu­rant de l’écosystème IA, comme le montre sa col­la­bo­ra­tion his­to­rique avec NVIDIA et d’autres lea­ders des « Large Lan­guage Model » comme Mistral.ai. Entre­tien avec Laurent Thiers, Vice-Pré­sident.

Quels sont, selon vous, les défis majeurs auxquels l’intelligence artificielle est confrontée aujourd’hui, et comment votre entreprise y répond-elle ?

Les défis de l’intelligence arti­fi­cielle sont immenses, mul­tiples. Le pre­mier défi concerne l’accès à la tech­no­lo­gie dite « acce­le­ra­ted com­pu­ting », qui per­met d’entraîner et d’exécuter des modèles IA. Aujourd’hui, le lea­der du mar­ché est NVIDIA, avec ses GPU, bien que d’autres acteurs soient éga­le­ment pré­sents. Chez DDN, nous tra­vaillons en étroite col­la­bo­ra­tion avec NVIDIA, au point que nos feuilles de route logi­cielles « Above The Stack » sont par­fai­te­ment ali­gnées et imbri­quées. Cela a d’ailleurs été pré­sen­té lors du GTC en Cali­for­nie en mars 2025 par notre CEO Alex Bou­za­ri et Jen­sen Huang, CEO de NVIDIA.

Le second défi concerne l’infrastructure cloud, c’est-à-dire les « Cloud pro­vi­ders ». Il existe plu­sieurs types de four­nis­seurs de cloud, notam­ment les « hyper­sca­lers » his­to­riques tels que Google, Ama­zon, Micro­soft Azure et Oracle, qui sont des lea­ders mon­diaux du sec­teur, mais ne sont pas tou­jours sou­ve­rains sur un ter­ri­toire don­né. Ces four­nis­seurs s’appuient sur des tech­no­lo­gies comme celles de NVIDIA pour pro­po­ser des offres com­plètes héber­gées dans leurs data centers. 

À côté de ces grands acteurs inter­na­tio­naux, se déve­loppent rapi­de­ment des four­nis­seurs de cloud natio­naux pour l’accès aux pré­cieux GPU, tels que Sca­le­way, OVH, Fluid­stack, Outs­cale, Ses­terce, etc., et cer­tains sont consi­dé­rés comme plus sou­ve­rains car res­pec­tant la cer­ti­fi­ca­tion « Sec­Num­Cloud », comme Outs­cale, OVH­Cloud pour la ver­sion 3.2 ou en phase d’acquisition comme Sca­le­way – je vous invite à consul­ter la page offi­cielle de l’ANSSI. Les stan­dards de cette norme sont d’ailleurs plus contrai­gnants notam­ment que la norme euro­péenne EUCS en matière de sécu­ri­té des don­nées. L’évolution des normes de sécu­ri­té suit une gra­da­tion : la cer­ti­fi­ca­tion ISO 27001 consti­tue un pre­mier niveau, sui­vie d’un second niveau équi­valent au stan­dard alle­mand C5, puis le niveau le plus exi­geant, SecNumCloud.

« Le troisième défi concerne la donnée elle-même, véritable « or noir » de l’intelligence artificielle, et plus précisément la technologie et la plateforme de stockage utilisée pour alimenter les GPU en « data ». »

Par ailleurs, des appels à pro­jets sont actuel­le­ment menés sous l’impulsion d’EDF et de RTE, afin de valo­ri­ser des sites stra­té­giques en France, en y accueillant des tech­no­lo­gies de cal­cul avan­cé, répon­dant à un besoin de valo­ri­ser la consom­ma­tion élec­trique natio­nale. Ces infra­struc­tures joue­ront un rôle essen­tiel dans l’entraînement et l’inférence des modèles d’intelligence arti­fi­cielle, contri­buant ain­si à la trans­for­ma­tion de l’ensemble des sec­teurs industriels.

Le troi­sième défi concerne la don­née elle-même, véri­table « or noir » de l’intelligence arti­fi­cielle, et plus pré­ci­sé­ment la tech­no­lo­gie et la pla­te­forme de sto­ckage uti­li­sée pour ali­men­ter les GPU en « data ».

Pre­mier enjeu : les lec­tures rapides. L’entraînement des grands modèles d’IA a besoin de lire constam­ment d’importants jeux de don­nées, qu’ils pro­viennent du web ou de sources pri­vées, à par­tir d’une pla­te­forme de sto­ckage cen­tra­li­sée. Pen­dant ce temps de lec­ture, les GPU ne cal­culent pas et doivent attendre la fin de lec­ture des « data­set ». Deuxième enjeu et pro­ba­ble­ment encore plus cri­tique, l’écriture des don­nées : les uti­li­sa­teurs du clus­ter d’entraînement effec­tuent régu­liè­re­ment des « check­points » afin de se pré­mu­nir d’une erreur fatale dudit clus­ter. En effet, dans ce cas, on revient au der­nier check­point afin de ne pas recom­men­cer l’entraînement au début ! Ou encore lorsque le modèle com­mence à « hal­lu­ci­ner » on retour­ne­ra à une ver­sion opti­male grâce à un check­point pré­cé­dent. Bien sûr vous avez com­pris que pen­dant ces écri­tures les GPU ne peuvent pas conti­nuer à calculer…

« Tout au long de la phase d’entraînement, l’utilisation d’une plateforme de stockage centralisée comme DDN est essentielle pour garantir une efficacité maximale des précieux GPU. »

Ain­si vous voyez que tout au long de la phase d’entraînement, qui peut prendre des semaines ou des mois sans inter­rup­tion, l’utilisation d’une pla­te­forme de sto­ckage cen­tra­li­sée comme DDN est essen­tielle pour garan­tir une effi­ca­ci­té maxi­male des pré­cieux GPU. Enfin, l’optimisation de l’infrastructure de ladite pla­te­forme de sto­ckage, à savoir sa faible occu­pa­tion phy­sique, connec­ti­vi­té réseau et consom­ma­tion éner­gé­tique, est un enjeu cen­tral pour réduire les coûts de l’entraînement des modèles.

Pas­sons à l’inférence. Une fois le modèle entraî­né, il est mis à dis­po­si­tion des uti­li­sa­teurs et on parle alors « d’inférence ». L’efficacité de l’inférence a été récem­ment amé­lio­rée avec le concept du Retrie­val-Aug­men­ted Gene­ra­tion : l’architecture RAG aug­mente consi­dé­ra­ble­ment la per­ti­nence des réponses en inté­grant en temps réel des don­nées spé­ci­fiques aux clients. Là encore, la per­for­mance du sto­ckage DDN est une des garan­ties du suc­cès de l’architecture d’inférence RAG.

Et « l’Agentic Ai » alors ? C’est main­te­nant ! On se réfère ici à des sys­tèmes IA auto­nomes capables de prendre des déci­sions com­plexes sans inter­ven­tion humaine constante. Il est indis­pen­sable dans ce cas que les agents IA puissent échan­ger des data­sets, mais plus encore des méta-don­nées, et en temps réel. Per­for­mance ? La plus faible latence des entrées-sor­ties ? Vous aurez recon­nu la marque de fabrique de DDN…

« Les mathématiciens et scientifiques de la donnée sont les véritables créateurs de valeur, supportés par les ingénieurs systèmes IA. »

Pour conclure, le qua­trième défi, trans­verse aux pré­cé­dents, est l’ingénierie humaine. Les mathé­ma­ti­ciens et scien­ti­fiques de la don­née sont les véri­tables créa­teurs de valeur, sup­por­tés par les ingé­nieurs sys­tèmes IA. Ils déve­loppent des solu­tions à par­tir des outils pro­po­sés par NVIDIA, DDN et d’autres édi­teurs de piles logi­cielles. En France, nous avons la chance de comp­ter sur des talents de pre­mier plan, tant dans le sec­teur pri­vé (KYUTAI) que dans le public : citons l’incontournable clus­ter Jean Zay à l’IDRIS-CNRS finan­cé par le Gen­ci – de nom­breuses start-up mon­dia­le­ment connues ont pu y entraî­ner leurs modèles ini­tiaux (Mistral.ai, Owkin, Ligh­tOn, HuggingFace…).

Si vous avez un pro­jet IA, je vous invite à nous contac­ter et à consi­dé­rer la der­nière solu­tion de DDN, INFINIA. Vous appré­cie­rez la conver­gence entre don­nées et moyens de cal­cul, sur site, dans le cloud, et avec la péri­phé­rie (Edge Com­pu­ting) faci­li­tée par l’intégration native avec les hubs de com­mu­ni­ca­tion de NVIDIA par exemple. On est bien « Above The Stack »…

Quelle est la dynamique de votre développement international ?

DDN est une entre­prise fran­co-amé­ri­caine, fon­dée par des ingé­nieurs fran­çais, avec une R&D signi­fi­ca­tive en France.

Notre déve­lop­pe­ment inter­na­tio­nal est intrin­sè­que­ment lié à l’expansion des centres de don­nées et à la mon­dia­li­sa­tion des cas d’usage de l’intelligence arti­fi­cielle. L’émergence de conglo­mé­rats de cloud pro­vi­ders sou­ve­rains et semi-sou­ve­rains s’accompagne d’une inter­dé­pen­dance crois­sante des infra­struc­tures de cal­cul et de sto­ckage. Le déploie­ment de l’IA repose sur des infra­struc­tures glo­bales, inter­con­nec­tées et capables d’assurer un entraî­ne­ment dis­tri­bué et une infé­rence opti­mi­sée, y com­pris dans des envi­ron­ne­ments « Edge » (péri­phé­riques).

Les inves­tis­se­ments dans le domaine de l’IA reposent éga­le­ment sur des finan­ce­ments diver­si­fiés. En France, les inci­ta­tions concernent notam­ment l’accès à l’énergie. Le dyna­misme de l’écosystème fran­çais, tant pri­vé que public, contri­bue acti­ve­ment à l’expansion de l’IA et au rayon­ne­ment de DDN sur la scène inter­na­tio­nale ! Paral­lè­le­ment, des fonds sou­ve­rains du Moyen-Orient inves­tissent dans les infra­struc­tures de cloud et de cal­cul de nou­velle génération.

Un mot à l’adresse de nos lecteurs ?

Nous recru­tons acti­ve­ment des ingé­nieurs dans tous les domaines de notre acti­vi­té, que ce soit pour la recherche et déve­lop­pe­ment, les ventes ou l’avant-vente. L’intelligence arti­fi­cielle étant une course contre la montre, nous recher­chons des talents moti­vés, com­ba­tifs, prêts à écrire ensemble une page de l’histoire tech­no­lo­gique. De nom­breux postes sont ouverts en France, mais aus­si à l’international. 

www.ddn.com

Poster un commentaire