« Écrire une page de l’histoire technologique »

Quels sont les grands enjeux stratégiques liés au développement de l’intelligence artificielle, de l’entraînement des modèles, de leur inférence, et du « Agentic Ai » souverain ? Le « code source » de l’IA est la donnée, et DDN détient un rôle structurant de l’écosystème IA, comme le montre sa collaboration historique avec NVIDIA et d’autres leaders des « Large Language Model » comme Mistral.ai. Entretien avec Laurent Thiers, Vice-Président.
Quels sont, selon vous, les défis majeurs auxquels l’intelligence artificielle est confrontée aujourd’hui, et comment votre entreprise y répond-elle ?
Les défis de l’intelligence artificielle sont immenses, multiples. Le premier défi concerne l’accès à la technologie dite « accelerated computing », qui permet d’entraîner et d’exécuter des modèles IA. Aujourd’hui, le leader du marché est NVIDIA, avec ses GPU, bien que d’autres acteurs soient également présents. Chez DDN, nous travaillons en étroite collaboration avec NVIDIA, au point que nos feuilles de route logicielles « Above The Stack » sont parfaitement alignées et imbriquées. Cela a d’ailleurs été présenté lors du GTC en Californie en mars 2025 par notre CEO Alex Bouzari et Jensen Huang, CEO de NVIDIA.
Le second défi concerne l’infrastructure cloud, c’est-à-dire les « Cloud providers ». Il existe plusieurs types de fournisseurs de cloud, notamment les « hyperscalers » historiques tels que Google, Amazon, Microsoft Azure et Oracle, qui sont des leaders mondiaux du secteur, mais ne sont pas toujours souverains sur un territoire donné. Ces fournisseurs s’appuient sur des technologies comme celles de NVIDIA pour proposer des offres complètes hébergées dans leurs data centers.
À côté de ces grands acteurs internationaux, se développent rapidement des fournisseurs de cloud nationaux pour l’accès aux précieux GPU, tels que Scaleway, OVH, Fluidstack, Outscale, Sesterce, etc., et certains sont considérés comme plus souverains car respectant la certification « SecNumCloud », comme Outscale, OVHCloud pour la version 3.2 ou en phase d’acquisition comme Scaleway – je vous invite à consulter la page officielle de l’ANSSI. Les standards de cette norme sont d’ailleurs plus contraignants notamment que la norme européenne EUCS en matière de sécurité des données. L’évolution des normes de sécurité suit une gradation : la certification ISO 27001 constitue un premier niveau, suivie d’un second niveau équivalent au standard allemand C5, puis le niveau le plus exigeant, SecNumCloud.
« Le troisième défi concerne la donnée elle-même, véritable « or noir » de l’intelligence artificielle, et plus précisément la technologie et la plateforme de stockage utilisée pour alimenter les GPU en « data ». »
Par ailleurs, des appels à projets sont actuellement menés sous l’impulsion d’EDF et de RTE, afin de valoriser des sites stratégiques en France, en y accueillant des technologies de calcul avancé, répondant à un besoin de valoriser la consommation électrique nationale. Ces infrastructures joueront un rôle essentiel dans l’entraînement et l’inférence des modèles d’intelligence artificielle, contribuant ainsi à la transformation de l’ensemble des secteurs industriels.
Le troisième défi concerne la donnée elle-même, véritable « or noir » de l’intelligence artificielle, et plus précisément la technologie et la plateforme de stockage utilisée pour alimenter les GPU en « data ».
Premier enjeu : les lectures rapides. L’entraînement des grands modèles d’IA a besoin de lire constamment d’importants jeux de données, qu’ils proviennent du web ou de sources privées, à partir d’une plateforme de stockage centralisée. Pendant ce temps de lecture, les GPU ne calculent pas et doivent attendre la fin de lecture des « dataset ». Deuxième enjeu et probablement encore plus critique, l’écriture des données : les utilisateurs du cluster d’entraînement effectuent régulièrement des « checkpoints » afin de se prémunir d’une erreur fatale dudit cluster. En effet, dans ce cas, on revient au dernier checkpoint afin de ne pas recommencer l’entraînement au début ! Ou encore lorsque le modèle commence à « halluciner » on retournera à une version optimale grâce à un checkpoint précédent. Bien sûr vous avez compris que pendant ces écritures les GPU ne peuvent pas continuer à calculer…
« Tout au long de la phase d’entraînement, l’utilisation d’une plateforme de stockage centralisée comme DDN est essentielle pour garantir une efficacité maximale des précieux GPU. »
Ainsi vous voyez que tout au long de la phase d’entraînement, qui peut prendre des semaines ou des mois sans interruption, l’utilisation d’une plateforme de stockage centralisée comme DDN est essentielle pour garantir une efficacité maximale des précieux GPU. Enfin, l’optimisation de l’infrastructure de ladite plateforme de stockage, à savoir sa faible occupation physique, connectivité réseau et consommation énergétique, est un enjeu central pour réduire les coûts de l’entraînement des modèles.
Passons à l’inférence. Une fois le modèle entraîné, il est mis à disposition des utilisateurs et on parle alors « d’inférence ». L’efficacité de l’inférence a été récemment améliorée avec le concept du Retrieval-Augmented Generation : l’architecture RAG augmente considérablement la pertinence des réponses en intégrant en temps réel des données spécifiques aux clients. Là encore, la performance du stockage DDN est une des garanties du succès de l’architecture d’inférence RAG.
Et « l’Agentic Ai » alors ? C’est maintenant ! On se réfère ici à des systèmes IA autonomes capables de prendre des décisions complexes sans intervention humaine constante. Il est indispensable dans ce cas que les agents IA puissent échanger des datasets, mais plus encore des méta-données, et en temps réel. Performance ? La plus faible latence des entrées-sorties ? Vous aurez reconnu la marque de fabrique de DDN…
« Les mathématiciens et scientifiques de la donnée sont les véritables créateurs de valeur, supportés par les ingénieurs systèmes IA. »
Pour conclure, le quatrième défi, transverse aux précédents, est l’ingénierie humaine. Les mathématiciens et scientifiques de la donnée sont les véritables créateurs de valeur, supportés par les ingénieurs systèmes IA. Ils développent des solutions à partir des outils proposés par NVIDIA, DDN et d’autres éditeurs de piles logicielles. En France, nous avons la chance de compter sur des talents de premier plan, tant dans le secteur privé (KYUTAI) que dans le public : citons l’incontournable cluster Jean Zay à l’IDRIS-CNRS financé par le Genci – de nombreuses start-up mondialement connues ont pu y entraîner leurs modèles initiaux (Mistral.ai, Owkin, LightOn, HuggingFace…).
Si vous avez un projet IA, je vous invite à nous contacter et à considérer la dernière solution de DDN, INFINIA. Vous apprécierez la convergence entre données et moyens de calcul, sur site, dans le cloud, et avec la périphérie (Edge Computing) facilitée par l’intégration native avec les hubs de communication de NVIDIA par exemple. On est bien « Above The Stack »…
Quelle est la dynamique de votre développement international ?
DDN est une entreprise franco-américaine, fondée par des ingénieurs français, avec une R&D significative en France.
Notre développement international est intrinsèquement lié à l’expansion des centres de données et à la mondialisation des cas d’usage de l’intelligence artificielle. L’émergence de conglomérats de cloud providers souverains et semi-souverains s’accompagne d’une interdépendance croissante des infrastructures de calcul et de stockage. Le déploiement de l’IA repose sur des infrastructures globales, interconnectées et capables d’assurer un entraînement distribué et une inférence optimisée, y compris dans des environnements « Edge » (périphériques).
Les investissements dans le domaine de l’IA reposent également sur des financements diversifiés. En France, les incitations concernent notamment l’accès à l’énergie. Le dynamisme de l’écosystème français, tant privé que public, contribue activement à l’expansion de l’IA et au rayonnement de DDN sur la scène internationale ! Parallèlement, des fonds souverains du Moyen-Orient investissent dans les infrastructures de cloud et de calcul de nouvelle génération.
Un mot à l’adresse de nos lecteurs ?
Nous recrutons activement des ingénieurs dans tous les domaines de notre activité, que ce soit pour la recherche et développement, les ventes ou l’avant-vente. L’intelligence artificielle étant une course contre la montre, nous recherchons des talents motivés, combatifs, prêts à écrire ensemble une page de l’histoire technologique. De nombreux postes sont ouverts en France, mais aussi à l’international.