TW3 Partners : Réinventer l’IA Générative avec l’Open Source

TW3 Partners : Réinventer l’IA Générative avec l’Open Source

Dossier : Vie des entreprises - Transformation numérique et intelligence artificielleMagazine N°805 Mai 2025
Par André-Louis ROCHET

Dans un contexte où l’intelligence arti­fi­cielle géné­ra­tive trans­forme le monde de l’entreprise, TW3 PARTNERS émerge comme un acteur inno­vant dans l’implémentation de cette tech­no­lo­gie. Fon­dée en 2023 par André-Louis Rochet, TW3 Part­ners s’est dis­tin­guée par sa capa­ci­té à conce­voir des archi­tec­tures d’IA per­son­na­li­sées, répon­dant pré­ci­sé­ment aux enjeux spé­ci­fiques de chaque orga­ni­sa­tion. André-Louis Rochet par­tage avec nous sa vision des déve­lop­pe­ments récents de cette tech­no­lo­gie trans­for­ma­tive.

Qu’est-ce qui distingue TW3 Partners des autres entreprises IA Gen ?

Sur le mar­ché des Large Lan­guage Models (LLM), il y a bien sûr les modèles close source (pro­prié­taires) des géants amé­ri­cains, comme Ope­nAI, Anthro­pic, etc. La ten­ta­tion, par­ti­cu­liè­re­ment dans le B2C, c’est le chat­bot inter­agis­sant avec les LLM pro­prié­taires via des API. Mais, à côté des modèles pro­prié­taires, il y a aus­si toute la galaxie foi­son­nante des modèles open source, qui s’est ins­tal­lée dura­ble­ment dans le pay­sage, un peu à la manière de LINUX pour les OS. Ain­si Hug­ging Face, qui est à la fois une entre­prise et une com­mu­nau­té vir­tuelle, s’est impo­sée comme biblio­thèque open source et comme plate-forme de par­tage de modèles de référence.

“L’open source offre une très grande variété d’applications pour les entreprises, avec de gros avantages en termes de coûts, de confidentialité/souveraineté.”

L’open source offre une très grande varié­té d’applications pour les entre­prises, avec de gros avan­tages en termes de coûts, de confidentialité/souveraineté. TW3 Part­ners se spé­cia­lise de plus en plus dans l’utilisation de modèles open source pour des implé­men­ta­tions de l’IA Gen en entreprise.

Dites-nous alors pourquoi une entreprise devrait choisir des solutions open source ?

C’est pour beau­coup un choix éco­no­mique très inté­res­sant, sur­tout pour les entre­prises dans le B2C, où le coût à la requête (le fameux prompt) est un cri­tère impor­tant. Des chat­bots sou­mis à des gros volumes peuvent conduire à des coûts énormes dans une confi­gu­ra­tion du type « très gros modèle close source » via abon­ne­ment ou API. C’est pour­quoi il est impor­tant que chaque cas d’usage ait un modèle adap­té, et qu’il soit d’une taille opti­male par rap­port à la com­plexi­té de la ques­tion. Comme la consom­ma­tion dimi­nue lorsque la taille des modèles devient plus petite, cela peut, dans cer­tains cas, deve­nir inté­res­sant du point de vue éco­no­mique, et bien sûr ver­tueux du point de vue environnemental.

Quelles sont vos réalisations dans le domaine de l’open source

Nous avons publié en 2024 plus d’une ving­taine de modèles sur Hug­ging Face tota­li­sant plus de 300 000 télé­char­ge­ments, y com­pris de gros modèles comme Le Triom­phant réa­li­sé en par­te­na­riat avec l’ECE École d’ingénieurs numé­riques de Paris avec des tech­niques de mer­ging (fusion de LLM). Il a été clas­sé numé­ro 1 mon­dial en open source sur Hug­ging Face en mai 2024 et comp­ta­bi­lise plus de 20 000 télé­char­ge­ments à ce jour. Aujourd’hui nous nous foca­li­sons sur les VLM (vision lan­guage model) qui per­mettent d’analyser des images (gra­phiques 3D, tableaux, etc.) et la créa­tion d’un bench­mark de réfé­rence. Nous « open-sour­ce­rons » nos modèles sur dif­fé­rents sec­teurs (éner­gie, finance, géo­tech­nique, hôtellerie/voyage, etc.) ain­si que les data sets. Ça signi­fie que les acteurs peuvent les uti­li­ser gratuitement.

Quelle est votre vision de l’architecture idéale pour déployer l’IA générative en entreprise ? Comment arbitrez-vous entre solutions propriétaires et open source ?

En fait, il faut être mesu­ré et tou­jours cher­cher les meilleures solu­tions pour un domaine don­né. D’un côté, pour que les modèles open source deviennent ren­tables, il faut réunir un nombre impor­tant d’utilisateurs pour réa­li­ser une éco­no­mie d’échelle sur l’usage des GPUs (les pro­ces­seurs gra­phiques, for­te­ment paral­lé­li­sés et uti­li­sés pour l’IA). De l’autre, une archi­tec­ture close-source en API peut coû­ter très cher, en moyenne 20 euros par uti­li­sa­teur par mois sur des cas d’usages comme des chat­bots internes.

“Si l’on adopte une architecture hybride open/close, le coût par utilisateur peut diminuer de plus de la moitié.”

Si l’on adopte une archi­tec­ture hybride open/close source — un mix de petits modèles open source sur des tâches spé­cia­li­sées et de très gros modèles close source de rai­son­ne­ment pour des tâches très com­plexes —, le coût par uti­li­sa­teur peut dimi­nuer de plus de la moi­tié. C’est ce que nous pré­co­ni­sons. Main­te­nant pour des ques­tions de sou­ve­rai­ne­té (défense, etc.), l’open-source fonc­tion­nant sur des GPU internes, ou sur ceux de clouds de droit fran­çais, peut s’avérer indispensable.

Quels sont les grands types de cas d’usage que vous avez rencontrés et ceux que vous avez industrialisés avec succès ?

Les entre­prises veulent digi­ta­li­ser les connais­sances, savoirs et don­nées qu’elles ont accu­mu­lés (know­ledge). Mais il s’agit d’aller au-delà de l’extraction de la don­née. Il faut pou­voir extraire toute l’information des docu­ments et de cor­rec­te­ment la réfé­ren­cer (c’est-à-dire des gra­phiques, des images des sché­mas, etc.). Les outils d’IA Gen, LLM et VLM (Vision Lan­guage Models) sont clés dans cette opération.

Ensuite elles veulent exploi­ter ces connais­sances. Nous rece­vons une forte demande dans la créa­tion d’outils de Know­ledge Mana­ge­ment. Les entre­prises veulent qu’on leur construise des moteurs de recherche internes sur les connais­sances de l’entreprise. Cette exploi­ta­tion per­met par la suite de créer des agents experts sur dif­fé­rents domaines, ou de per­son­na­li­ser des auto­ma­ti­sa­tions avec de la connais­sance spécifique.

Les direc­tions sou­haitent avoir une meilleure visi­bi­li­té sur les usages dans les diverses équipes. Elles demandent que l’utilisation de ces nou­veaux outils soit tra­çable (bien sûr dans le res­pect des régle­men­ta­tions) et inter­pré­table. Ceci per­met de faire res­sor­tir les grands sujets sur les­quels les équipes se sont pen­chées. Ce sont des indi­ca­tions pré­cieuses pour mieux moti­ver les équipes et/ou éta­blir des plans de formation.

Quels sont les futurs projets de TW3 Partners ?

TW3 Part­ners déve­loppe RACINE.AI une solu­tion com­bi­nant trois élé­ments : des modèles per­for­mants dimen­sion­nés selon la com­plexi­té des tâches, un rou­teur intel­li­gent pour sélec­tion­ner le LLM appro­prié, et un outil de ges­tion des bases de connais­sance, pour la plu­part déjà en test chez cer­tains de nos clients. L’objectif est d’optimiser les coûts et les per­for­mances tout en garan­tis­sant une ges­tion effi­cace des connais­sances d’entreprise.

Comment voyez-vous l’évolution des technologies émergentes et leur impact sur les entreprises d’ici 5 à 10 ans ? 

Selon moi, à court/moyen terme, les évo­lu­tions tech­no­lo­giques anti­ci­pées s’orientent vers des modèles plus fru­gaux, mais aus­si plus per­for­mants sur des tâches spé­cia­li­sées, le déve­lop­pe­ment des sys­tèmes mul­tia­gents, et enfin le déve­lop­pe­ment des solu­tions d’extractions et d’exploitation de don­nées mul­ti­mo­dales (texte, gra­phiques, images) qui donnent aus­si la pos­si­bi­li­té de citer les sources. C’est ce sur quoi on tra­vaille actuel­le­ment en R&D à TW3 Partners.

Quant à l’évolution des très gros modèles pro­prié­taires des GAFAM, les années 2023–2024 ont été mar­quées par une aug­men­ta­tion impres­sion­nante de leurs capa­ci­tés et de leur pré­ci­sion. Cepen­dant, ils ont été chal­len­gés en ce début d’année 2025 par le modèle chi­nois Deep­Seek qui atteint des per­for­mances égales voire meilleures, sur cer­tains de leurs bench­marks. C’est pour­quoi les États-Unis veulent main­te­nir leur lea­der­ship dans le domaine avec des ini­tia­tives récentes comme le pro­jet Star­gate. Mais la com­pé­ti­tion ne se limite pas à la taille des modèles. L’optimisation des archi­tec­tures est deve­nue un enjeu cru­cial, comme en témoignent les per­for­mances de Deep­Seek. Cette évo­lu­tion sera néces­saire pour trai­ter effi­ca­ce­ment le volume crois­sant de don­nées issues du Web, des sources indus­trielles et des IoT. À plus long terme, une avan­cée tech­no­lo­gique majeure comme l’informatique quan­tique pour­rait révo­lu­tion­ner notre approche du trai­te­ment des données.

https://tw3partners.fr/

Poster un commentaire