TW3 Partners : Réinventer l’IA Générative avec l’Open Source

Dans un contexte où l’intelligence artificielle générative transforme le monde de l’entreprise, TW3 PARTNERS émerge comme un acteur innovant dans l’implémentation de cette technologie. Fondée en 2023 par André-Louis Rochet, TW3 Partners s’est distinguée par sa capacité à concevoir des architectures d’IA personnalisées, répondant précisément aux enjeux spécifiques de chaque organisation. André-Louis Rochet partage avec nous sa vision des développements récents de cette technologie transformative.
Qu’est-ce qui distingue TW3 Partners des autres entreprises IA Gen ?
Sur le marché des Large Language Models (LLM), il y a bien sûr les modèles close source (propriétaires) des géants américains, comme OpenAI, Anthropic, etc. La tentation, particulièrement dans le B2C, c’est le chatbot interagissant avec les LLM propriétaires via des API. Mais, à côté des modèles propriétaires, il y a aussi toute la galaxie foisonnante des modèles open source, qui s’est installée durablement dans le paysage, un peu à la manière de LINUX pour les OS. Ainsi Hugging Face, qui est à la fois une entreprise et une communauté virtuelle, s’est imposée comme bibliothèque open source et comme plate-forme de partage de modèles de référence.
“L’open source offre une très grande variété d’applications pour les entreprises, avec de gros avantages en termes de coûts, de confidentialité/souveraineté.”
L’open source offre une très grande variété d’applications pour les entreprises, avec de gros avantages en termes de coûts, de confidentialité/souveraineté. TW3 Partners se spécialise de plus en plus dans l’utilisation de modèles open source pour des implémentations de l’IA Gen en entreprise.
Dites-nous alors pourquoi une entreprise devrait choisir des solutions open source ?
C’est pour beaucoup un choix économique très intéressant, surtout pour les entreprises dans le B2C, où le coût à la requête (le fameux prompt) est un critère important. Des chatbots soumis à des gros volumes peuvent conduire à des coûts énormes dans une configuration du type « très gros modèle close source » via abonnement ou API. C’est pourquoi il est important que chaque cas d’usage ait un modèle adapté, et qu’il soit d’une taille optimale par rapport à la complexité de la question. Comme la consommation diminue lorsque la taille des modèles devient plus petite, cela peut, dans certains cas, devenir intéressant du point de vue économique, et bien sûr vertueux du point de vue environnemental.
Quelles sont vos réalisations dans le domaine de l’open source
Nous avons publié en 2024 plus d’une vingtaine de modèles sur Hugging Face totalisant plus de 300 000 téléchargements, y compris de gros modèles comme Le Triomphant réalisé en partenariat avec l’ECE École d’ingénieurs numériques de Paris avec des techniques de merging (fusion de LLM). Il a été classé numéro 1 mondial en open source sur Hugging Face en mai 2024 et comptabilise plus de 20 000 téléchargements à ce jour. Aujourd’hui nous nous focalisons sur les VLM (vision language model) qui permettent d’analyser des images (graphiques 3D, tableaux, etc.) et la création d’un benchmark de référence. Nous « open-sourcerons » nos modèles sur différents secteurs (énergie, finance, géotechnique, hôtellerie/voyage, etc.) ainsi que les data sets. Ça signifie que les acteurs peuvent les utiliser gratuitement.
Quelle est votre vision de l’architecture idéale pour déployer l’IA générative en entreprise ? Comment arbitrez-vous entre solutions propriétaires et open source ?
En fait, il faut être mesuré et toujours chercher les meilleures solutions pour un domaine donné. D’un côté, pour que les modèles open source deviennent rentables, il faut réunir un nombre important d’utilisateurs pour réaliser une économie d’échelle sur l’usage des GPUs (les processeurs graphiques, fortement parallélisés et utilisés pour l’IA). De l’autre, une architecture close-source en API peut coûter très cher, en moyenne 20 euros par utilisateur par mois sur des cas d’usages comme des chatbots internes.
“Si l’on adopte une architecture hybride open/close, le coût par utilisateur peut diminuer de plus de la moitié.”
Si l’on adopte une architecture hybride open/close source — un mix de petits modèles open source sur des tâches spécialisées et de très gros modèles close source de raisonnement pour des tâches très complexes —, le coût par utilisateur peut diminuer de plus de la moitié. C’est ce que nous préconisons. Maintenant pour des questions de souveraineté (défense, etc.), l’open-source fonctionnant sur des GPU internes, ou sur ceux de clouds de droit français, peut s’avérer indispensable.
Quels sont les grands types de cas d’usage que vous avez rencontrés et ceux que vous avez industrialisés avec succès ?
Les entreprises veulent digitaliser les connaissances, savoirs et données qu’elles ont accumulés (knowledge). Mais il s’agit d’aller au-delà de l’extraction de la donnée. Il faut pouvoir extraire toute l’information des documents et de correctement la référencer (c’est-à-dire des graphiques, des images des schémas, etc.). Les outils d’IA Gen, LLM et VLM (Vision Language Models) sont clés dans cette opération.
Ensuite elles veulent exploiter ces connaissances. Nous recevons une forte demande dans la création d’outils de Knowledge Management. Les entreprises veulent qu’on leur construise des moteurs de recherche internes sur les connaissances de l’entreprise. Cette exploitation permet par la suite de créer des agents experts sur différents domaines, ou de personnaliser des automatisations avec de la connaissance spécifique.
Les directions souhaitent avoir une meilleure visibilité sur les usages dans les diverses équipes. Elles demandent que l’utilisation de ces nouveaux outils soit traçable (bien sûr dans le respect des réglementations) et interprétable. Ceci permet de faire ressortir les grands sujets sur lesquels les équipes se sont penchées. Ce sont des indications précieuses pour mieux motiver les équipes et/ou établir des plans de formation.
Quels sont les futurs projets de TW3 Partners ?
TW3 Partners développe RACINE.AI une solution combinant trois éléments : des modèles performants dimensionnés selon la complexité des tâches, un routeur intelligent pour sélectionner le LLM approprié, et un outil de gestion des bases de connaissance, pour la plupart déjà en test chez certains de nos clients. L’objectif est d’optimiser les coûts et les performances tout en garantissant une gestion efficace des connaissances d’entreprise.
Comment voyez-vous l’évolution des technologies émergentes et leur impact sur les entreprises d’ici 5 à 10 ans ?
Selon moi, à court/moyen terme, les évolutions technologiques anticipées s’orientent vers des modèles plus frugaux, mais aussi plus performants sur des tâches spécialisées, le développement des systèmes multiagents, et enfin le développement des solutions d’extractions et d’exploitation de données multimodales (texte, graphiques, images) qui donnent aussi la possibilité de citer les sources. C’est ce sur quoi on travaille actuellement en R&D à TW3 Partners.
Quant à l’évolution des très gros modèles propriétaires des GAFAM, les années 2023–2024 ont été marquées par une augmentation impressionnante de leurs capacités et de leur précision. Cependant, ils ont été challengés en ce début d’année 2025 par le modèle chinois DeepSeek qui atteint des performances égales voire meilleures, sur certains de leurs benchmarks. C’est pourquoi les États-Unis veulent maintenir leur leadership dans le domaine avec des initiatives récentes comme le projet Stargate. Mais la compétition ne se limite pas à la taille des modèles. L’optimisation des architectures est devenue un enjeu crucial, comme en témoignent les performances de DeepSeek. Cette évolution sera nécessaire pour traiter efficacement le volume croissant de données issues du Web, des sources industrielles et des IoT. À plus long terme, une avancée technologique majeure comme l’informatique quantique pourrait révolutionner notre approche du traitement des données.