HPC : des solutions françaises, souveraines et prometteuses

Dossier : Vie des entreprisesMagazine N°771 Janvier 2022
Par Pascal POTIER

Pas­cal Potier est vice-pré­sident exé­cu­tif d’Atem­po. Dans cet entre­tien, il nous explique les défis majeurs que per­met d’adresser le HPC (High Per­for­mance Com­pu­ting) et nous pré­sente la solu­tion « Agnos­tique » Miria d’Atempo. Entretien.

Quels sont les principaux enjeux auxquels répond le HPC (High Performance Computing) ?

Le prin­ci­pal enjeu consiste à col­lec­ter ou agré­ger des don­nées mas­sives et à exé­cu­ter des opé­ra­tions com­plexes de manière fiable et rapide, donc à accé­lé­rer la recherche ou la prise de déci­sion. S’appuyant sur des infra­struc­tures com­po­sées de plu­sieurs mil­liers de pro­ces­seurs (CPU ou Cen­tral Pro­ces­sing Unit) et sur des uni­tés de sto­ckage de très grande capa­ci­té, les résul­tats de ces cal­culs sont conser­vés pour être réuti­li­sés ou ana­ly­sés ultérieurement. 

Tra­di­tion­nel­le­ment, le HPC, ou cal­cul haute per­for­mance, était réser­vé à cer­tains sec­teurs de la recherche scien­ti­fique, notam­ment aux dépar­te­ments mili­taires ou météo­ro­lo­giques de nom­breux pays, et à cer­taines indus­tries comme l’aéronautique ou l’automobile. Avec les récentes inno­va­tions tech­no­lo­giques et numé­riques autour de l’IA (intel­li­gence arti­fi­cielle) et du ML (machine lear­ning), l’usage d’un envi­ron­ne­ment HPC s’est démo­cra­ti­sé et a pris davan­tage d’importance. Il est aujourd’hui pré­sent dans plu­sieurs sec­teurs (san­té, finance, indus­trie pétro­lière, etc.). Le cal­cul se fait chez l’ensemble des Cloud Pro­vi­ders type Ama­zon Web Ser­vices (AWS), Google ou OVHcloud.

Désor­mais, le défi majeur est de four­nir un accès rapide à ces don­nées et d’être en mesure de gérer des volumes très importants.

Aujourd’hui, le grand challenge est la manipulation de larges volumes de données, ainsi que l’accessibilité et la disponibilité de ces données. Qu’en est-il concrètement ?

Aupa­ra­vant, les don­nées pro­duites étaient plu­tôt réser­vées à un nombre res­treint de cher­cheurs de l’entité char­gée de l’environnement HPC. Alors qu’aujourd’hui, ces don­nées sont ren­dues acces­sibles à une plus grande com­mu­nau­té scien­ti­fique, euro­péenne ou mon­diale, il est plu­tôt ques­tion de modèles de type Data Hub. On retrouve donc ces modèles dans les domaines de la géné­tique, de la finance, de l’industrie auto­mo­bile, etc. Donc, depuis quelques années, nous assis­tons à l’émergence de Data Hub, qui consistent à cen­tra­li­ser les don­nées issues de cal­culs HPC et à les par­ta­ger au sein d’une com­mu­nau­té de cher­cheurs, en pre­nant soin de sépa­rer les don­nées pri­vées ou confi­den­tielles d’une entre­prise des don­nées publiques.

Le par­tage et le dépla­ce­ment de ces gigan­tesques volumes de don­nées ne peut se faire que si les infra­struc­tures réseaux et de sto­ckage ont été cor­rec­te­ment prises en compte lors du design.

Quid des enjeux du partage de ces données et de leur déplacement ? 

Une fois que les don­nées sont géné­rées et cloi­son­nées, une grande par­tie est mise à dis­po­si­tion de la com­mu­nau­té et conser­vée. La dif­fi­cul­té actuelle consiste à pou­voir sto­cker ces don­nées sur des périodes de plus en plus longues. Alors qu’auparavant, ces don­nées étaient conser­vées sur des périodes allant de trois à cinq ans, il est aujourd’hui habi­tuel de les sto­cker sur 15, 20 ans ou plus. Pour ce faire, il faut s’appuyer sur des infra­struc­tures adé­quates. Pour des rai­sons de coûts, une grande par­tie de ces don­nées pro­duites sont conser­vées sur des librai­ries de bandes, soit à proxi­mi­té de l’environnement HPC, soit dans des infra­struc­tures de Cloud Archive Sto­rage telles que AWS Gla­cier, Azure Cold Archive, ou sur la solu­tion PCA d’OVHcloud.

Pour répondre à ces enjeux, Atempo met à disposition l’offre « agnostique » de Miria. De quoi s’agit-il ? Quels en sont les bénéfices ?

Le par­tage de ces très grands volumes de don­nées néces­site un outil capable de dépla­cer ou dupli­quer faci­le­ment tout ou par­tie des don­nées d’un labo­ra­toire de recherche vers un autre ou vers une enti­té de recherche d’un autre pays, tout en per­met­tant une hété­ro­gé­néi­té entre le sto­ckage source et le sto­ckage de destination.

C’est le réel atout de Miria d’être tota­le­ment agnos­tique. Concrè­te­ment, Miria com­mu­nique avec tous les sys­tèmes de sto­ckage connus du mar­ché, per­met­tant de s’affranchir des contraintes liées aux marques de construc­teurs, grâce à des connec­teurs sources et des­ti­na­tions com­pa­tibles avec l’entièreté des pro­to­coles exis­tants à ce jour. La solu­tion logi­cielle Miria per­met ain­si de cou­vrir la majo­ri­té des besoins observés.

Ces capa­ci­tés nous per­mettent de col­la­bo­rer de plus en plus avec les ser­vices de sto­ckage de don­nées à long terme de grandes entre­prises afin qu’elles intègrent la brique fonc­tion­nelle Miria pour le dépla­ce­ment et la conser­va­tion de ces données.

Pour conclure, les véri­tables atouts de notre solu­tion sont à la fois son carac­tère agnos­tique et ses capa­ci­tés de per­for­mance et de sca­la­bi­li­té. Quand il est ques­tion de mani­pu­ler des volumes colos­saux de don­nées, il est néces­saire de dis­po­ser d’une infra­struc­ture réseau per­for­mante, et d’un logi­ciel, capable de dépla­cer ces don­nées à très grande vitesse. C’est exac­te­ment ce que per­met la solu­tion Miria, capable de satu­rer n’importe quel type de réseau haut débit, à 10 Go, 100 Go ou plu­sieurs atta­che­ments 100 Go/s. La solu­tion logi­cielle Miria est une solu­tion scale-out, par l’ajout de data movers pour aug­men­ter le nombre de work­loads. Si l’objectif est de dépla­cer les don­nées à très grande vitesse d’un labo­ra­toire vers un autre, ou d’un conti­nent vers un autre, alors Miria répond par­fai­te­ment à ces besoins de per­for­mance et de capa­ci­té, exi­gés par le HPC.

Pour finir, quels sont les axes de développement que vous allez privilégier pour les prochaines années ?

Pour les pro­chaines années, nous allons mul­ti­plier nos par­te­na­riats tech­no­lo­giques, notam­ment avec les four­nis­seurs et héber­geurs de don­nées. Ensuite, en tant qu’acteur fran­çais, l’un des grands sujets sur les­quels nous sommes tous mobi­li­sés est celui de la sou­ve­rai­ne­té des don­nées. Pour ce faire, nous nous appuyons sur des par­te­naires de renom comme OVH­cloud avec qui nous avons signé, début 2021, un accord majeur. Comme Atem­po, l’entreprise est enga­gée sur le sujet brû­lant de la sou­ve­rai­ne­té des don­nées. Nous sommes d’ailleurs convain­cus que l’Europe doit se mobi­li­ser davan­tage et faire le choix de solu­tions sou­ve­raines. Dans ce cadre, Atem­po est membre d’Hexatrust, et fait par­tie du consor­tium GAIA‑X qui tra­vaille actuel­le­ment au déve­lop­pe­ment de Data Hub Européens.


En bref

Atem­po est un édi­teur de logi­ciels fran­çais et le lea­der euro­péen dans le domaine de la Data pro­tec­tion et du Data mana­ge­ment. Recon­nu sur les cinq conti­nents pour son exper­tise de la ges­tion des grands volumes de don­nées dans les sec­teurs péta­vores (banque et finance, sciences de la vie et de la terre, indus­tries, diver­tis­se­ment et média, etc.), Atem­po sécu­rise les don­nées de ses clients en se concen­trant sur ses prin­ci­pales missions :

  • la pro­tec­tion des don­nées essentielles,
  • la res­tau­ra­tion ins­tan­ta­née en cas de besoin,
  • la conser­va­tion à long terme des don­nées et de leur intégrité,
  • la migra­tion rapide et sécu­ri­sée des don­nées entre stockages.

Poster un commentaire