Vue du processeur quantique industriel Fresnel, développé par Pasqal, monté sur une structure standard de rack pour calcul haute performance.

Les processus quantiques : la recherche fondamentale vers l’ingénierie

Dossier : QuantiqueMagazine N°779 Novembre 2022
Par Loïc HENRIET (X09)

Alors que de nom­breux processeurs fondés sur des tech­nolo­gies dis­tinctes sont pro­gres­sive­ment mis à la dis­po­si­tion des acteurs académiques et indus­triels, la con­struc­tion d’un véri­ta­ble écosys­tème du cal­cul quan­tique débute seule­ment. Une approche glob­ale mêlant l’applicatif, le développe­ment logi­ciel et le hard­ware quan­tique et clas­sique est néces­saire pour utilis­er ces ressources de façon optimale.

De nom­breuses plate­formes quan­tiques opèrent déjà dans des régimes qui sont hors de portée des super­cal­cu­la­teurs clas­siques. Citons par exem­ple les atom­es neu­tres, qui ont démon­tré leur supéri­or­ité sur des prob­lèmes de sim­u­la­tion quan­tique [Schreiber, Scholl], les qubits supra­con­duc­teurs et les cir­cuits aléa­toires désor­mais célèbres depuis les expéri­ences de Google [Arute] ou les plate­formes pho­toniques et le boson sam­pling [Zhong]. Ces expéri­ences con­stituent des jalons fon­da­men­taux dans la course à l’ordinateur quan­tique, mais elles con­cer­nent des prob­lèmes académiques sans appli­ca­tion indus­trielle directe. Pour ren­dre ces développe­ments utiles, il faut trans­former ces pro­to­types de recherche fon­da­men­tale en out­ils industriels.

Penser le développement de l’industrie quantique

Ce change­ment d’utilisation requiert une plus grande fia­bil­ité et une plus grande repro­ductibil­ité des cal­culs réal­isés. Pour ce faire, il est néces­saire de tran­siger sur le degré d’ouverture de ces plate­formes, au prof­it d’une plus grande robustesse ; et la mod­u­lar­ité et la facil­ité de main­te­nance sont à priv­ilégi­er. Cette approche dif­fère grande­ment du mode de fonc­tion­nement académique, dans lequel les expéri­ences sont tra­di­tion­nelle­ment con­stru­ites pour être évo­lu­tives et pou­voir être trans­for­mées facile­ment, avec une con­cep­tion mobile. Au-delà de l’industrialisation de la con­cep­tion des processeurs et de l’amélioration néces­saire des métriques fon­da­men­tales qui déter­mi­nent leurs per­for­mances (fidél­ité des opéra­tions quan­tiques, taux de répéti­tion, nom­bre de qubits), il est néces­saire de penser le développe­ment de l’industrie quan­tique émer­gente à un niveau global.

Des algorithmes hybrides impliquant des ressources classiques et quantiques

On com­pare sou­vent les débuts de l’informatique quan­tique aux débuts de l’informatique clas­sique. Mais cette com­para­i­son a des lim­ites, dans la mesure où l’informatique quan­tique peut s’appuyer sur les infra­struc­tures et les pra­tiques dévelop­pées pour le cal­cul haute per­for­mance clas­sique et le web. Le pre­mier levi­er clas­sique qui peut être mis à prof­it cor­re­spond au développe­ment de l’accès via le cloud aux processeurs quan­tiques. Ce mode d’accès per­met aux util­isa­teurs de com­pren­dre plus pré­cisé­ment le hard­ware et aux développeurs de hard­ware de mieux com­pren­dre les attentes des utilisateurs.

En 2020, IBM déclarait déjà plus de 200 000 util­isa­teurs avec plus de 70 mil­liards de cir­cuits util­isés via leur cloud, ayant généré plus de 200 arti­cles sci­en­tifiques. Ce fonc­tion­nement hybride facilite aus­si une implé­men­ta­tion opti­male des algo­rithmes vari­a­tion­nels, où le processeur quan­tique est util­isé pour créer un algo­rithme paramétrique opti­misé par un processeur clas­sique dans une boucle fermée.

“Des super-calculateurs hybrides, incorporant des éléments classiques et quantiques.”

Au-delà de ces algo­rithmes vari­a­tion­nels sim­ples, pour lesquels le processeur clas­sique se can­tonne à un sim­ple rôle d’optimiseur, on a pu récem­ment voir l’émergence de véri­ta­bles algo­rithmes hybrides impli­quant des procé­dures com­plex­es du côté clas­sique. On peut citer l’exemple récent des réseaux de neu­rones quan­tiques pour prob­lèmes de graphe (quan­tum graph neur­al net­works), qui intè­grent au sein d’un réseau de neu­rones clas­sique tra­di­tion­nel un mécan­isme d’agrégation de l’information cal­culé grâce un processeur quan­tique [Tha­bet]. Pour un tel algo­rithme, la col­lo­ca­tion d’un processeur quan­tique avec des ressources de type GPU sem­ble néces­saire pour lim­iter les coûts de trans­fert des don­nées et attein­dre des per­for­mances intéressantes.

Ces développe­ments s’inscrivent dans la vision de super­cal­cu­la­teurs hybrides, incor­po­rant des élé­ments clas­siques et quan­tiques. Ce mode de fonc­tion­nement est au cœur de l’initiative européenne HPCQS, dont l’objectif est de déploy­er une infra­struc­ture hybride de cal­cul haute per­for­mance cou­plée à des processeurs quan­tiques. On retrou­ve aus­si cette vision hybride très mar­quée dans la stratégie d’entreprises comme Nvidia ou IBM. En plus d’être une chance pour un développe­ment plus rapi­de, adoss­er les tech­nolo­gies quan­tiques émer­gentes aux infra­struc­tures clas­siques est en fait une néces­sité : il ne suf­fit pas avec le cal­cul quan­tique d’apporter de meilleures per­for­mances algo­rith­miques, il faut aus­si faciliter l’intégration d’une com­posante quan­tique aux out­ils déjà util­isés par les industriels.

Un développement conjoint du logiciel et du hardware

L’informatique clas­sique a vu le tri­om­phe du dévelop­pement logi­ciel indif­férent au hard­ware. Cette philoso­phie est liée à la rapid­ité de développe­ment des puis­sances de cal­cul pen­dant la phase 1980–2010. Les aug­men­ta­tions prévis­i­bles de la capac­ité de cal­cul et de la mémoire ont ren­du les inno­va­tions sur les archi­tec­tures hard­ware très risquées. Même pour les cal­culs com­plex­es exigeant des per­for­mances spé­ci­fiques, les avan­tages du pas­sage à un hard­ware spé­cial­isé pou­vaient être rapi­de­ment éclip­sés par la prochaine généra­tion de hard­ware général­iste, dotée d’une capac­ité de cal­cul tou­jours plus grande. C’est ce qui a poussé la com­mu­nauté vers des processeurs clas­siques les plus uni­versels pos­si­ble et le logi­ciel à se désol­i­daris­er pro­gres­sive­ment du hard­ware.

Ce n’est plus le cas aujourd’hui, et il y a de plus en plus d’intérêt (par exem­ple en machine learn­ing) à un développe­ment joint entre le hard­ware et le soft­ware. Cela con­stitue une occa­sion unique pour le cal­cul quan­tique. Dans la péri­ode actuelle, où les processeurs quan­tiques sont bruités et impar­faits, il est tout à fait fon­da­men­tal de procéder au développe­ment algo­rith­mique en ayant pleine­ment con­science des forces de chaque processeur, tout en essayant de lim­iter les impacts de ses lim­i­ta­tions intrinsèques.

C’est cet argu­ment qui a en par­tie motivé de nom­breux acteurs du domaine comme IBM ou Google d’opter pour une approche dite full-stack, com­bi­nant le hard­ware et le développe­ment logi­ciel. Le secteur a aus­si assisté à plusieurs con­sol­i­da­tions vers le full-stack avec les fusions d’Honeywell et de CQC, de Pasqal et de Qu&Co, ou de ColdQuan­ta et Super.tech. Ces rap­proche­ments facili­tent le développe­ment d’algorithmes nat­ifs, qui engen­drent peu ou pas de sur­coût à l’implémentation, qui devient alors plus directe et robuste.


Lire aus­si : Pasqal : le quan­tique, une révo­lu­tion à portée de main pour toutes les industries !



Apprentissage automatique quantique pour la gestion du réseau haute-tension

Exem­ple d’algorithme issu d’une approche de con­cep­tion mêlant les con­sid­éra­tions hard­ware et applica­tives, l’automatisation de la ges­tion du réseau haute ten­sion est dev­enue une pri­or­ité pour les ges­tion­naires de réseau de trans­port d’électricité. La com­plex­ité du réseau (éner­gies inter­mit­tentes, flux trans­frontal­iers) asso­ciée à de mul­ti­ples inter­dépen­dances rend la tâche dif­fi­cile. Une approche promet­teuse est d’avoir des auto­mates locaux, qui sont cha­cun en charge de l’équilibre pour un sous-ensem­ble du réseau (voir fig­ure ci-dessous). Cepen­dant, la déter­mi­na­tion de ces sous-ensem­bles rel­a­tive­ment indépen­dants est une tâche dif­fi­cile. L’utilisation des algo­rithmes d’apprentissage automa­tique sur graphes dévelop­pés par Pasqal pour­rait amélior­er con­sid­érable­ment la qual­ité de la seg­men­ta­tion. Ces algo­rithmes ont été dévelop­pés spé­ci­fique­ment pour des processeurs quan­tiques à atom­es neu­tres dont la géométrie du reg­istre est recon­fig­urable, per­me­t­tant ain­si un traite­ment naturel de don­nées struc­turées sous la forme de graphes.

Exemple de segmentation d’un graphe, réalisée pour déterminer des zones relativement indépendantes à placer sous le contrôle d’automates locaux.
Exem­ple de seg­men­ta­tion d’un graphe, réal­isée pour déter­min­er des zones rel­a­tive­ment indépen­dantes à plac­er sous le con­trôle d’automates locaux. Source : présen­ta­tion publique RTE.

Avoir des points de comparaison pertinents

La cohab­i­ta­tion d’équipes d’algorithmiciens et de con­struc­teurs de hard­ware a un autre avan­tage con­sid­érable en ter­mes appli­cat­ifs. Les équipes théoriques peu­vent tra­vailler directe­ment avec des clients sur des cas d’usage réels et con­fron­ter leurs algo­rithmes quan­tiques à l’état de l’art clas­sique. En pra­tique, peu d’industriels se soucient des per­for­mances asymp­to­tiques d’un algo­rithme en pro­duc­tion, tant que celui-ci four­nit les meilleurs résul­tats pos­si­bles sur leurs prob­lèmes con­crets. En se con­frontant aux meilleurs algo­rithmes clas­siques en pro­duc­tion, les acteurs du quan­tiques peu­vent alors avoir des points de com­para­i­son solides et per­ti­nents. Mieux encore, les équipes applica­tives peu­vent aider à la con­cep­tion des futures généra­tions de hard­ware, en s’appuyant sur des retours d’expérience concrets.

Au-delà de l’utilisation d’algorithmes sur les plate­formes bruitées actuelles, la notion de développe­ment con­joint entre le hard­ware et le soft­ware peut s’appliquer à long terme pour l’élaboration d’architectures avec codes de cor­rec­tion d’erreur. L’implémentation de procé­dures tout à fait générales risque sans doute d’induire des sur­coûts pro­hibitifs pour le suc­cès de la cor­rec­tion d’erreur. Il paraît de plus en plus néces­saire de tra­vailler sur des procé­dures spé­ci­fiques, qui per­me­t­tent de tir­er par­ti des spé­ci­ficités de chaque processeur. Des analy­ses fines des canaux d’erreur, des dif­férents temps car­ac­téris­tiques mis en jeu pour les mesures et les opéra­tions logiques sont néces­saires pour cal­i­br­er le com­pro­mis entre l’application d’opérations logiques et les phas­es de cor­rec­tion active ou de mit­i­ga­tion d’erreur.


Références :

Poster un commentaire