Vue du processeur quantique industriel Fresnel, développé par Pasqal, monté sur une structure standard de rack pour calcul haute performance.

Les processus quantiques : la recherche fondamentale vers l’ingénierie

Dossier : QuantiqueMagazine N°779 Novembre 2022
Par Loïc HENRIET (X09)

Alors que de nom­breux pro­ces­seurs fon­dés sur des tech­no­lo­gies dis­tinctes sont pro­gres­si­ve­ment mis à la dis­po­si­tion des acteurs aca­dé­miques et indus­triels, la construc­tion d’un véri­table éco­sys­tème du cal­cul quan­tique débute seule­ment. Une approche glo­bale mêlant l’applicatif, le déve­lop­pe­ment logi­ciel et le hard­ware quan­tique et clas­sique est néces­saire pour uti­li­ser ces res­sources de façon optimale.

De nom­breuses pla­te­formes quan­tiques opèrent déjà dans des régimes qui sont hors de por­tée des super­cal­cu­la­teurs clas­siques. Citons par exemple les atomes neutres, qui ont démon­tré leur supé­rio­ri­té sur des pro­blèmes de simu­la­tion quan­tique [Schrei­ber, Scholl], les qubits supra­con­duc­teurs et les cir­cuits aléa­toires désor­mais célèbres depuis les expé­riences de Google [Arute] ou les pla­te­formes pho­to­niques et le boson sam­pling [Zhong]. Ces expé­riences consti­tuent des jalons fon­da­men­taux dans la course à l’ordinateur quan­tique, mais elles concernent des pro­blèmes aca­dé­miques sans appli­ca­tion indus­trielle directe. Pour rendre ces déve­lop­pe­ments utiles, il faut trans­for­mer ces pro­to­types de recherche fon­da­men­tale en outils industriels.

Penser le développement de l’industrie quantique

Ce chan­ge­ment d’utilisation requiert une plus grande fia­bi­li­té et une plus grande repro­duc­ti­bi­li­té des cal­culs réa­li­sés. Pour ce faire, il est néces­saire de tran­si­ger sur le degré d’ouverture de ces pla­te­formes, au pro­fit d’une plus grande robus­tesse ; et la modu­la­ri­té et la faci­li­té de main­te­nance sont à pri­vi­lé­gier. Cette approche dif­fère gran­de­ment du mode de fonc­tion­ne­ment aca­dé­mique, dans lequel les expé­riences sont tra­di­tion­nel­le­ment construites pour être évo­lu­tives et pou­voir être trans­for­mées faci­le­ment, avec une concep­tion mobile. Au-delà de l’industrialisation de la concep­tion des pro­ces­seurs et de l’amélioration néces­saire des métriques fon­da­men­tales qui déter­minent leurs per­for­mances (fidé­li­té des opé­ra­tions quan­tiques, taux de répé­ti­tion, nombre de qubits), il est néces­saire de pen­ser le déve­lop­pe­ment de l’industrie quan­tique émer­gente à un niveau global.

Des algorithmes hybrides impliquant des ressources classiques et quantiques

On com­pare sou­vent les débuts de l’informatique quan­tique aux débuts de l’informatique clas­sique. Mais cette com­pa­rai­son a des limites, dans la mesure où l’informatique quan­tique peut s’appuyer sur les infra­struc­tures et les pra­tiques déve­lop­pées pour le cal­cul haute per­for­mance clas­sique et le web. Le pre­mier levier clas­sique qui peut être mis à pro­fit cor­res­pond au déve­lop­pe­ment de l’accès via le cloud aux pro­ces­seurs quan­tiques. Ce mode d’accès per­met aux uti­li­sa­teurs de com­prendre plus pré­ci­sé­ment le hard­ware et aux déve­lop­peurs de hard­ware de mieux com­prendre les attentes des utilisateurs.

En 2020, IBM décla­rait déjà plus de 200 000 uti­li­sa­teurs avec plus de 70 mil­liards de cir­cuits uti­li­sés via leur cloud, ayant géné­ré plus de 200 articles scien­ti­fiques. Ce fonc­tion­ne­ment hybride faci­lite aus­si une implé­men­ta­tion opti­male des algo­rithmes varia­tion­nels, où le pro­ces­seur quan­tique est uti­li­sé pour créer un algo­rithme para­mé­trique opti­mi­sé par un pro­ces­seur clas­sique dans une boucle fermée.

“Des super-calculateurs hybrides, incorporant des éléments classiques et quantiques.”

Au-delà de ces algo­rithmes varia­tion­nels simples, pour les­quels le pro­ces­seur clas­sique se can­tonne à un simple rôle d’optimiseur, on a pu récem­ment voir l’émergence de véri­tables algo­rithmes hybrides impli­quant des pro­cé­dures com­plexes du côté clas­sique. On peut citer l’exemple récent des réseaux de neu­rones quan­tiques pour pro­blèmes de graphe (quan­tum graph neu­ral net­works), qui intègrent au sein d’un réseau de neu­rones clas­sique tra­di­tion­nel un méca­nisme d’agrégation de l’information cal­cu­lé grâce un pro­ces­seur quan­tique [Tha­bet]. Pour un tel algo­rithme, la col­lo­ca­tion d’un pro­ces­seur quan­tique avec des res­sources de type GPU semble néces­saire pour limi­ter les coûts de trans­fert des don­nées et atteindre des per­for­mances intéressantes.

Ces déve­lop­pe­ments s’inscrivent dans la vision de super­cal­cu­la­teurs hybrides, incor­po­rant des élé­ments clas­siques et quan­tiques. Ce mode de fonc­tion­ne­ment est au cœur de l’initiative euro­péenne HPCQS, dont l’objectif est de déployer une infra­struc­ture hybride de cal­cul haute per­for­mance cou­plée à des pro­ces­seurs quan­tiques. On retrouve aus­si cette vision hybride très mar­quée dans la stra­té­gie d’entreprises comme Nvi­dia ou IBM. En plus d’être une chance pour un déve­lop­pe­ment plus rapide, ados­ser les tech­no­lo­gies quan­tiques émer­gentes aux infra­struc­tures clas­siques est en fait une néces­si­té : il ne suf­fit pas avec le cal­cul quan­tique d’apporter de meilleures per­for­mances algo­rith­miques, il faut aus­si faci­li­ter l’intégration d’une com­po­sante quan­tique aux outils déjà uti­li­sés par les industriels.

Un développement conjoint du logiciel et du hardware

L’informatique clas­sique a vu le triomphe du dévelop­pement logi­ciel indif­fé­rent au hard­ware. Cette phi­lo­so­phie est liée à la rapi­di­té de déve­lop­pe­ment des puis­sances de cal­cul pen­dant la phase 1980–2010. Les aug­men­ta­tions pré­vi­sibles de la capa­ci­té de cal­cul et de la mémoire ont ren­du les inno­va­tions sur les archi­tec­tures hard­ware très ris­quées. Même pour les cal­culs com­plexes exi­geant des per­for­mances spé­ci­fiques, les avan­tages du pas­sage à un hard­ware spé­cia­li­sé pou­vaient être rapi­de­ment éclip­sés par la pro­chaine géné­ra­tion de hard­ware géné­ra­liste, dotée d’une capa­ci­té de cal­cul tou­jours plus grande. C’est ce qui a pous­sé la com­mu­nau­té vers des pro­ces­seurs clas­siques les plus uni­ver­sels pos­sible et le logi­ciel à se déso­li­da­ri­ser pro­gres­si­ve­ment du hard­ware.

Ce n’est plus le cas aujourd’hui, et il y a de plus en plus d’intérêt (par exemple en machine lear­ning) à un déve­lop­pe­ment joint entre le hard­ware et le soft­ware. Cela consti­tue une occa­sion unique pour le cal­cul quan­tique. Dans la période actuelle, où les pro­ces­seurs quan­tiques sont brui­tés et impar­faits, il est tout à fait fon­da­men­tal de pro­cé­der au déve­lop­pe­ment algo­rith­mique en ayant plei­ne­ment conscience des forces de chaque pro­ces­seur, tout en essayant de limi­ter les impacts de ses limi­ta­tions intrinsèques.

C’est cet argu­ment qui a en par­tie moti­vé de nom­breux acteurs du domaine comme IBM ou Google d’opter pour une approche dite full-stack, com­bi­nant le hard­ware et le déve­lop­pe­ment logi­ciel. Le sec­teur a aus­si assis­té à plu­sieurs conso­li­da­tions vers le full-stack avec les fusions d’Honeywell et de CQC, de Pas­qal et de Qu&Co, ou de Cold­Quan­ta et Super.tech. Ces rap­pro­che­ments faci­litent le déve­lop­pe­ment d’algorithmes natifs, qui engendrent peu ou pas de sur­coût à l’implémentation, qui devient alors plus directe et robuste.


Lire aus­si : Pas­qal : le quan­tique, une révo­lu­tion à por­tée de main pour toutes les industries !



Apprentissage automatique quantique pour la gestion du réseau haute-tension

Exemple d’algorithme issu d’une approche de concep­tion mêlant les consi­dé­ra­tions hard­ware et appli­ca­tives, l’automatisation de la ges­tion du réseau haute ten­sion est deve­nue une prio­ri­té pour les ges­tion­naires de réseau de trans­port d’électricité. La com­plexi­té du réseau (éner­gies inter­mit­tentes, flux trans­fron­ta­liers) asso­ciée à de mul­tiples inter­dé­pen­dances rend la tâche dif­fi­cile. Une approche pro­met­teuse est d’avoir des auto­mates locaux, qui sont cha­cun en charge de l’équilibre pour un sous-ensemble du réseau (voir figure ci-des­sous). Cepen­dant, la déter­mi­na­tion de ces sous-ensembles rela­ti­ve­ment indé­pen­dants est une tâche dif­fi­cile. L’utilisation des algo­rithmes d’apprentissage auto­ma­tique sur graphes déve­lop­pés par Pas­qal pour­rait amé­lio­rer consi­dé­ra­ble­ment la qua­li­té de la seg­men­ta­tion. Ces algo­rithmes ont été déve­lop­pés spé­ci­fi­que­ment pour des pro­ces­seurs quan­tiques à atomes neutres dont la géo­mé­trie du registre est recon­fi­gu­rable, per­met­tant ain­si un trai­te­ment natu­rel de don­nées struc­tu­rées sous la forme de graphes.

Exemple de segmentation d’un graphe, réalisée pour déterminer des zones relativement indépendantes à placer sous le contrôle d’automates locaux.
Exemple de seg­men­ta­tion d’un graphe, réa­li­sée pour déter­mi­ner des zones rela­ti­ve­ment indé­pen­dantes à pla­cer sous le contrôle d’automates locaux. Source : pré­sen­ta­tion publique RTE.

Avoir des points de comparaison pertinents

La coha­bi­ta­tion d’équipes d’algorithmiciens et de construc­teurs de hard­ware a un autre avan­tage consi­dé­rable en termes appli­ca­tifs. Les équipes théo­riques peuvent tra­vailler direc­te­ment avec des clients sur des cas d’usage réels et confron­ter leurs algo­rithmes quan­tiques à l’état de l’art clas­sique. En pra­tique, peu d’industriels se sou­cient des per­for­mances asymp­to­tiques d’un algo­rithme en pro­duc­tion, tant que celui-ci four­nit les meilleurs résul­tats pos­sibles sur leurs pro­blèmes concrets. En se confron­tant aux meilleurs algo­rithmes clas­siques en pro­duc­tion, les acteurs du quan­tiques peuvent alors avoir des points de com­pa­rai­son solides et per­ti­nents. Mieux encore, les équipes appli­ca­tives peuvent aider à la concep­tion des futures géné­ra­tions de hard­ware, en s’appuyant sur des retours d’expérience concrets.

Au-delà de l’utilisation d’algorithmes sur les pla­te­formes brui­tées actuelles, la notion de déve­lop­pe­ment conjoint entre le hard­ware et le soft­ware peut s’appliquer à long terme pour l’élaboration d’architectures avec codes de cor­rec­tion d’erreur. L’implémentation de pro­cé­dures tout à fait géné­rales risque sans doute d’induire des sur­coûts pro­hi­bi­tifs pour le suc­cès de la cor­rec­tion d’erreur. Il paraît de plus en plus néces­saire de tra­vailler sur des pro­cé­dures spé­ci­fiques, qui per­mettent de tirer par­ti des spé­ci­fi­ci­tés de chaque pro­ces­seur. Des ana­lyses fines des canaux d’erreur, des dif­fé­rents temps carac­té­ris­tiques mis en jeu pour les mesures et les opé­ra­tions logiques sont néces­saires pour cali­brer le com­pro­mis entre l’application d’opérations logiques et les phases de cor­rec­tion active ou de miti­ga­tion d’erreur.


Références :

Poster un commentaire