Karim Beguir (X97), fondateur d’InstaDeep, est signataire de la lettre invitant à réguler l’IA

Canaliser la puissance de l’IA pour le développement humain

Dossier : ExpressionsMagazine N°790 Décembre 2023
Par Alix VERDET

En marge de son inter­view, nous avons deman­dé à Karim Beguir (X97), fon­da­teur d’Ins­ta­Deep et signa­taire de la lettre invi­tant à régu­ler l’intelligence arti­fi­cielle, son point de vue de spé­cia­liste de l’IA sur ces ques­tions très actuelles de risques, d’opportunités et de régu­la­tion de l’IA.


Lire aus­si : Karim Beguir (X97) de Poly­tech­nique à l’entrepreneuriat à suc­cès dans l’IA


Aujourd’hui, tout le monde parle de l’IA et elle fait en même temps peur. Quels sont selon toi les faux procès ou les faux problèmes liés à l’IA ?

Je pense que l’IA est une tech­no­lo­gie très puis­sante. Comme toute tech­no­lo­gie, elle est neutre, tout dépend de l’usage qu’on en fait. Avec du recul his­to­rique, il me semble que l’IA sus­cite les mêmes réac­tions que l’énergie nucléaire au XXᵉ siècle. C’est une tech­no­lo­gie qui peut être extra­or­di­naire en termes de pro­duc­tion d’électricité, notam­ment d’électricité propre, qui est un sujet impor­tant aujourd’hui et sur laquelle la France est un lea­der. Mais c’est aus­si ce qui crée les bombes nucléaires. Tout dépend de l’usage qu’on fait de l’IA.

C’est pour ça que j’ai déci­dé de lan­cer Ins­ta­Deep avec mon équipe ; le but était de pro­mou­voir les usages béné­fiques de l’IA, l’idée étant que l’IA est une tech­no­lo­gie tel­le­ment puis­sante qu’il faut qu’on en fasse par­tie, qu’il faut qu’il y ait beau­coup de gens qui aient des inten­tions posi­tives qui tra­vaillent sur le sujet. Par ailleurs, je suis impres­sion­né par la vitesse d’évolution de l’IA. Pen­dant des années, j’ai dit publi­que­ment que l’IA était une triple expo­nen­tielle, que ça allait bou­ger très vite. Mal­gré ça, je reste impres­sion­né par la vitesse de déve­lop­pe­ment qu’on a vue sur les cinq der­nières années.

« Je reste impressionné par la vitesse de développement de l’IA sur les cinq dernières années. »

Je pense qu’il faut être opti­miste, mais il faut construire l’avenir. C’est-à-dire qu’il faut en même temps pro­gres­ser mais aus­si être pru­dent et ne pas croire en des len­de­mains uto­piques qui vont néces­sai­re­ment avoir lieu. Il faut un mélange d’optimisme et de pru­dence en allant de l’avant. J’ai signé en tant qu’expert IA la lettre qui deman­dait de ralen­tir les pro­grès extrêmes en termes de modèle de lan­gage et autres, vu les risques poten­tiel­le­ment signi­fi­ca­tifs à moyen-long terme. Mais en même temps je suis un avo­cat de l’utilisation de l’IA dans beau­coup plus de cas, car l’IA peut sau­ver des vies comme dans la conduite auto­nome, dans le domaine médical.

Encore une fois, tout dépend de l’usage qu’on en fait. Et donc la meilleure approche à mon sens, c’est une approche où on mul­ti­plie les usages posi­tifs tout en fai­sant atten­tion. On offre l’opportunité à beau­coup de gens d’avoir une contri­bu­tion posi­tive et, en même temps, les gou­ver­ne­ments entrent dans le domaine de la régu­la­tion. Il y a cer­tains usages de l’IA qui doivent être régu­lés, donc c’est une posi­tion nuan­cée. Par exemple, tout dépend de la taille de ce que vous faites.

« Il y a certains usages de l’IA qui doivent être régulés. »

Si vous lan­cez par­mi les plus grands runs de l’histoire de l’humanité, en uti­li­sant des mil­liards d’heures de GPU (gra­phics pro­ces­sing unit) pour entraî­ner un modèle à une taille jamais uti­li­sée aupa­ra­vant, une auto­ri­té de régu­la­tion devrait être impli­quée. Si vous faites des choses à plus petite échelle, il n’y a pas besoin d’avoir une régu­la­tion lourde qui empêche la créa­ti­vi­té et l’entrepreneuriat. Il serait bon de pri­vi­lé­gier une approche intel­li­gente. Je passe du temps avec cer­tains gou­ver­ne­ments euro­péens sur la défi­ni­tion de cette feuille de route. Et on peut appor­ter beau­coup à tra­vers notre exper­tise, notam­ment sur la com­pé­ti­ti­vi­té des entre­prises grâce à l’IA et les risques et les oppor­tu­ni­tés qu’elle apporte.

Selon toi, la prudence passe par la question de l’autorité de régulation ?

Oui, il faut être pru­dent quand on touche des choses qui ont un impact poten­tiel­le­ment très grand. Comme on l’a dit, pour les déve­lop­pe­ments de modèle de lan­gage avec des tailles jamais explo­rées, l’autorité de régu­la­tion devrait au mini­mum être infor­mée. En même temps, il faut vrai­ment avoir une vision très gra­nu­laire et pré­cise pour ne pas frei­ner les start-up dyna­miques en France et ailleurs et pré­ser­ver l’innovation open source parce que ça serait dom­mage de créer des régu­la­tions lourdes qui n’ont pas lieu d’être. Mais, même en disant ça, je suis en faveur d’un mini­mum de régulation.

Quel est le risque s’il n’y a pas de régulation ? 

Le risque, fina­le­ment, c’est de déve­lop­per des sys­tèmes qui vont faire des choses qui vont être très dif­fi­ciles à arrê­ter. Un risque évident, c’est dans le risque de cyber-attaques. Il existe aujourd’hui des modèles de lan­gage qui savent écrire du code aus­si bien qu’un très bon ingé­nieur humain et qui pour­raient créer des virus d’un type nou­veau beau­coup plus dif­fi­ciles à arrê­ter, de type auto-répli­quant et autres. Donc ça c’est un risque très concret qui est un risque connu, un known unk­nown. C’est un risque sur les­quels les auto­ri­tés de régu­la­tion, que ce soit en France et ailleurs, se penchent.

Il y a aus­si la pos­si­bi­li­té de risques de type incon­nu, les unk­nown unk­nowns, comme il avait été dit dans le pas­sé ; il y a tou­jours le dan­ger de voir émer­ger quelque chose auquel on n’a pas pen­sé. Je parle ici de risques d’une nature qui sont poten­tiel­le­ment plus pro­blé­ma­tiques que les risques clas­siques, tels que les risques de biais ou de mani­pu­la­tion de l’information de type fake news et autres, aux­quels nous sommes expo­sés depuis beau­coup d’années. C’est dif­fi­cile d’empêcher cer­tains acteurs de déve­lop­per l’IA à des fins néga­tives donc on doit réflé­chir aux contre-mesures.

« Il existe aujourd’hui des modèles de langage qui savent écrire du code aussi bien qu’un très bon ingénieur humain. »

Est-ce un combat inégal ? La régulation n’est-elle pas vouée à l’échec ?

C’est une bonne ques­tion. En fait, il faut voir ça comme une course de vitesse. Et la bonne nou­velle, c’est qu’aujourd’hui le fac­teur limi­tant prin­ci­pal de l’IA, c’est le talent et la puis­sance de calcul.

En termes de talent et de puis­sance de cal­cul, ce sont les pays déve­lop­pés qui sont aujourd’hui les plus avan­cés. Et donc com­ment arrê­ter des acteurs néga­tifs tels que les hackers de capi­ta­li­ser sur l’IA ? En déve­lop­pant des sys­tèmes encore plus avan­cés, encore plus intel­li­gents et encore plus sûrs. Moi, je suis opti­miste parce que je vois que, par exemple, depuis qu’il y a eu cette lettre qui a eu un effet déto­na­teur en deman­dant une pause sur les expé­ri­men­ta­tions de l’IA à un très haut niveau, elle a atti­ré l’attention des auto­ri­tés et des gou­ver­ne­ments sur la néces­si­té de com­men­cer à réflé­chir sur la manière de régu­ler l’IA et de voir l’IA comme un risque et une oppor­tu­ni­té émergente.

En réa­li­té, on n’arrête jamais le pro­grès, c’est un fait. Le bon scé­na­rio, c’est que les pays et les acteurs qui veulent faire des choses posi­tives soient à la pointe de l’IA, et créent des sys­tèmes plus puis­sants que des sys­tèmes offen­sifs venant d’ailleurs et en même temps des sys­tèmes plus sûrs. C’est ce dont il faut se rap­pe­ler. La recherche qui a lieu en ce moment est encou­ra­geante. Si je devais résu­mer, je dirais que, jusqu’à pré­sent, nous nous sommes foca­li­sés sur la per­for­mance pure. Mais, si on com­mence à se pen­cher un peu sur l’aspect ali­gne­ment et sécu­ri­té à long terme de l’IA, on peut cer­tai­ne­ment faire de très grands pro­grès ; et pour­quoi pas créer des sys­tèmes à la fois très puis­sants et très fiables, qui sou­tiennent le déve­lop­pe­ment éco­no­mique et humain et qui per­mettent de répondre à des risques émergents.

Poster un commentaire