La sécurité des modèles d’IA à l’ère des nouvelles technologies

Dossier : Vie des entreprises - Transformation numérique et intelligence artificielleMagazine N°805 Mai 2025
Par Marie PAINDAVOINE

Dans un monde où les algo­rithmes deviennent essen­tiels et omni­pré­sents, Skyld émerge comme un pion­nier en sécu­ri­sa­tion des modèles d’IA tout en pré­ser­vant leur inté­gri­té fonc­tion­nelle et leur valeur com­mer­ciale. Sa fon­da­trice et CEO Marie Pain­da­voine nous explique com­ment Skyld étoffe ses solu­tions pour répondre aux exi­gences des sec­teurs les plus régle­men­tés, pro­met­tant inno­va­tion et pro­tec­tion contre les menaces émergentes.

Comment Skyld a‑t-elle été créée et pourquoi ?

Je suis titu­laire d’une thèse en cryp­to­gra­phie et j’ai exer­cé pen­dant dix ans dans la cyber­sé­cu­ri­té. Mon inté­rêt pour la sécu­ri­té logi­cielle s’est par­ti­cu­liè­re­ment déve­lop­pé lorsque j’ai com­men­cé à explo­rer le sec­teur du paie­ment mobile lors de ma der­nière acti­vi­té, une indus­trie extrê­me­ment sécurisée.

Mon attrait pour la sécu­ri­té de l’IA s’est mani­fes­té assez tôt, avec l’essor de cette tech­no­lo­gie. Les ques­tions de pro­tec­tion de la vie pri­vée et de l’utilisation des don­nées dans l’IA cor­res­pon­daient à mon domaine d’expertise. Venant de la cryp­to­gra­phie, et plus pré­ci­sé­ment du chif­fre­ment homo­morphe, qui per­met d’effectuer des cal­culs, notam­ment de machine lear­ning, sur des don­nées sans les révé­ler, j’ai explo­ré la pos­si­bi­li­té de réa­li­ser des cal­culs de machine lear­ning sur des don­nées invi­sibles. C’est ce qu’on appelle le machine lear­ning res­pec­tueux de la vie pri­vée, ou « Pri­va­cy Pre­ser­ving Machine Learning ».

“L’IA est déployée dans des secteurs critiques, comme la défense, la santé et l’industrie : elle devient une cible. Dans ce contexte, Skyld se positionne à la pointe de l’innovation en offrant des solutions de sécurisation des modèles d’IA.”

Par la suite, je me suis inté­res­sée aux défis spé­ci­fiques de la cyber­sé­cu­ri­té pour l’IA. En effet, l’IA néces­site des inves­tis­se­ments colos­saux et est déployée dans des sec­teurs cri­tiques comme la san­té ou la défense, ce qui en fait une cible de choix.

Pouvez-vous donner un exemple de défi de cybersécurité pour l’IA ?

Notre point de départ chez Skyld a été l’étude de mil­liers d’applications mobiles afin de déter­mi­ner la pré­sence de modèles d’IA et leur niveau de pro­tec­tion contre la rétro-ingé­nie­rie : la plu­part des modèles sont faci­le­ment dupli­cables. En effet, l’IA pré­sente des spé­ci­fi­ci­tés d’implémentation qui rendent dif­fi­cile sa pro­tec­tion avec des méthodes classiques.

Chaque modèle est consti­tué d’un fichier de para­mètres et d’un code per­met­tant l’exécution. L’obfuscation pro­tège le code, mais pas les fichiers de para­mètres, qui res­tent acces­sibles. De plus, si le chif­fre­ment rend un fichier illi­sible, il néces­site un déchif­fre­ment pour l’exécution, expo­sant ain­si les para­mètres : le chif­fre­ment homo­morphe est inef­fi­cace pour les sys­tèmes embar­qués. Enfin, les col­la­bo­ra­tions entre entre­prises aug­mentent, posant des défis de pro­tec­tion intel­lec­tuelle et de moné­ti­sa­tion, sur­tout pour les déploie­ments « on-pre­mise » où l’acheteur contrôle les ser­veurs. Par exemple, une star­tup doit s’assurer qu’une banque n’utilise pas son IA au-delà de la licence accor­dée. Sans pro­tec­tion, le contrôle des déploie­ments et de l’utilisation des modèles est impossible.

Pour répondre à ces défis, nous pro­po­sons des ser­vices de pro­tec­tion et de moné­ti­sa­tion des modèles. Nous uti­li­sons des trans­for­ma­tions mathé­ma­tiques inno­vantes qui changent tous les para­mètres du modèle en nombres aléa­toires. Tous les cal­culs sont effec­tués sur des para­mètres aléa­toires, et cet aléa se pro­page d’une cer­taine manière. Nous le reti­rons ensuite au résul­tat final, garan­tis­sant que l’utilisateur obtient le bon résul­tat sans dif­fé­rence de pré­ci­sion notable. À aucun moment les para­mètres ori­gi­naux du modèle ou la pro­prié­té intel­lec­tuelle ne sont pré­sents dans la mémoire de l’appareil sur lequel l’IA est déployée.

Comment prévoyez-vous de gérer les défis de sécurité liés à la mise en œuvre des modèles d’IA dans divers secteurs industriels, notamment ceux avec des exigences réglementaires strictes comme la santé ?

Dans le sec­teur de la san­té, il existe un véri­table enjeu lié à l’utilisation des algo­rithmes d’IA. Lorsqu’une entre­prise sou­haite déployer un tel algo­rithme, elle doit obte­nir une cer­ti­fi­ca­tion. Si elle sou­haite ensuite pro­té­ger cet algo­rithme, elle doit prou­ver que cette pro­tec­tion ne ren­dra pas la cer­ti­fi­ca­tion caduque. C’est pour­quoi nous nous concen­trons sur la cer­ti­fi­ca­tion de nos propres algo­rithmes, notam­ment en matière de sécu­ri­té, pour garan­tir le niveau de pro­tec­tion atten­du. Cela consti­tue un objec­tif majeur pour cette année.

Nous cher­chons éga­le­ment à obte­nir des cer­ti­fi­ca­tions fonc­tion­nelles pour démon­trer, au-delà des preuves mathé­ma­tiques qui peuvent être com­plexes à com­prendre, que nos algo­rithmes de pro­tec­tion ne modi­fient pas le com­por­te­ment des algo­rithmes d’origine, per­met­tant ain­si de conser­ver la cer­ti­fi­ca­tion ini­tiale. C’est un défi impor­tant pour nous, et bien que notre entre­prise soit encore de petite taille, nous visons à rele­ver ce défi d’ici 2025. C’est aus­si pour­quoi nous nous concen­trons dans un pre­mier temps sur d’autres sec­teurs comme l’industrie 4.0 ou la défense.

Quels avantages les entreprises peuvent-elles espérer obtenir en adoptant vos solutions ?

Il est sou­vent dif­fi­cile d’obtenir un bre­vet pour un algo­rithme d’IA ou pour une archi­tec­ture spé­ci­fique. De plus, lorsqu’un algo­rithme est bre­ve­té, il doit être déployé, ce qui peut poser des pro­blèmes de pro­tec­tion. Chez Skyld, nous offrons une solu­tion qui agit comme un bre­vet tech­nique, four­nis­sant une pro­tec­tion contre la copie. Nous aidons les entre­prises à sécu­ri­ser l’avantage qu’elles ont déve­lop­pé grâce à leurs équipes d’innovation.

“Chez Skyld, nous offrons une solution qui agit comme un brevet technique, fournissant une protection contre la copie. Nous aidons les entreprises à sécuriser l’avantage qu’elles ont développé grâce à leurs équipes d’innovation.”

Un autre aspect impor­tant est la moné­ti­sa­tion. Nous pro­po­sons une méthode tech­nique pour gérer la moné­ti­sa­tion et les licences des modèles, que ce soit en contrô­lant le nombre d’appareils sur les­quels le modèle est déployé ou en limi­tant la durée de vali­di­té des modèles. Cela per­met aux entre­prises de mieux contrô­ler la moné­ti­sa­tion de leurs modèles, ce qui n’est pos­sible qu’avec une pro­tec­tion robuste.

Quels sont les principaux défis rencontrés depuis la création de Skyld et quelles opportunités voyez-vous pour l’avenir de cette technologie ?

J’ai recru­té un doc­teur en IA, car il était cru­cial pour moi d’avoir cette com­pé­tence au sein de l’entreprise. Nous avons dû nous adap­ter à la diver­si­té des algo­rithmes pos­sibles, car il existe de nom­breuses archi­tec­tures pour un modèle d’IA, telles que les réseaux de neu­rones convo­lu­tifs, récur­rents ou les trans­for­meurs. Il a donc été néces­saire de pas­ser de la théo­rie à un pro­duit déployable de manière auto­ma­tique et facile à uti­li­ser pour nos clients, et sans ralen­tis­se­ment notable. Désor­mais, nous dis­po­sons d’un outil entiè­re­ment auto­ma­ti­sé qui gère tous les types de déploie­ments, de l’embarqué aux serveurs.

“L’IA est déployée dans des secteurs critiques, comme la défense, la santé et l’industrie : elle devient une cible. Dans ce contexte, Skyld se positionne à la pointe de l’innovation en offrant des solutions de sécurisation des modèles d’IA.”

Pour l’avenir, nous voyons d’énormes oppor­tu­ni­tés. Les avan­cées maté­rielles faci­li­te­ront de plus en plus l’intégration de l’IA à la source des don­nées, en péri­phé­rie plu­tôt que dans le cloud. Les pro­grès des pro­ces­seurs, des TPU (Ten­sor Pro­ces­sing Unit) et des NPU (Neu­ral Pro­ces­sing Unit) sont conçus pour exé­cu­ter les opé­ra­tions des algo­rithmes de machine lear­ning. Paral­lè­le­ment, les avan­cées logi­cielles rendent ces algo­rithmes plus petits, com­pacts et effi­caces. Cette conver­gence entre opti­mi­sa­tion maté­rielle et logi­cielle offre une grande oppor­tu­ni­té pour déployer l’IA là où elle est néces­saire, plu­tôt que de la cen­tra­li­ser sur des serveurs.

Que projetez-vous comme évolution pour les produits de Skyld ?

Lors de dis­cus­sions avec un pros­pect, nous avons consta­té des pré­oc­cu­pa­tions concer­nant les exemples adver­sa­riaux. Un exemple adver­sa­rial consiste à per­tur­ber l’entrée d’un algo­rithme afin de le trom­per. Par exemple, des cher­cheurs ont démon­tré qu’en appo­sant quelques gom­mettes sur un pan­neau de signa­li­sa­tion, un algo­rithme peut être ame­né à croire qu’il s’agit d’un autre pan­neau. Les consé­quences peuvent être graves, notam­ment si un pan­neau indi­quant une limi­ta­tion à 130 km/h est inter­pré­té comme un pan­neau Stop sur une auto­route. Dans le domaine des com­mu­ni­ca­tions radio, notam­ment dans le sec­teur de la défense, une per­tur­ba­tion peut être intro­duite pour que l’IA trans­forme les com­mu­ni­ca­tions enne­mies en un bruit assourdissant.

Avec notre pro­tec­tion actuelle, nous offrons un pre­mier niveau de sécu­ri­té. Bien que l’accès aux para­mètres rende plus dif­fi­cile la créa­tion de ces per­tur­ba­tions, cela reste pos­sible. Nous tra­vaillons donc à rendre ces per­tur­ba­tions plus dif­fi­ciles à réa­li­ser. Nous pro­po­sons d’abord un ser­vice aux entre­prises pour les aider à éva­luer la robus­tesse de leurs algo­rithmes face à ces per­tur­ba­tions, en veillant à ce que les algo­rithmes res­tent solides. À terme, notre objec­tif est de déve­lop­per un pro­duit capable de détec­ter et d’éliminer les per­tur­ba­tions en temps réel, afin d’assurer une confiance maxi­male dans les résul­tats des algo­rithmes d’IA. Le ser­vice est déjà dis­po­nible, et le pro­duit devrait être lan­cé cou­rant 2026. 

https://www.skyld.io/

Poster un commentaire