IA et cybersécurité

Intelligence artificielle et cybersécurité : une réalité dès aujourd’hui

Dossier : CybersécuritéMagazine N°753 Mars 2020
Par Éric FREYSSINET (92)

Les tech­nolo­gies de l’intelligence arti­fi­cielle con­nais­sent de nou­veaux développe­ments con­crets depuis le début des années 2010, avec l’essor tou­jours plus impor­tant des puis­sances de cal­cul et l’accès de plus en plus facile aux don­nées, mais aus­si avec de nou­veaux algo­rithmes. La cyber­sécu­rité n’en est pas absente, avec de nom­breuses promess­es, mais aus­si quelques inquié­tudes sur les usages que peu­vent dévelop­per les attaquants.

Les recherch­es en intel­li­gence arti­fi­cielle visent à repro­duire par l’outil numérique cer­taines fonc­tions cog­ni­tives humaines, notable­ment la per­cep­tion, le lan­gage et la déci­sion. C’est-à-dire l’appréhension et la com­préhen­sion de l’environnement, les inter­ac­tions avec cet envi­ron­nement et avec des êtres humains, mais aus­si la prise de déci­sion pour com­man­der des actions. Toutes ces direc­tions de recherche peu­vent apporter un plus en matière de cyber­sécu­rité, qui vise à la fois à maîtris­er des risques var­iés, tech­niques et humains, à envis­ager des men­aces et à les détecter, puis à y apporter des répons­es, si pos­si­ble dans un temps le plus rap­proché pos­si­ble du début des attaques. On évoque ain­si sou­vent la détec­tion des attaques comme apport de l’intelligence arti­fi­cielle en cyber­sécu­rité, mais on peut aus­si imag­in­er des évo­lu­tions intéres­santes dans la com­préhen­sion et la maîtrise des sys­tèmes com­plex­es que l’on cherche à pro­téger (la décou­verte d’un réseau, le référence­ment des don­nées à pro­téger), la con­struc­tion de règles adap­tées à cet envi­ron­nement, la déf­i­ni­tion en temps réel des mesures à met­tre en œuvre au moment d’une attaque pour pro­téger tous les équipements d’un réseau, etc. Et, bien enten­du, l’interaction avec l’humain sera essen­tielle, pour com­pren­dre les actions nor­males des util­isa­teurs, détecter leurs erreurs ou les com­porte­ments qui s’écartent de la norme, inter­a­gir avec eux pour véri­fi­er ces inci­dents ou les informer de mesures à pren­dre, en par­ti­c­uli­er les équipes chargées de traiter les incidents.


REPÈRES

Selon une étude pub­liée en juil­let 2019 par Capgem­i­ni, 28 % des entre­pris­es inter­rogées utilisent des solu­tions de cyber­sécu­rité inclu­ant une forme d’intelligence arti­fi­cielle, avec des fortes per­spec­tives de développe­ment. La sécu­rité des réseaux et des don­nées est en tête des préoc­cu­pa­tions lorsque de telles solu­tions sont déployées. Même si de tels chiffres doivent être pris avec pré­cau­tion, toutes les solu­tions déclarant met­tre en œuvre de l’intelligence arti­fi­cielle n’étant pas com­pa­ra­bles, cette ten­dance est encourageante. 


L’IA en attaque comme en défense

On voit que les util­i­sa­tions poten­tielles de l’IA en cyber­sécu­rité sont nom­breuses ; il est donc indis­pens­able de s’y intéress­er et d’y inve­stir (notam­ment dans la recherche) et, pour l’utilisateur final qui cherche à pro­téger son sys­tème d’information, il sera de plus en plus néces­saire d’en com­pren­dre les poten­tial­ités, les con­traintes, mais aus­si les lim­ites. Les pre­mières implé­men­ta­tions ne vont évidem­ment pas encore aus­si loin que les per­spec­tives le promet­tent et c’est du côté des tech­niques de clas­si­fi­ca­tion des événe­ments et donc de détec­tion des inci­dents que les pre­miers résul­tats sont ren­con­trés. Ain­si, un impor­tant ges­tion­naire de cour­ri­er élec­tron­ique (Gmail) annonçait l’an dernier avoir con­sid­érable­ment amélioré sa lutte con­tre les spams grâce à l’apprentissage automa­tique. Mais on est encore loin d’une défense com­plète­ment automa­tisée grâce à l’intelligence artificielle.

Une autre rai­son de s’intéresser à l’intelligence arti­fi­cielle est que les attaquants exploitent d’ores et déjà ses capac­ités. Les exem­ples les plus médi­a­tiques sont ceux liés aux deep­fakes, générés par les récents algo­rithmes de réseaux antag­o­nistes générat­ifs, ces enreg­istrements audio­vi­suels per­me­t­tant de faire dire n’importe quoi à une per­son­ne, à par­tir d’enregistrements précé­dents – tech­nique qu’aurait pu utilis­er l’escroc qui s’est fait pass­er pour le min­istre des Armées en 2015. Et donc l’inquiétude qui s’ensuit con­cerne la pos­si­bil­ité de con­tourn­er les sys­tèmes de con­trôle d’accès bio­métriques. Un édi­teur de sécu­rité s’est essayé en juin 2019 à imag­in­er plusieurs util­i­sa­tions de l’intelligence arti­fi­cielle par les cyberdélin­quants : des vers infor­ma­tiques avec une fonc­tion­nal­ité d’évasion des algo­rithmes de détec­tion en faisant vari­er leur forme ou leur com­porte­ment sur le réseau, ou des virus pou­vant tromper les moteurs antivirus qui reposent sur un appren­tis­sage automa­tique (machine learn­ing) en leur apprenant à ignor­er cer­tains fichiers malveil­lants. Des chercheurs ont ain­si présen­té DeepLock­er à la con­férence Black­hat 2018, un démon­stra­teur reposant sur des tech­nolo­gies d’intel­ligence arti­fi­cielle capa­ble d’échapper aux tech­niques de détec­tion et de ne se déclencher que dans un sys­tème cible bien précis.

Mais les risques liés à l’intelligence arti­fi­cielle sont encore plus immé­di­ats pour ceux qui souhait­ent en déploy­er dans leurs pro­jets. Ain­si, de nom­breuses études ont mon­tré des biais liés aux algo­rithmes eux-mêmes ou aux jeux de don­nées util­isés pour l’apprentissage ; c’est évidem­ment un risque impor­tant lorsque l’IA rem­plit une fonc­tion de sécu­rité. Les recherch­es récentes por­tent juste­ment sur des méth­odes per­me­t­tant de détecter ces biais ou de les minimiser.

“Les exemples les plus médiatiques sont ceux
liés aux deepfakes.

Définir une stratégie collective de lutte

Pour finir, le point clé de l’intelligence arti­fi­cielle par appren­tis­sage est la qual­ité de la don­née. Que le pro­jet d’IA dévelop­pé au sein de l’organisation relève de la cyber­sécu­rité ou d’autres appli­ca­tions, il con­vient d’avoir une véri­ta­ble stratégie pour sécuris­er les don­nées col­lec­tées : de la col­lecte au stock­age, il faut s’assurer à la fois de la qual­ité et de l’exhaustivité des don­nées (pour éviter les biais et garan­tir la qual­ité de l’apprentissage), mais aus­si de l’intégrité de ces don­nées pour éviter qu’elles ne soient elles-mêmes manip­ulées par un attaquant pour organ­is­er une cyber­at­taque ultérieure­ment (ou le détourne­ment de l’application de l’IA quelle qu’elle soit). Le rap­port Vil­lani sur l’intelligence arti­fi­cielle « Don­ner un sens à l’intelligence arti­fi­cielle » con­sacre un focus sur les ques­tions de défense et de sécu­rité, recom­man­dant une prise en compte par la recherche sou­veraine et les moyens de l’État. Plus générale­ment, on ne peut que recom­man­der que l’écosystème français et européen se sai­sisse pleine­ment des ques­tions liées à l’intelligence arti­fi­cielle en cyber­sécu­rité ; il en va de l’avenir de notre sécu­rité numérique. Et bien évidem­ment tous les chefs de pro­jet numérique et les RSSI qui les appuient doivent com­pren­dre les risques nou­veaux liés à l’intelligence arti­fi­cielle, tout en s’appropriant rapi­de­ment ces out­ils pour les oppor­tu­nités nou­velles qu’ils promet­tent dans la sécuri­sa­tion des systèmes.

Poster un commentaire