IA et cybersécurité

Intelligence artificielle et cybersécurité : une réalité dès aujourd’hui

Dossier : CybersécuritéMagazine N°753 Mars 2020
Par Éric FREYSSINET (92)

Les tech­no­lo­gies de l’intelligence arti­fi­cielle connaissent de nou­veaux déve­lop­pe­ments concrets depuis le début des années 2010, avec l’essor tou­jours plus impor­tant des puis­sances de cal­cul et l’accès de plus en plus facile aux don­nées, mais aus­si avec de nou­veaux algo­rithmes. La cyber­sé­cu­ri­té n’en est pas absente, avec de nom­breuses pro­messes, mais aus­si quelques inquié­tudes sur les usages que peuvent déve­lop­per les attaquants.

Les recherches en intel­li­gence arti­fi­cielle visent à repro­duire par l’outil numé­rique cer­taines fonc­tions cog­ni­tives humaines, nota­ble­ment la per­cep­tion, le lan­gage et la déci­sion. C’est-à-dire l’appréhension et la com­pré­hen­sion de l’environnement, les inter­ac­tions avec cet envi­ron­ne­ment et avec des êtres humains, mais aus­si la prise de déci­sion pour com­man­der des actions. Toutes ces direc­tions de recherche peuvent appor­ter un plus en matière de cyber­sé­cu­ri­té, qui vise à la fois à maî­tri­ser des risques variés, tech­niques et humains, à envi­sa­ger des menaces et à les détec­ter, puis à y appor­ter des réponses, si pos­sible dans un temps le plus rap­pro­ché pos­sible du début des attaques. On évoque ain­si sou­vent la détec­tion des attaques comme apport de l’intelligence arti­fi­cielle en cyber­sé­cu­ri­té, mais on peut aus­si ima­gi­ner des évo­lu­tions inté­res­santes dans la com­pré­hen­sion et la maî­trise des sys­tèmes com­plexes que l’on cherche à pro­té­ger (la décou­verte d’un réseau, le réfé­ren­ce­ment des don­nées à pro­té­ger), la construc­tion de règles adap­tées à cet envi­ron­ne­ment, la défi­ni­tion en temps réel des mesures à mettre en œuvre au moment d’une attaque pour pro­té­ger tous les équi­pe­ments d’un réseau, etc. Et, bien enten­du, l’interaction avec l’humain sera essen­tielle, pour com­prendre les actions nor­males des uti­li­sa­teurs, détec­ter leurs erreurs ou les com­por­te­ments qui s’écartent de la norme, inter­agir avec eux pour véri­fier ces inci­dents ou les infor­mer de mesures à prendre, en par­ti­cu­lier les équipes char­gées de trai­ter les incidents.


REPÈRES

Selon une étude publiée en juillet 2019 par Cap­ge­mi­ni, 28 % des entre­prises inter­ro­gées uti­lisent des solu­tions de cyber­sé­cu­ri­té incluant une forme d’intelligence arti­fi­cielle, avec des fortes pers­pec­tives de déve­lop­pe­ment. La sécu­ri­té des réseaux et des don­nées est en tête des pré­oc­cu­pa­tions lorsque de telles solu­tions sont déployées. Même si de tels chiffres doivent être pris avec pré­cau­tion, toutes les solu­tions décla­rant mettre en œuvre de l’intelligence arti­fi­cielle n’étant pas com­pa­rables, cette ten­dance est encourageante. 


L’IA en attaque comme en défense

On voit que les uti­li­sa­tions poten­tielles de l’IA en cyber­sé­cu­ri­té sont nom­breuses ; il est donc indis­pen­sable de s’y inté­res­ser et d’y inves­tir (notam­ment dans la recherche) et, pour l’utilisateur final qui cherche à pro­té­ger son sys­tème d’information, il sera de plus en plus néces­saire d’en com­prendre les poten­tia­li­tés, les contraintes, mais aus­si les limites. Les pre­mières implé­men­ta­tions ne vont évi­dem­ment pas encore aus­si loin que les pers­pec­tives le pro­mettent et c’est du côté des tech­niques de clas­si­fi­ca­tion des évé­ne­ments et donc de détec­tion des inci­dents que les pre­miers résul­tats sont ren­con­trés. Ain­si, un impor­tant ges­tion­naire de cour­rier élec­tro­nique (Gmail) annon­çait l’an der­nier avoir consi­dé­ra­ble­ment amé­lio­ré sa lutte contre les spams grâce à l’apprentissage auto­ma­tique. Mais on est encore loin d’une défense com­plè­te­ment auto­ma­ti­sée grâce à l’intelligence artificielle.

Une autre rai­son de s’intéresser à l’intelligence arti­fi­cielle est que les atta­quants exploitent d’ores et déjà ses capa­ci­tés. Les exemples les plus média­tiques sont ceux liés aux deep­fakes, géné­rés par les récents algo­rithmes de réseaux anta­go­nistes géné­ra­tifs, ces enre­gis­tre­ments audio­vi­suels per­met­tant de faire dire n’importe quoi à une per­sonne, à par­tir d’enregistrements pré­cé­dents – tech­nique qu’aurait pu uti­li­ser l’escroc qui s’est fait pas­ser pour le ministre des Armées en 2015. Et donc l’inquiétude qui s’ensuit concerne la pos­si­bi­li­té de contour­ner les sys­tèmes de contrôle d’accès bio­mé­triques. Un édi­teur de sécu­ri­té s’est essayé en juin 2019 à ima­gi­ner plu­sieurs uti­li­sa­tions de l’intelligence arti­fi­cielle par les cyber­dé­lin­quants : des vers infor­ma­tiques avec une fonc­tion­na­li­té d’évasion des algo­rithmes de détec­tion en fai­sant varier leur forme ou leur com­por­te­ment sur le réseau, ou des virus pou­vant trom­per les moteurs anti­vi­rus qui reposent sur un appren­tis­sage auto­ma­tique (machine lear­ning) en leur appre­nant à igno­rer cer­tains fichiers mal­veillants. Des cher­cheurs ont ain­si pré­sen­té Dee­pLo­cker à la confé­rence Black­hat 2018, un démons­tra­teur repo­sant sur des tech­no­lo­gies d’intel­ligence arti­fi­cielle capable d’échapper aux tech­niques de détec­tion et de ne se déclen­cher que dans un sys­tème cible bien précis.

Mais les risques liés à l’intelligence arti­fi­cielle sont encore plus immé­diats pour ceux qui sou­haitent en déployer dans leurs pro­jets. Ain­si, de nom­breuses études ont mon­tré des biais liés aux algo­rithmes eux-mêmes ou aux jeux de don­nées uti­li­sés pour l’apprentissage ; c’est évi­dem­ment un risque impor­tant lorsque l’IA rem­plit une fonc­tion de sécu­ri­té. Les recherches récentes portent jus­te­ment sur des méthodes per­met­tant de détec­ter ces biais ou de les minimiser.

“Les exemples les plus médiatiques sont ceux
liés aux deepfakes.

Définir une stratégie collective de lutte

Pour finir, le point clé de l’intelligence arti­fi­cielle par appren­tis­sage est la qua­li­té de la don­née. Que le pro­jet d’IA déve­lop­pé au sein de l’organisation relève de la cyber­sé­cu­ri­té ou d’autres appli­ca­tions, il convient d’avoir une véri­table stra­té­gie pour sécu­ri­ser les don­nées col­lec­tées : de la col­lecte au sto­ckage, il faut s’assurer à la fois de la qua­li­té et de l’exhaustivité des don­nées (pour évi­ter les biais et garan­tir la qua­li­té de l’apprentissage), mais aus­si de l’intégrité de ces don­nées pour évi­ter qu’elles ne soient elles-mêmes mani­pu­lées par un atta­quant pour orga­ni­ser une cybe­rat­taque ulté­rieu­re­ment (ou le détour­ne­ment de l’application de l’IA quelle qu’elle soit). Le rap­port Vil­la­ni sur l’intelligence arti­fi­cielle « Don­ner un sens à l’intelligence arti­fi­cielle » consacre un focus sur les ques­tions de défense et de sécu­ri­té, recom­man­dant une prise en compte par la recherche sou­ve­raine et les moyens de l’État. Plus géné­ra­le­ment, on ne peut que recom­man­der que l’écosystème fran­çais et euro­péen se sai­sisse plei­ne­ment des ques­tions liées à l’intelligence arti­fi­cielle en cyber­sé­cu­ri­té ; il en va de l’avenir de notre sécu­ri­té numé­rique. Et bien évi­dem­ment tous les chefs de pro­jet numé­rique et les RSSI qui les appuient doivent com­prendre les risques nou­veaux liés à l’intelligence arti­fi­cielle, tout en s’appropriant rapi­de­ment ces outils pour les oppor­tu­ni­tés nou­velles qu’ils pro­mettent dans la sécu­ri­sa­tion des systèmes.

Poster un commentaire