La transformation des métiers de la santé

Dossier : L'intelligence artificielleMagazine N°733 Mars 2018
Par Jean-Philippe VERT (X92)

Les algo­rithmes d’intelligence arti­fi­cielle cherchent main­te­nant à exploi­ter l’im­men­si­té des dos­siers médi­caux pour essayer d’as­su­rer une bonne pré­ven­tion ou pres­crire un trai­te­ment per­son­na­li­sé. Pour de mul­tiples rai­sons les résul­tats obte­nus sont miti­gés, on arrive à éga­ler l’ex­pert, mais pas encore à le surpasser.

En dépit de toutes les don­nées dont on dis­pose, le choix d’un trai­te­ment contre un can­cer (chi­rur­gie, chi­mio­thé­ra­pie, thé­ra­pie ciblée…) s’effectue, à quelques excep­tions près, comme il y a quinze ans, à par­tir d’un nombre limi­té de para­mètres comme l’âge du patient, la taille et l’aspect au micro­scope de la tumeur, la pré­sence ou non de méta­stases, ou l’expression de deux ou trois pro­téines connues.

REPÈRES

Le génome humain a été décrypté il y a quinze ans, et les médecins disposent maintenant de technologies permettant de caractériser au niveau moléculaire chaque patient, par exemple en identifiant la liste exhaustive des milliers de mutations dans son ADN ou celle de sa tumeur.
Les techniques d’imagerie ont également beaucoup progressé depuis quinze ans, et les médecins ont par ailleurs accès à l’ensemble du dossier médical de chaque patient sous forme électronique, notamment les diverses analyses biologiques, radiographies, échographies, IRM, etc.
Mises bout à bout, ces données représentent facilement des téraoctets de données par patient.

ASSISTER L’EXPERTISE HUMAINE

On peut légi­ti­me­ment se deman­der si une meilleure exploi­ta­tion des don­nées de san­té, cou­plée à des algo­rithmes d’intelligence arti­fi­cielle, pour­rait amé­lio­rer la pra­tique médi­cale, par exemple pour iden­ti­fier le trai­te­ment le plus effi­cace pour chaque patient, évi­ter des trai­te­ments inutiles ou néfastes, voire pour pro­po­ser des approches thé­ra­peu­tiques com­plè­te­ment nouvelles.

La réponse à cette ques­tion est cer­tai­ne­ment posi­tive, au moins pour cer­taines appli­ca­tions de l’intelligence arti­fi­cielle visant à auto­ma­ti­ser ou imi­ter cer­taines tâches faites actuel­le­ment par des experts humains ; elle me semble moins évi­dente, au moins sur le court et moyen terme, pour ce qui concerne le dépas­se­ment de l’expertise humaine.

MIEUX INTERPRÉTER LES CLICHÉS MÉDICAUX

Le pre­mier type d’applications com­prend des tâches visant à « imi­ter » l’expertise humaine.


L’IA peut aider les méde­cins à inter­pré­ter des cli­chés. © FOTOGRAFICHE.EU

Par exemple, quand il s’agit de détec­ter une tumeur sur une mam­mo­gra­phie ou de déci­der si un grain de beau­té pris en pho­to par un smart­phone est poten­tiel­le­ment un mélanome.

Ces tâches sont effec­tuées aujourd’hui par des humains, géné­ra­le­ment experts et entraî­nés pen­dant de longues années. Il est dif­fi­cile d’automatiser ces tâches avec des algo­rithmes basés sur des règles fixes, car il est dif­fi­cile de coder expli­ci­te­ment com­ment l’expert prend sa décision.

Mais il est facile de col­lec­ter de grandes quan­ti­tés de don­nées anno­tées par ces experts, ce qui ouvre la voie à l’utilisation de tech­niques d’apprentissage super­vi­sée pour lais­ser le pro­gramme « apprendre » à imi­ter l’expert.

UNE AIDE AU DIAGNOSTIC

De telles appli­ca­tions peuvent avoir un impact impor­tant et rapide sur la pra­tique médi­cale. Elles four­nissent un réfé­ren­tiel consis­tant, uti­li­sable dans de nom­breux hôpi­taux, notam­ment aux endroits ne dis­po­sant pas des meilleurs experts. Elles peuvent démo­cra­ti­ser et faci­li­ter l’accès à cer­tains exa­mens, comme l’analyse rapide d’images prises par un smart­phone, afin de faire entrer dans le sys­tème de soins des patients à un stade plus pré­coce de la mala­die, et donc plus facile à traiter.

Elles peuvent aus­si déchar­ger les experts de cer­taines tâches répé­ti­tives afin qu’ils puissent se concen­trer sur les tâches à plus forte valeur ajou­tée, comme l’analyse plus fine des images ou des dos­siers iden­ti­fiés à risque par un algo­rithme automatique.

IMITER OU DÉPASSER L’EXPERT

Plu­tôt qu’imiter un expert, un sys­tème infor­ma­tique peut-il le dépas­ser et, par exemple, faire des diag­nos­tics plus pré­cis que les humains ou sug­gé­rer de nou­velles approches thérapeutiques ?

PRÉDICTIONS PAR ALGORITHME

Des équipes de l’université Stanford ont entraîné un réseau de neurones pour reconnaître des cancers potentiels à partir d’images de la peau, en entraînant le modèle sur 130 000 images annotées par des experts.
Dans une étude publiée en 2017 dans la revue Nature, elles ont montré qu’après entraînement les prédictions de l’algorithme étaient aussi précises que celles de dermatologistes professionnels.

Cette vision sédui­sante, lar­ge­ment véhi­cu­lée par les médias, fait l’objet d’intenses efforts de recherche et d’investissement de la part du monde aca­dé­mique et indus­triel. Dans le lan­gage de l’intelligence arti­fi­cielle, la dif­fé­rence entre « imi­ter l’expert » et « dépas­ser l’expert » n’est pas très impor­tante et s’appuie sur les mêmes concepts et outils algorithmiques.

“ La révolution génomique des années 2000 n’a pas encore révolutionné le traitement des cancers ”

En effet, pour imi­ter l’expert, un sys­tème d’apprentissage auto­ma­tique sera entraî­né de manière super­vi­sée avec des don­nées pour lui apprendre le lien entre des mesures (par exemple, un dos­sier médi­cal) et une déci­sion prise par un expert (par exemple, iden­ti­fier une tumeur).

Pour dépas­ser l’expert, il suf­fit d’entraîner le même sys­tème non pas avec les déci­sions de l’expert, mais par exemple avec l’évolution obser­vée de la mala­die suite à un traitement.

DES RÉSULTATS PARFOIS EN DEÇÀ DES ESPOIRS

Mal­gré sa sim­pli­ci­té concep­tuelle, la tâche peut cepen­dant se révé­ler ardue, et les résul­tats tardent encore à se concré­ti­ser dans la pra­tique médi­cale. Pre­nons l’exemple du choix thé­ra­peu­tique dans le can­cer du sein.

Consultation médicale et recueil de données
Col­lec­ter des mil­lions de para­mètres ne suf­fit pas à révo­lu­tion­ner les pra­tiques. © SEPY

Depuis une quin­zaine d’années, plu­sieurs études ont col­lec­té des grandes quan­ti­tés de don­nées géno­miques sur des cohortes de patients atteints de can­cer, afin d’identifier des modèles pré­dic­tifs de risque de réci­dive ou de réponse aux trai­te­ments par appren­tis­sage statistique.

Cer­taines études ont d’ailleurs abou­ti à des modèles pré­dic­tifs com­mer­cia­li­sés, basant leur pré­dic­tion sur l’analyse de quelques dizaines de gènes iden­ti­fiés par des pro­cé­dures automatiques.

Mais leur per­for­mance est au plus mar­gi­na­le­ment supé­rieure aux approches stan­dard, pour un coût bien supé­rieur ; la révo­lu­tion géno­mique des années 2000 n’a pas encore révo­lu­tion­né le trai­te­ment des can­cers, mal­gré les quan­ti­tés phé­no­mé­nales de don­nées collectées.

Il semble donc qu’il ne suf­fise pas de col­lec­ter des mil­lions de para­mètres a prio­ri inté­res­sants et d’entraîner des modèles d’apprentissage auto­ma­tique pour révo­lu­tion­ner une pra­tique qui peut sem­bler bien naïve, mais reste lar­ge­ment uti­li­sée dans les hôpitaux.

BIG DATA VS DIRTY DATA

Pour­quoi de telles approches, consis­tant à col­lec­ter des grandes quan­ti­tés de don­nées et à entraî­ner des modèles (par­fois com­plexes), n’améliorent-elles pas tou­jours des approches stan­dard sou­vent basées sur un petit nombre de para­mètres ? On peut avan­cer plu­sieurs rai­sons. Tout d’abord se pose la ques­tion de la qua­li­té des don­nées : il peut arri­ver que big data soit sou­vent lié à dir­ty data, et que le bruit des don­nées cache le signal intéressant.

“ Le moteur de l’intelligence artificielle est de parvenir à collecter de grandes quantités de données sur beaucoup d’individus ”

Les pro­grès tech­no­lo­giques et la stan­dar­di­sa­tion des pro­to­coles peuvent résoudre en par­tie cette ques­tion, même si les don­nées comme les comptes ren­dus d’examens médi­caux rédi­gés en texte libre par des méde­cins res­tent redou­ta­ble­ment dif­fi­ciles à standardiser.

Deuxiè­me­ment, il se peut que, même sans bruit, les don­nées mesu­rées ne contiennent pas l’information per­ti­nente pour résoudre le pro­blème iden­ti­fié. Par exemple, il se peut que le niveau d’expression des 20 000 gènes codés par notre génome ne contienne pas plus d’information que quatre ou cinq para­mètres cli­niques stan­dard pour pré­dire le risque d’une réci­dive du cancer.

CROISER LES APPROCHES

Pour pal­lier ce pro­blème, une solu­tion semble alors de col­lec­ter des don­nées dif­fé­rentes, par exemple de com­plé­ter l’expression des gènes par les muta­tions de l’ADN, les images d’IRM, l’ensemble du dos­sier médi­cal, etc., en espé­rant qu’en com­bi­nant plus de don­nées, on aug­mente l’information qu’elles contiennent pour le pro­blème de pré­dic­tion que l’on cherche à résoudre.

Cepen­dant, cette ten­dance se heurte fron­ta­le­ment à une troi­sième rai­son qui peut expli­quer la faible per­for­mance des modèles pré­dic­tifs : le fait que pour entraî­ner des modèles pré­dic­tifs per­for­mants par appren­tis­sage auto­ma­tique, il faut beau­coup d’exemples, dans notre cas beau­coup de patients ; et plus on mesure de para­mètres dif­fé­rents, plus il faut d’exemples, pour des rai­sons pure­ment mathé­ma­tiques et statistiques.

Morceau d'ADN
Il se peut que le niveau d’expression des 20 000 gènes codés par notre génome ne contienne pas plus d’information que quatre ou cinq para­mètres cli­niques stan­dard pour pré­dire le risque d’une réci­dive du can­cer.
© VITSTUDIO

Cela pose la ques­tion de déve­lop­per la théo­rie et les algo­rithmes pour l’apprentissage auto­ma­tique de modèles com­plexes à par­tir de rela­ti­ve­ment peu de don­nées, ques­tion pas­sion­nante mais difficile.

DES QUESTIONS ÉTHIQUES ET LÉGALES

Le moteur de l’intelligence arti­fi­cielle étant de par­ve­nir à col­lec­ter de grandes quan­ti­tés de don­nées sur beau­coup d’individus, le domaine de la san­té sou­lève des ques­tions spé­ci­fiques à ce sujet. En plus de la dif­fi­cul­té fon­da­men­tale de réunir des cohortes de patients de taille suf­fi­sante, les ques­tions éthiques et légales autour de la mani­pu­la­tion des don­nées de san­té sont nombreuses.

Qui pos­sède les don­nées ? Qui peut les uti­li­ser ? À quelles fins ? À qui appar­tien­dront les résul­tats ? Autant de ques­tions au cœur de nom­breuses dis­cus­sions actuel­le­ment entre les dif­fé­rents acteurs, notam­ment la socié­té civile et les asso­cia­tions de patients, le légis­la­teur, le corps médi­cal et les entreprises.

Ces débats dépassent le côté pure­ment tech­nique de savoir si, grâce à ces don­nées, un ordi­na­teur aura un jour la capa­ci­té de mieux trai­ter un malade qu’un méde­cin aujourd’hui.

Poster un commentaire