Chabots sur smartphone

IA, le risque d’une humanité diminuée

Dossier : ExpressionsMagazine N°733 Mars 2018
Par Marie DAVID (X96)
Par Cédric SAUVIAT (92)

À l’an­nonce du dossier sur l’in­tel­li­gence arti­fi­cielle, Cédric SAUVIAT, par ailleurs créa­teur de l’Asso­ci­a­tion française con­tre l’IA, a voulu faire con­naître son point de vue. Il est impératif d’avoir un débat pub­lic pour dis­cuter du dan­ger poten­tiel et surtout éviter que ce soit un mag­nifique out­il de dom­i­na­tion des mass­es par les puissants. 

L’intel­li­gence arti­fi­cielle (ou IA) c’est « tout ce que l’ordinateur ne sait pas encore faire ». Cette déf­i­ni­tion en forme de boutade, qui cir­cule par­mi les infor­mati­ciens, résume bien le car­ac­tère pro­téi­forme et évo­lu­tif d’une tech­nolo­gie qui cristallise aujourd’hui les utopies et les espoirs. 

C’est juste­ment parce qu’on ne sait pas ce que l’IA pour­ra faire dans un avenir plus ou moins loin­tain que le débat sur ses impli­ca­tions à la fois éthiques, sociales, économiques et anthro­pologiques se révèle pas­sion­nant et indispensable. 

Il n’est pas ques­tion ici de con­tester la dimen­sion révo­lu­tion­naire de l’IA, son influ­ence con­sid­érable et indé­ni­able sur les dif­férentes dimen­sions de nos exis­tences (vie pra­tique, pro­fes­sion­nelle, san­té…) mais au con­traire d’en saisir toute la portée, d’aller plus loin que les titres actuels des mag­a­zines, lesquels bal­an­cent entre tech­no-idol­âtrie sans grande per­ti­nence (Le Point a com­paré Mark Zucker­berg et Ray Kurzweil à Aris­tote et Pla­ton…) et alarmisme sou­vent peu constructif. 

AI IS WATCHING YOU

Dans son remar­quable ouvrage La Sil­i­coloni­sa­tion du monde, le philosophe Éric Sadin décrit nos sociétés mar­quées par l’explosion des inter­faces dig­i­tales dans tous les domaines de la vie quotidienne. 


Avec les chat­bots, il sera plus facile d’interagir avec un algo­rithme dont les répons­es ont été soigneuse­ment cal­i­brées pour nous plaire, qu’avec un être humain© MAKC76

Nos faits et gestes sont ain­si recueil­lis et stock­és. Ils four­nissent une matière pré­cieuse aux algo­rithmes des géants du numérique. Cette récolte de don­nées et les analy­ses qui en découlent per­me­t­tent la créa­tion de ser­vices per­for­mants dont nous n’observons encore que les prémices. 

Ce phénomène devrait en effet s’accentuer avec l’irruption annon­cée des objets con­nec­tés ain­si que des assis­tants per­son­nels, dont Siri ou Echo ne sont que des pré­fig­u­ra­tions. Iden­ti­fié, enreg­istré, cha­cun de nous se ver­ra ain­si accom­pa­g­né dans son quo­ti­di­en grâce à des sug­ges­tions per­son­nal­isées et de plus en plus précises. 

Avec quelles con­séquences sur notre liber­té de choix, et notre capac­ité à pren­dre des décisions ? 

Capa­bles de gér­er des prob­lèmes de plus en plus com­plex­es, et nous offrant une assis­tance tou­jours meilleure, les machines régleront de plus en plus de prob­lèmes à notre place, enta­mant, par une suc­ces­sion de petits pro­grès, notre autonomie, notre libre arbitre. 

DIVERTIS ET PLEINS DE MISÈRE

Aujourd’hui, l’écran est devenu un réflexe. Nous sommes de moins en moins capa­bles de men­er une con­ver­sa­tion avec un ami, sans nous pencher toutes les cinq min­utes vers notre smart­phone. Dans Con­tact, le penseur Matthew Craw­ford s’inquiète des effets per­vers de la détéri­o­ra­tion de notre capac­ité d’attention.

Sans cesse diver­tis, surtout si des cap­teurs sig­na­lent que notre niveau d’attention baisse, sans cesse guidés, ne per­drons-nous pas juste­ment ce con­tact avec le réel, dont les aspérités et l’imprédictibilité sont à la base de l’expérience humaine. 

ENTRETIEN AVEC UN ROBOT

Si nous risquons de per­dre tout con­tact avec le réel, ce sera pire avec les autres. L’anthropologue Sher­ry Turkle a décrit, dans Seuls ensem­ble, notre ten­dance à anthro­po­mor­phis­er notre rela­tion avec tout objet qui nous paraî­trait vivant et doué de con­science (et ce, même si nous savons que ce n’est pas le cas). 

De sur­croît, à lui préfér­er sa com­pag­nie plutôt que celle des êtres humains. Un arti­cle paru récem­ment dans The Atlantic a sus­cité un réel débat dans l’univers de la Sil­i­con Val­ley : le taux d’accidents vio­lents et de grossess­es non désirées a forte­ment bais­sé chez les ado­les­cents améri­cains, en revanche leur taux de sui­cide a augmenté. 

La rai­son ? Ils ne fréquentent presque plus leurs con­génères que par le biais des réseaux soci­aux. La vague qui entoure les chat­bots – la nou­velle tech­nolo­gie de sim­u­la­tion de dia­logue – si elle témoigne bien sûr d’un effet de mode, signe égale­ment une ten­dance plus pro­fonde : à savoir qu’il sera plus facile d’interagir avec un algo­rithme dont les répons­es ont été soigneuse­ment cal­i­brées pour nous plaire, qu’avec un être humain. 

L’HOMME REMPLACÉ

Au lieu de can­ton­ner les machines dans des domaines où elles peu­vent sup­pléer l’homme (per­son­ne ne con­testera qu’il vaille mieux laiss­er à un algo­rithme le cal­cul de la tra­jec­toire d’un satel­lite), les pro­fes­sion­nels de l’IA cherchent au con­traire à l’immiscer dans tous les domaines de la vie humaine, en par­tant d’un pré­sup­posé jamais énon­cé : si la machine peut faire quelque chose à la place de l’homme, elle le fera mieux. 

C’est donc une com­para­i­son con­stante avec la machine que subit l’homme, ce qui ne manque pas de le plac­er en sit­u­a­tion d’infériorité. Si, par exem­ple, l’ordinateur IBM Wat­son a été lancé pour « assis­ter » le médecin, il est prob­a­ble qu’en cas de désac­cord ce soit la machine qui tranche. 

L’HOMME REBUT DU ROBOT

Sys­té­ma­tique­ment inférieur, l’homme ne pour­rait tenir dans la société qu’une place déclassée. 

Un robot amoureux ?
Des chercheurs tra­vail­lent en ce moment sur un robot humanoïde chargé de sus­citer amour et empathie, envers les machines comme envers les humains. © MAKC76

Dans un entre­tien avec Daniel Kah­ne­man sur le site Edge, l’historien Yuval Noah Harari, auteur de Sapi­ens et Homo deus, souligne que si les États mod­ernes, à com­mencer par la Prusse au XIXe siè­cle, ont mis en place des sys­tèmes mas­sifs d’éducation et de sécu­rité sociale, c’était bien parce qu’ils avaient besoin de bras dans les usines, et d’hommes aptes à la guerre. 

Dans un monde où les guer­res se fer­ont sans inter­ven­tion humaine, et où des robots tra­vailleront à notre place, y aura-t-il une moti­va­tion autre que phil­an­thropique à assur­er à cha­cun édu­ca­tion et san­té ? Et quelle édu­ca­tion choisir pour ses enfants dans un monde où ils ont peu de chances de tra­vailler et où il est impos­si­ble de savoir quels emplois exis­teront encore demain ? 

La réponse – un peu courte à notre sens – d’allouer un revenu uni­versel aux per­son­nes ain­si privées de tra­vail, ne sem­ble pren­dre en compte que l’aspect matériel des choses. 

Quels liens uniront les hommes, quel sera le sens de la vie, quelle con­tri­bu­tion don­ner à la société, dans un monde où les IA pour­ront nous rem­plac­er dans n’importe quel domaine, y com­pris celui de l’empathie et des rela­tions humaines ? 

Des chercheurs tra­vail­lent en ce moment sur un robot humanoïde chargé de sus­citer amour et empathie, envers les machines comme envers les humains. 

LE POINT DE NON-RETOUR 

Le risque tech­nologique, enfin, s’il est soulevé par un nom­bre réguli­er de penseurs et de sci­en­tifiques n’a tou­jours pas obtenu de réponse claire. Com­ment être sûr que des tech­nolo­gies par essence évo­lu­tives et qui par nature appren­dront à appren­dre ne se com­porteront pas un jour d’une façon autonome avec des buts et des objec­tifs con­traires aux nôtres ? 

Ce thème cher à la sci­ence-fic­tion effraie des esprits tels que Stephen Hawk­ing ou Nick Bostrom. Dans la Sil­i­con Val­ley cir­cule le mythe du « bou­ton rouge », une ultime cein­ture de sécu­rité qui nous per­me­t­trait de débranch­er les machines. 

Mais com­ment être sûr que l’IA ne nous empêchera pas d’actionner ce mécan­isme ? Et que, d’ailleurs, nous aurons encore la volon­té de l’actionner ?

LA NÉCESSITÉ D’UN DÉBAT PUBLIC

On le voit, les con­séquences d’un développe­ment expo­nen­tiel de l’intelligence arti­fi­cielle soulèvent des ques­tions essen­tielles. Il sem­ble donc cap­i­tal d’installer un débat démoc­ra­tique qui abor­dera, avec trans­parence et lucid­ité, toutes les con­séquences pour la société. 

Un temps de dia­logue, sere­in et con­struc­tif, pour informer pleine­ment sur la révo­lu­tion en marche et ne pas se lim­iter aux seuls aspects économiques. 

BIBLIOGRAPHIE

  • Éric Sadin, La Silicolonisation du monde, 2016, Éditions L’échappée.
  • Matthew B. Crawford, Contact, pourquoi nous avons perdu le monde, et comment le retrouver, 2016, Éditions La Découverte.
  • Sherry Turkle, Seuls ensemble, 2015, Éditions L’échappée.
  • Have smartphones destroyed a generation ? The Atlantic, septembre 2017.
  • Death is optional, a conversation with Yuval Noah Harari and Daniel Kahneman, Edge.
  • Le papier de recherche sur l’empathie des robots est disponible sur le site ArXiv.org ou directement en pdf
  • Nick Bostrom, Superintelligence, paths, dangers, strategies, 2014, Oxford University Press.

2 Commentaires

Ajouter un commentaire

Araud Chris­t­ian X60répondre
12 mars 2018 à 15 h 29 min

dan­gers de l’IA

Les cama­rades David et Sauvi­at lan­cent un cri d’alarme au sujet de l’IA dans un numéro de la revue qui, glob­ale­ment, est plutôt favor­able à l’IA. 

David et Sauvi­at mon­trent, avec rai­son, tous les dan­gers que courre l’hu­man­ité et encore plus l’hu­man­isme avec un développe­ment expo­nen­tiel de cette technologie.Ils ne par­lent pas du tran­shu­man­isme, mais en fait cette illu­sion fasci­nante tourne beau­coup de têtes, y com­pris celle des poly­tech­ni­ciens con­sid­érés en général comme des per­son­nes ayant plutôt la tête bien faite. 

Ces ent­hou­si­astes oublient sim­ple­ment une chose : les lim­ites physiques de la planète. L’é­panouisse­ment du tran­shu­man­isme est impos­si­ble dans les con­di­tions actuelles, du fait pré­cisé­ment de ces lim­ites physiques : plus assez de pét­role, plus assez de ter­res rares, plus assez de nour­ri­t­ure, plus assez de … tout. Il y a bien sûr une pos­si­bil­ité pour ne pas se heurter à ces lim­ites physiques, c’est de restrein­dre dras­tique­ment le nom­bre d’habi­tants de la planète. 

Les pau­vres ne con­som­ment pas beau­coup, mais ils sont nom­breux, alors en élim­i­nant la qua­si total­ité des per­son­nes qui ne ser­vent pas directe­ment ou indi­recte­ment le pro­jet fou des tran­shu­man­istes (pour fix­er les idées, en ordre de grandeur, pass­er rapi­de­ment de 7,5 mil­liards d’habi­tants à env­i­ron 2 mil­liards, dont 10% de maîtres, 20% d’aux­il­i­aires et 70% d’esclaves), le pro­jet est physique­ment possible. 

Qui est prêt à souscrire un tel pro­jet ? J’e­spère que personne!!!
Alors le tran­shu­man­isme ne réalis­era pas on pro­jet, l’IA (un élé­ment du tran­shu­man­isme) ne se dévelop­pera pas .
Ouf !

Jean-Philippe de Lespinayrépondre
7 mai 2021 à 18 h 59 min

Mal­heureuse­ment, Cédric Sauvi­at ignore tout de la vraie intel­li­gence arti­fi­cielle, française, qui raisonne et écrit les pro­grammes pour les util­isa­teurs grand pub­lic. Celle-là est TRANSPARENTE, donc sans dan­ger, car elle fonc­tionne sur les con­nais­sances, incon­scientes ou non, don­nées par les util­isa­teurs, dia­logue avec eux en français, explique ce qu’elle fait et com­ment elle déduit les don­nées, détecte les con­tra­dic­tions, per­met d’abor­der des thèmes inac­ces­si­bles à l’in­for­ma­tique clas­sique et à la fausse IA (con­ver­sa­tion­nel, sim­u­la­tion logique, détec­tion et val­i­da­tion des con­nais­sances incon­scientes, délé­ga­tion du pou­voir de déci­sion, etc.).

Cette IA c’est le vrai logi­ciel libre ! Celui dont les infor­mati­ciens ne veu­lent pas. C’est pourquoi ils n’en par­lent jamais alors qu’elle est entrée dans les entre­pris­es dès 1986. Voyez sur le web : voyez-vous un chercheur, un gourou de l’in­for­ma­tique, un col­lab­o­ra­teur des GAFA par­ler de cette intel­li­gence arti­fi­cielle raison­nante française opéra­tionnelle que le monde attend ? Même pour la cri­ti­quer ? Non… Le pro­grès a pris un tiers de siè­cle de retard…

Répondre