Jean-Pierre Dupuy (60), professeur de philosophie sociale et politique à l’École polytechnique

Quand les technologies convergeront…

Dossier : BiotechnologiesMagazine N°590 Décembre 2003
Par Jean-Pierre DUPUY (60)

On peut faire remon­ter le pro­jet nan­otech­nologique à une con­férence don­née par le célèbre physi­cien améri­cain Richard Feyn­man sous le titre “There’s Plen­ty of Room at the Bot­tom”. C’é­tait en 1959, au Cal­i­for­nia Insti­tute of Tech­nol­o­gy, et Feyn­man y con­jec­turait qu’il serait bien­tôt pos­si­ble d’en­vis­ager la manip­u­la­tion de la matière au ser­vice des fins humaines à l’échelle de la molécule, en opérant atome par atome. Le pro­jet d’une ingénierie à l’échelle nanométrique3 était ain­si lancé.

Ces deux dernières décen­nies, des décou­vertes sci­en­tifiques et des per­cées tech­nologiques prodigieuses ont vu le jour, qui sem­blent mon­tr­er que ce pro­jet est aujour­d’hui à la portée des sci­en­tifiques et des ingénieurs. Citons, sans souci d’ex­haus­tiv­ité, la mise au point du micro­scope à effet tun­nel4 par deux physi­ciens du cen­tre de recherche d’IBM de Zurich, lequel micro­scope per­met non seule­ment de “voir” à l’échelle atom­ique mais aus­si de déplac­er des atom­es à volon­té (1982–1989) ; la décou­verte, qui devait lui val­oir le prix Nobel en 1996, que le chimiste améri­cain Richard Smal­l­ey5 fit des fullerènes6, struc­tures com­posées d’atomes de car­bone dis­posés en treil­lis sur une sphère de la taille du nanomètre, struc­tures qui à leur tour se com­posent pour don­ner des nan­otubes de car­bone, sortes d’élé­ments d’échafaudage qui per­me­t­tent d’en­vis­ager de con­stru­ire à l’échelle nanométrique des matéri­aux extrême­ment résis­tants, légers et bon marché ; les pre­mières réal­i­sa­tions en com­pu­ta­tion quan­tique, laque­lle pour­rait révo­lu­tion­ner la puis­sance de cal­cul des ordi­na­teurs en jouant, con­traire­ment aux cir­cuits élec­tron­iques actuels, sur le principe quan­tique de super­po­si­tion des états (2002) ; la décou­verte qu’il est pos­si­ble d’en­richir l’al­pha­bet du code géné­tique de nou­velles bases, ce qui per­met à la machiner­ie cel­lu­laire pro­duc­trice d’amino-acides de fab­ri­quer des pro­téines que la Nature à elle seule n’au­rait jamais pu pro­duire (2002) ; etc.

Le prin­ci­pal argu­ment en faveur des nan­otech­nolo­gies, qui explique que, s’il est con­ceptuelle­ment, physique­ment, indus­trielle­ment et économique­ment viable, leur développe­ment paraît inéluctable, est que ces nou­velles tech­niques se présen­tent comme les seules qui puis­sent résoudre, en les con­tour­nant, les dif­fi­cultés immenses qui se trou­vent sur la route des sociétés indus­trielles et postin­dus­trielles. Les prob­lèmes liés à l’épuise­ment prévis­i­ble des ressources naturelles, à com­mencer par les sources d’én­ergie fos­sile, mais aus­si les ressources minières, les prob­lèmes d’en­vi­ron­nement (réchauf­fe­ment cli­ma­tique, pol­lu­tion de l’air et de l’eau, encom­bre­ments de toutes sortes liés à l’ur­ban­i­sa­tion effrénée, etc.), les prob­lèmes liés à la tiers-mon­di­al­i­sa­tion de la planète et à la mis­ère d’une pro­por­tion crois­sante de celle-ci, tous ces prob­lèmes et bien d’autres seront en principe non pas réso­lus par l’avène­ment des nan­otech­nolo­gies, mais ils devien­dront caducs, obsolètes. On fera tout sim­ple­ment les choses autrement, d’une manière rad­i­cale­ment dif­férente. Ce que l’ar­gu­ment omet de dire, c’est que de nou­veaux prob­lèmes émerg­eront, en com­para­i­son desquels les dif­fi­cultés actuelles appa­raîtront rétro­spec­tive­ment comme négligeables.

Une première convergence, prometteuse : les nanotechnologies de l’information et de la communication

Depuis 1959, date de l’in­ven­tion du cir­cuit inté­gré, la fameuse “loi de Moore” s’est trou­vée véri­fiée : tous les dix-huit mois, le nom­bre de tran­sis­tors qui peu­vent être fab­riqués et instal­lés sur une puce a dou­blé. On est ain­si passé en quar­ante ans d’un tran­sis­tor sur une puce prim­i­tive à 100 mil­lions de com­posants act­ifs sur les puces actuelles. On attein­dra cepen­dant dans les dix ans qui vien­nent les lim­ites physiques, économiques et en ter­mes d’ingénierie, de la tech­nolo­gie du sili­ci­um. Or, si on veut bien con­sid­ér­er les sys­tèmes vivants comme des machines com­pu­ta­tion­nelles, on voit que la nature a su créer des struc­tures hiérar­chisées qui intè­grent le cal­cul et la com­mu­ni­ca­tion des infor­ma­tions jusqu’au niveau sub­nanométrique, celui des atom­es. Il est donc lois­i­ble d’ex­trapol­er la loi de Moore.

Cepen­dant, cette nou­velle élec­tron­ique ne pour­ra voir le jour que par une révo­lu­tion dans la con­cep­tion et dans les tech­niques de fab­ri­ca­tion des com­posants, et, en deçà, dans la philoso­phie même de ce que sont le cal­cul et la com­mu­ni­ca­tion. La nou­velle élec­tron­ique sera molécu­laire, c’est-à-dire que ce seront les molécules elles-mêmes qui servi­ront “d’in­ter­rup­teurs” élec­tron­iques. La lith­o­gra­phie sera rem­placée par la maîtrise des mécan­ismes d’au­to-assem­blage molécu­laires. Plus loin encore, on peut espér­er con­trôler les élec­trons à l’u­nité, mais aus­si les pho­tons. Les spins eux-mêmes peu­vent être traités comme des sys­tèmes physiques incor­po­rant une infor­ma­tion binaire, donc aptes à incar­n­er une mémoire et à stock­er et à trans­met­tre de l’in­for­ma­tion. Le nano­mag­nétisme, quant à lui, conçoit des mémoires sta­bles sans besoin d’une ali­men­ta­tion élec­trique, ce qui révo­lu­tion­nera l’élec­tron­ique portable.

Ce ne sont que des exem­ples. Ils ont en com­mun que le con­cept d’in­for­ma­tion y appa­raît comme rad­i­cale­ment trans­for­mé. Aux échelles dont nous par­lons, la physique clas­sique doit faire place à la physique quan­tique. Aus­si bien, l’u­nité élé­men­taire d’in­for­ma­tion, le bit, ne cor­re­spond plus au choix entre deux pos­si­bil­ités dis­jointes et égale­ment prob­a­bles, mais à la super­po­si­tion de deux états de la fonc­tion d’onde. Nous sommes dans un tout autre univers con­ceptuel, et donc technique.

Cer­taines esti­ma­tions envis­agent que les per­for­mances (capac­ités, vitesses, etc.) pour­ront être accrues à terme dans une pro­por­tion de 109 — c’est-à-dire qu’en ter­mes de per­for­mances, notre univers est nanométrique par rap­port à celui qui se pro­file à l’hori­zon. Imag­i­nons seule­ment ce que serait un accès aux ser­vices offerts par le Web 104 plus rapi­de ; la mise en réseau glob­ale des infor­ma­tions rel­a­tives aux per­son­nes et aux choses par des liens à très forte capac­ité et à très faible con­som­ma­tion d’én­ergie via des nœuds espacés d’un mètre et non pas d’un kilo­mètre ; des capac­ités énormes de cal­cul et de traite­ment de l’in­for­ma­tion incar­nées dans des dis­posi­tifs à très faible vol­ume, comme les mon­tures d’une paire de lunettes, etc. Donc un univers car­ac­térisé par l’u­biq­ui­té des tech­niques de l’in­for­ma­tion, tous les objets con­sti­tu­ant notre envi­ron­nement, y com­pris les par­ties de notre corps, échangeant en per­ma­nence des infor­ma­tions les uns avec les autres. Les con­séquences sociales seraient “phénomé­nales”, tous les experts en tombent d’ac­cord. Elles poseraient des prob­lèmes non moins phénomé­naux, liés en par­ti­c­uli­er à la pro­tec­tion des lib­ertés et droits fondamentaux.

Une seconde convergence, problématique : les nanobiotechnologies

La révo­lu­tion dans notre con­cep­tion de la vie qu’a intro­duite la biolo­gie molécu­laire fait de l’or­gan­i­sa­tion vivante le mod­èle par excel­lence d’une “nan­otech­nolo­gie naturelle” qui fonc­tionne admirable­ment bien. Qu’est-ce qu’une cel­lule dans cette vision des choses sinon une nano-usine faite de nanoma­chines molécu­laires capa­bles d’au­toré­pli­ca­tion, voire d’au­to­com­plex­i­fi­ca­tion ? Les pro­priétés d’au­to-assem­blage des virus ou de l’ADN ; le rôle que jouent dans le métab­o­lisme cel­lu­laire des molécules fonc­tion­nant comme des engins macro­scopiques, ayant les fonc­tions qui d’une roue, qui d’un fil, qui d’un inter­rup­teur, le tout fonc­tion­nant au moyen de “moteurs” ali­men­tés par énergie chim­ique, optique ou élec­trique ; les con­nex­ions qui se réalisent spon­tané­ment entre les molécules du sys­tème nerveux pour traiter et trans­met­tre l’in­for­ma­tion : autant d’ex­em­ples qui prou­vent que la nature, avec le vivant, a “su créer” de l’or­gan­i­sa­tion. Puisque la nature n’est pas un sujet, le terme tech­nique que l’on utilise pour décrire ce prodi­ge est celui d’auto-organisation.

Le pro­jet nan­otech­nologique entend rivalis­er avec la nature. Ce que celle-ci a fait, l’homme, qui lui est un sujet, doté d’in­tel­li­gence, doit pou­voir le faire aus­si bien, et peut-être mieux. Il faut rap­pel­er que ce pro­jet démi­urgique a été lancé comme on lance, dans le com­merce, un pro­duit de grande con­som­ma­tion, par Eric Drexler, qui était dans les années qua­tre-vingt étu­di­ant de doc­tor­at au MIT sous la direc­tion de Mar­vin Min­sky, l’un des fon­da­teurs de l’in­tel­li­gence arti­fi­cielle. Drexler pub­lia en 1986 un livre pro­gramme, Engines of Cre­ation7. C’est avec beau­coup de scep­ti­cisme et même d’ironie que la com­mu­nauté sci­en­tifique, et encore plus le monde des affaires et de l’in­dus­trie, accueil­lirent d’abord les utopies vision­naires de Drexler. Les choses devaient chang­er du tout au tout en l’e­space de quelques années.

Désor­mais établi à Palo Alto, en Cal­i­fornie, au sein d’un Fore­sight Insti­tute qui se con­sacre énergique­ment à la pro­mo­tion des nan­otech­nolo­gies, Drexler organ­ise chaque année des con­grès mon­di­aux qui obti­en­nent un suc­cès de plus en plus mar­qué. Or, pour le Fore­sight Insti­tute, les nan­otech­nolo­gies au sens fort ne naîtront vrai­ment que lorsque l’homme sera capa­ble de réalis­er une nanoma­chiner­ie arti­fi­cielle, inspirée ou non de l’au­to-organ­i­sa­tion biologique. Le temps vien­dra, prophé­tise Drexler, où nous pour­rons tout deman­der à des nanop­uces, nanoro­bots, nano-assem­bleurs ou nanoma­chines mus par des nanomo­teurs, que nous aurons conçus.

Beau­coup de sci­en­tifiques tien­nent ouverte­ment le pro­gramme de Drexler pour une utopie, voire une fumis­terie8, alors même qu’ils empochent sans sour­ciller les mannes budgé­taires que l’opéra­tion de mar­ket­ing du Fore­sight Insti­tute a fait pleu­voir sur eux ! J’y reviendrai.

Mais les nan­otech­no­logues sérieux ne recu­lent pas devant l’idée de se servir du vivant et de ses pro­priétés d’au­to-organ­i­sa­tion, d’au­toré­pli­ca­tion et d’au­to­com­plex­i­fi­ca­tion pour le met­tre au ser­vice des fins humaines. Un pre­mier type de démarche con­siste à extraire du vivant les nanoma­chines qu’il a su engen­dr­er avec ses seules ressources et, les asso­ciant à des sup­ports ou à des sys­tèmes arti­fi­ciels, à les faire tra­vailler pour nous. On peut ain­si tir­er prof­it des pro­priétés remar­quables des acides nucléiques et des pro­téines, en con­ce­vant des biop­uces et des bio­cap­teurs capa­bles de détecter la présence de gènes mutants, de micro-organ­ismes ou de frag­ments d’ADN, en jouant sur les affinités spé­ci­fiques de ces molécules avec une sonde fixée sur la puce.

On pour­rait con­fi­er l’assem­blage de nanocir­cuits élec­tron­iques com­plex­es à de l’ADN, tirant par­ti de ses fac­ultés d’au­to-assem­blage. Cette “bioélec­tron­ique” pour­rait débouch­er à terme sur la con­cep­tion d’or­di­na­teurs biologiques. L’ar­raison­nement de la vie aux fins de l’homme peut aller jusqu’à mod­i­fi­er le génome d’in­sectes volants pour en faire des machines utiles à l’in­dus­trie et à la guerre.

Une autre démarche vise à réalis­er des fonc­tions biologiques en asso­ciant les savoir-faire du génie géné­tique et de la nanofab­ri­ca­tion. L’arte­fact vient ici au ser­vice du vivant pour l’aider à mieux fonc­tion­ner. Cette démarche est d’e­sprit plus tra­di­tion­nel — que l’on songe aux pace­mak­ers et pro­thès­es de toutes sortes — mais l’échelle nanométrique crée des défis con­sid­érables. On sait déjà fab­ri­quer des glob­ules rouges arti­fi­ciels beau­coup plus effi­caces que ceux dont la nature nous a dotés dans l’ap­pro­vi­sion­nement de nos tis­sus en oxygène. Les per­spec­tives thérapeu­tiques s’an­non­cent “extra­or­di­naires”, pour repren­dre le terme le plus util­isé par des rap­ports offi­ciels d’or­di­naire plus mesurés dans leurs pro­pos. La guéri­son du can­cer et du Sida est peut-être à l’hori­zon, si l’on arrive à fab­ri­quer des nanovésicules intel­li­gentes qui sauront cibler dans l’or­gan­isme les cel­lules malades et leur porter sélec­tive­ment des coups mortels.

En s’u­nis­sant aux biotech­nolo­gies, les nan­otech­nolo­gies en démul­ti­plient l’am­bi­tion. Les biotech­nolo­gies pren­nent les pro­duits de l’évo­lu­tion biologique pour don­nés et se con­tentent de les utilis­er ou de les repro­duire pour les met­tre au ser­vice des fins humaines. Le pro­jet nan­otech­nologique est beau­coup plus rad­i­cal. Il part du con­stat que l’évo­lu­tion est un piètre ingénieur, qui a fait son tra­vail de con­cep­tion plus ou moins au hasard, se reposant sur ce qui mar­chait à peu près pour échafaud­er de nou­velles con­struc­tions plus ou moins bran­lantes — bref, en bricolant. L’e­sprit humain, relayé par les tech­nolo­gies de l’in­for­ma­tion et de la com­pu­ta­tion qui le dépasseront bien­tôt en capac­ités d’in­tel­li­gence et d’imag­i­na­tion, fera beau­coup mieux.

Une troisième convergence, essentielle : l’esprit des nanotechnologies est dans les sciences cognitives

En arrière-fond de tout “par­a­digme” sci­en­tifique, il y a ce que Karl Pop­per appelait un “pro­gramme méta­physique de recherch­es” — ensem­ble non “testable” de propo­si­tions que l’on tient pour vraies sans chercher à les remet­tre en cause, cadre théorique qui lim­ite le type de ques­tions que l’on pose mais aus­si qui en donne l’in­spi­ra­tion pre­mière. Le par­a­digme “nano” procède de la même méta­physique que les sci­ences cog­ni­tives. Celle-ci peut se dire ain­si : tout dans l’u­nivers, donc la nature, la vie et l’e­sprit, est machine infor­ma­tion­nelle, dite encore algo­rithme9.

Chronologique­ment, et con­traire­ment peut-être à cer­taines idées reçues, c’est d’abord l’e­sprit (mind) qui a été assim­ilé à un algo­rithme (ou machine de Tur­ing : mod­èle de McCul­loch et Pitts, 1943) ; puis ce fut le tour de la vie, avec la nais­sance de la biolo­gie molécu­laire (Max Del­brück et le groupe du Phage, 1949) ; et, seule­ment plus tard, la thèse que les lois de la physique sont récur­sives (ou Tur­ing-com­puta­bles). Une fois admise une telle vision du monde, il n’y a qu’un pas pour en arriv­er à for­mer le pro­jet de se ren­dre maître de ces machines, d’abord en les sim­u­lant et en les repro­duisant (nais­sance de l’in­tel­li­gence, puis de la vie arti­fi­cielles), ensuite en inter­venant sur elles à la manière de l’ingénieur (biotech­nolo­gies, tech­nolo­gies cog­ni­tives, etc.).

Un sec­ond courant des sci­ences cog­ni­tives, issu des réflex­ions de John von Neu­mann, a engen­dré les sci­ences de la com­plex­ité et de l’au­to-organ­i­sa­tion. L’ingénierie qui en résulte est très dif­férente de la con­cep­tion clas­sique. Dans cette dernière, il s’ag­it de con­cevoir et de réalis­er des struc­tures dont le com­porte­ment repro­duira les fonc­tion­nal­ités que l’on juge désir­ables. L’ingénieur de la com­plex­ité, lui, “se donne” des struc­tures com­plex­es (éventuelle­ment en les puisant dans le réser­voir que nous offrent la nature et la vie, par exem­ple un cerveau humain, ou bien en les repro­duisant arti­fi­cielle­ment, par exem­ple sous la forme d’un réseau de neu­rones formels) et explore les fonc­tion­nal­ités dont elles sont capa­bles, en essayant de dégager le rap­port structure/fonction : démarche ascen­dante (bot­tom-up) donc, et non pas descen­dante (top-down).

L’in­dus­trie du soft­ware repose déjà en par­tie sur ce retourne­ment. La recherche sur les algo­rithmes géné­tiques con­siste à simuler les capac­ités évo­lu­tives d’une “soupe” prim­i­tive con­sti­tuée de pro­grammes d’or­di­na­teur, les plus per­for­mants se repro­duisant davan­tage que les autres. On obtient ain­si des algo­rithmes très per­for­mants en effet, puisqu’ils ont été “sélec­tion­nés” selon ce critère, mais on est dans l’in­ca­pac­ité de com­pren­dre pourquoi ils ont ces propriétés.

Le double langage de la science, et pourquoi celle-ci est devenue une des activités humaines les plus dangereuses

Cet arti­cle prend main­tenant un tour plus per­son­nel. Après l’ex­posé des faits vient le temps du juge­ment et de l’engagement.

Les pro­mo­teurs des nanosciences et des nan­otech­nolo­gies sont nom­breux, puis­sants et influ­ents : les sci­en­tifiques et les ingénieurs ent­hou­si­as­més par la per­spec­tive de per­cées fab­uleuses ; les indus­triels attirés par l’e­spoir de marchés gigan­tesques ; les gou­verne­ments des nations et des régions du globe ter­ror­isés à l’idée de per­dre une course indus­trielle, économique et mil­i­taire très rapi­de où vont se jouer les emplois, la crois­sance, mais aus­si les capac­ités de défense de demain ; et, enfin, les représen­tants de ce vaste sujet col­lec­tif et anonyme qu’est la fuite en avant tech­nologique où la tech­nique appa­raît seule capa­ble de con­tenir les effets indésir­ables et non voulus de la technique.

L’ADN, molécule support de l’hérédité
L’ADN est la molécule sup­port de l’hérédité. Sur cette vue trans­ver­sale d’un mod­èle de la molécule, les divers atom­es con­sti­tu­ant la molécule ont été représen­tés en couleur : le car­bone en orange, l’oxygène en bleu, l’azote en rouge, l’hydrogène en blanc et le phos­pho­re en vio­let. © INSERM, PHOTO MARTIN J.-L./LAMBRY J.-C.

On se s’é­tonne donc pas que soient van­tés partout en ter­mes hyper­boliques les bien­faits pour l’hu­man­ité de la révo­lu­tion sci­en­tifique et tech­nique en cours. Le rap­port améri­cain de la Nation­al Sci­ence Foun­da­tion (NSF) par lequel j’ai com­mencé, et dont le titre com­plet est Con­verg­ing Tech­nolo­gies for Improv­ing Human Per­for­mances, bat sans doute tous les records. Il ne promet pas moins à terme que l’u­ni­fi­ca­tion des sci­ences et des tech­niques, le bien-être matériel et spir­ituel uni­versel, la paix mon­di­ale, l’in­ter­ac­tion paci­fique et mutuelle­ment avan­tageuse entre les humains et les machines intel­li­gentes, la dis­pari­tion com­plète des obsta­cles à la com­mu­ni­ca­tion général­isée, en par­ti­c­uli­er ceux qui résul­tent de la diver­sité des langues, l’ac­cès à des sources d’én­ergie inépuis­ables, la fin des soucis liés à la dégra­da­tion de l’environnement.

Prudem­ment, le rap­port con­jec­ture que : “L’hu­man­ité pour­rait bien devenir comme un ‘cerveau’ unique, [dont les élé­ments seraient] dis­tribués et inter­con­nec­tés par des liens nou­veaux par­courant la société.” On reçoit cepen­dant un choc en décou­vrant que l’un des deux respon­s­ables de la pub­li­ca­tion, William Sims Bain­bridge, tech­nocrate influ­ent de la NSF, milite dans la vie civile dans une secte qui prêche le “tran­shu­man­isme”, c’est-à-dire le dépasse­ment de l’im­par­faite espèce humaine par une cyber-humani­té. Celle-ci pour­ra accéder à l’im­mor­tal­ité lorsqu’on saura trans­fér­er le con­tenu infor­ma­tion­nel du cerveau, “donc” l’e­sprit et la per­son­nal­ité de cha­cun, dans des mémoires d’or­di­na­teur. On ne s’a­muse plus du tout lorsqu’on apprend que, prévoy­ant des résis­tances de la part des insti­tu­tions et des élites “tra­di­tion­nelles”, à com­mencer par les reli­gions établies, M. Bain­bridge en appelle qua­si­ment à la rébel­lion armée10.

Quelques chercheurs de base sont assez lucides pour com­pren­dre ceci. À trop van­ter les con­séquences pos­i­tives “fab­uleuses” de la révo­lu­tion en cours, on s’ex­pose à ce que des cri­tiques non moins hyper­trophiées s’ef­for­cent de la tuer dans l’œuf. Si l’on prend au sérieux le pro­gramme de Drexler, alors on ne peut pas ne pas s’ef­fray­er des risques inouïs qui en résul­teraient11. Le suc­cès du dernier roman de Michael Crich­ton, Prey, a ren­du célèbre dans toute l’Amérique le risque de gray goo, dit encore d’é­cophagie glob­ale : le risque d’une autoré­pli­ca­tion sauvage des nanoma­chines chères au Fore­sight Insti­tute, à la suite d’un acci­dent de pro­gram­ma­tion. Tout ou par­tie de la biosphère serait alors détru­it par épuise­ment du car­bone néces­saire à l’au­tore­pro­duc­tion des nano-engins en ques­tion. Ce risque ne peut vrai­ment effray­er que celui qui croit à la pos­si­bil­ité de telles machines. Il suf­fit de nier cette pos­si­bil­ité pour écarter le pseu­do-risque d’un hausse­ment d’épaules.

La direc­trice du pro­jet NanoBio du CEA à Greno­ble, l’un des fleu­rons de la nanobiotech­nolo­gie française, écrit à ses troupes : ” Je ne pense pas qu’un sci­en­tifique nor­mal se recon­naisse dans les visions de Drexler. ” Il faut donc en con­clure que l’actuel directeur du départe­ment ” sci­ences physiques et math­é­ma­tiques ” du CNRS, Michel Lan­noo, émi­nent physi­cien, spé­cial­iste des semi-con­duc­teurs et l’un des prin­ci­paux arti­sans du développe­ment des nanosciences en France, est un sci­en­tifique anor­mal. En intro­duc­tion à un numéro spé­cial du jour­nal du CNRS de l’été 2002, con­sacré au ” nanomonde “, il déclarait en effet : ” L’œu­vre d’Er­ic Drexler m’a beau­coup influ­encé. J’ai acheté 25 exem­plaires d’un de ses livres, Engines of Cre­ation, pour que cha­cun des mem­bres de mon lab­o­ra­toire le lise. ”

La vérité est que la com­mu­nauté sci­en­tifique tient un dou­ble lan­gage, ain­si qu’elle l’a sou­vent fait dans le passé. Lorsqu’il s’ag­it de ven­dre son pro­duit, les per­spec­tives les plus grandios­es sont agitées à la barbe des décideurs. Lorsque les cri­tiques, alertés par tant de bruit, soulèvent la ques­tion des risques, on se rétracte : la sci­ence que nous faisons est modeste.

Le génome con­tient l’essence de l’être vivant mais l’ADN n’est qu’une molécule comme une autre — et elle n’est même pas vivante ! Grâce aux OGM, on va résoudre une fois pour toutes le prob­lème de la faim dans le monde, mais l’homme a pra­tiqué le génie géné­tique depuis le Néolithique. Les nanobiotech­nolo­gies per­me­t­tront de guérir le can­cer et le Sida, mais c’est sim­ple­ment la sci­ence qui con­tin­ue son bon­homme de chemin. Par cette pra­tique du dou­ble lan­gage, la sci­ence ne se mon­tre pas à la hau­teur de ses responsabilités.

La sci­ence ne pense pas, dis­ait Hei­deg­ger. Il ne voulait évidem­ment pas dire que les sci­en­tifiques sont tous des imbé­ciles. La thèse est que, par con­sti­tu­tion, la sci­ence est inca­pable de ce retour réflexif sur elle-même qui est le pro­pre de toute activ­ité humaine respon­s­able. Le débat sur les nan­otech­nolo­gies, déjà intense aux États-Unis, encore au stade embry­on­naire en France, a toutes chances de dégénér­er dans la con­fu­sion. Il va être, il est déjà presque impos­si­ble de réfléchir.

Dans la mesure où il n’est pas trop tard, j’aimerais faire quelques sug­ges­tions. D’abord, ne pas se laiss­er empris­on­ner dans la prob­lé­ma­tique des risques, les analy­ses coûts — avan­tages et autre principe de pré­cau­tion. Non pas que le développe­ment des nan­otech­nolo­gies soit sans dan­ger ! Mais le dan­ger est d’une nature telle qu’il est vain de chercher à l’ap­préhen­der par les méth­odes clas­siques. Mul­ti­pli­er des per­spec­tives de dom­mages par des prob­a­bil­ités sub­jec­tives est une démarche dérisoire lorsqu’il s’ag­it d’ap­préci­er des effets qui peu­vent aller, à en croire les thu­riféraires, jusqu’à un “change­ment de civil­i­sa­tion“12.

La ques­tion essen­tielle est la suiv­ante : com­ment expli­quer que la techno­science soit dev­enue une activ­ité si “risquée” que, selon cer­tains sci­en­tifiques de pre­mier plan, elle con­stitue aujour­d’hui la prin­ci­pale men­ace à la survie de l’hu­man­ité13. Les philosophes répon­dent à cette ques­tion en dis­ant que le rêve de Descartes — se ren­dre maître et pos­sesseur de la nature — a mal tourné. Il serait urgent d’en revenir à la “maîtrise de la maîtrise”. Ils n’ont rien com­pris. Ils ne voient pas que la techno­science qui se pro­file à l’hori­zon, par “con­ver­gence” de toutes les dis­ci­plines, vise pré­cisé­ment à la non-maîtrise. L’ingénieur de demain ne sera pas un appren­ti sor­ci­er par nég­li­gence ou incom­pé­tence, mais par final­ité. Il se “don­nera” des struc­tures ou organ­i­sa­tions com­plex­es et il se posera la ques­tion de savoir ce dont elles sont capa­bles, en explo­rant le paysage de leurs pro­priétés fonc­tion­nelles — démarche “ascen­dante”, comme on l’a vu. Il sera au moins autant un explo­rateur et un expéri­men­ta­teur qu’un réal­isa­teur. Ses suc­cès se mesureront plus à l’aune de créa­tions qui le sur­pren­dront lui-même que par la con­for­mité de ses réal­i­sa­tions à des cahiers des charges préétablis.

Des dis­ci­plines comme la vie arti­fi­cielle, les algo­rithmes géné­tiques, la robo­t­ique, l’in­tel­li­gence arti­fi­cielle dis­tribuée répon­dent déjà à ce sché­ma. Comme, par ailleurs, le savant sera de plus en plus celui qui, non pas décou­vre un réel indépen­dant de l’e­sprit, mais explore les pro­priétés de ses inven­tions (dis­ons le spé­cial­iste d’in­tel­li­gence arti­fi­cielle plutôt que le neu­ro­phys­i­ol­o­giste), les rôles de l’ingénieur et du savant ten­dront à se confondre.

Un regroupe­ment de cen­tres de recherch­es européens s’est don­né pour nom Nan­oTo­Life — abrévi­a­tion de Bring­ing Nan­otech­nol­o­gy to Life. L’am­biva­lence de l’ex­pres­sion est un chef-d’œu­vre de ce dou­ble lan­gage que je dénonçais ci-dessus. Elle peut sig­ni­fi­er, mod­este­ment, dans une atti­tude de retrait, “Faire venir les nan­otech­nolo­gies à l’ex­is­tence”, ou bien encore “Rap­procher les nan­otech­nolo­gies des sci­ences de la vie”. Mais on ne peut pas ne pas y enten­dre le pro­jet démi­urgique de fab­ri­quer de la vie au moyen de la tech­nique. Et celui qui veut fab­ri­quer — en fait, créer — de la vie ne peut pas ne pas ambi­tion­ner de repro­duire sa capac­ité essen­tielle, qui est de créer à son tour du rad­i­cale­ment nouveau.

Le lob­by nan­otech­nologique a actuelle­ment peur. Il a peur que son opéra­tion de rela­tions publiques aboutisse à un ratage encore plus lam­en­ta­ble que celui qu’a con­nu le génie géné­tique. Avec la con­férence d’Asilo­mar en 1975, les choses avaient pour­tant bien com­mencé. La com­mu­nauté sci­en­tifique avait réus­si à se don­ner le mono­pole de la régu­la­tion du domaine. Trente ans plus tard, le désas­tre est accom­pli. La moin­dre réal­i­sa­tion biotech­nologique fait fig­ure de mon­stru­osité aux yeux du grand pub­lic. Con­scients du dan­ger, les nan­otech­no­logues cherchent une issue du côté de la “com­mu­ni­ca­tion” : calmer le jeu, ras­sur­er, assur­er “l’ac­cept­abil­ité”. Ce vocab­u­laire de la pub a quelque chose d’indé­cent dans la bouche des scientifiques.

Que faire ? Il serait naïf de croire que l’on pour­rait envis­ager un mora­toire, ou même, à court terme, un encadrement lég­is­latif ou régle­men­taire, lequel, en tout état de cause, ne pour­rait être que mon­di­al. Les forces et les dynamiques à l’œu­vre n’en feraient qu’une bouchée. Le mieux que l’on puisse espér­er est d’ac­com­pa­g­n­er, à la même vitesse que leur développe­ment et, si pos­si­ble, en l’an­tic­i­pant, la marche en avant des nan­otech­nolo­gies, par des études d’im­pact et un suivi per­ma­nent, non moins inter­dis­ci­plinaires que les nanosciences elles-mêmes. Une sorte de mise en réflex­iv­ité en temps réel du change­ment sci­en­tifique et tech­nique serait une pre­mière dans l’his­toire de l’hu­man­ité. Elle est sans doute ren­due inévitable par l’ac­céléra­tion des phénomènes.

Une chose est cer­taine : la ques­tion de la respon­s­abil­ité de la sci­ence est dev­enue beau­coup trop grave pour qu’on laisse le soin d’en débat­tre aux seuls scientifiques.

____________________________________________
Jean-Pierre DUPUY dirige au sein de l’Ecolele Groupe de Recherche et d’Intervention sur la Sci­ence et l’Éthique [GRISÉ].
2. Le rap­port est acces­si­ble sur la Toile à http://www.wtec.org/ConvergingTechnologies
3. Rap­pelons que “nano” sig­ni­fie 10-9. Un nanomètre est un mil­liardième de mètre, soit encore un mil­lion­ième de mil­limètre. Un brin d’ADN fait quelques nanomètres de long ; un atome de sili­ci­um est à l’échelle de quelques dix­ièmes de nanomètres.
4. Scan­ning Tun­nelling Micro­scope [STM]. “ L’ef­fet tun­nel ” est un effet quan­tique, en ver­tu duquel des élec­trons tra­versent le vide qui sépare d’une sur­face à observ­er la pointe de pla­tine ou de tungstène du micro­scope – ce qui serait incon­cev­able en physique classique.
5. En col­lab­o­ra­tion avec Har­ry Kro­to et Robert Curl qui partagèrent le prix Nobel avec Richard Smalley.
6. Dites encore buck­y­balls, ces deux appel­la­tions se référant au vision­naire Buck­min­ster Fuller et à ses coupoles géodésiques.
7. Livre disponible sur le site du Fore­sight Insti­tute à : < http://www.foresight.org >
8. C’est le cas de Richard Smal­l­ey. À ceux qui affir­ment étour­di­ment que le pro­gramme de Drexler “ vio­l­erait les lois de la physique ”, il est trop facile à ce dernier de répli­quer que, dans ce cas, la vie elle-même vio­l­erait les lois de la physique !
9. Je me per­me­ts de ren­voy­er le lecteur à mon The Mech­a­niza­tion of the Mind. On the Ori­gins of Cog­ni­tive Sci­ence, Prince­ton Uni­ver­si­ty Press, 2000.
10. Le lecteur pour­ra juger par lui-même en con­sul­tant le site http://www.transhumanism.com/articles_more. php?id=P697_0_4_0_C
11. Voir le rap­port du groupe ETC – qui fit naguère pli­er Mon­san­to sur les OGM –, The Big­Down, acces­si­ble sur la Toile à < http://www.etcgroup.org/documents/TheBigDown.pdf >
ETC a déposé un pro­jet de mora­toire sur les nan­otech­nolo­gies à la con­férence de Johan­nes­burg, qui n’a évidem­ment pas été retenu.
12. Cf. mon Pour un cat­a­strophisme éclairé, Seuil, 2002.
13. Cf. la mise en garde, très remar­quée et dis­cutée, de l’un des infor­mati­ciens améri­cains les plus bril­lants, Bill Joy, parue dans la revue très ” branchée “, Wired, sous le titre élo­quent : “Why the future doesn’t need us ” (avril 2000). Le sous-titre pré­cise : ” Our most pow­er­ful 21st cen­tu­ry tech­nolo­gies – robot­ics, genet­ic engi­neer­ing, and nan­otech – are threat­en­ing to make humans an endan­gered species.” Voir aus­si le livre de l’astronome roy­al bri­tan­nique, Sir Mar­tin Rees, Our Final Hour. A Scientist’s Warn­ing : How Ter­ror, Error, and Envi­ron­men­tal Dis­as­ter Threat­en Humankind’s Future in this Cen­tu­ry – on Earth and Beyond, Basic Books, New York, 2003.

Poster un commentaire