Jean-Pierre Dupuy (60), professeur de philosophie sociale et politique à l’École polytechnique

Quand les technologies convergeront…

Dossier : BiotechnologiesMagazine N°590 Décembre 2003
Par Jean-Pierre DUPUY (60)

On peut faire remon­ter le pro­jet nano­tech­no­lo­gique à une confé­rence don­née par le célèbre phy­si­cien amé­ri­cain Richard Feyn­man sous le titre « The­re’s Plen­ty of Room at the Bot­tom ». C’é­tait en 1959, au Cali­for­nia Ins­ti­tute of Tech­no­lo­gy, et Feyn­man y conjec­tu­rait qu’il serait bien­tôt pos­sible d’en­vi­sa­ger la mani­pu­la­tion de la matière au ser­vice des fins humaines à l’é­chelle de la molé­cule, en opé­rant atome par atome. Le pro­jet d’une ingé­nie­rie à l’é­chelle nano­mé­trique3 était ain­si lancé.

Ces deux der­nières décen­nies, des décou­vertes scien­ti­fiques et des per­cées tech­no­lo­giques pro­di­gieuses ont vu le jour, qui semblent mon­trer que ce pro­jet est aujourd’­hui à la por­tée des scien­ti­fiques et des ingé­nieurs. Citons, sans sou­ci d’ex­haus­ti­vi­té, la mise au point du micro­scope à effet tun­nel4 par deux phy­si­ciens du centre de recherche d’IBM de Zurich, lequel micro­scope per­met non seule­ment de « voir » à l’é­chelle ato­mique mais aus­si de dépla­cer des atomes à volon­té (1982−1989) ; la décou­verte, qui devait lui valoir le prix Nobel en 1996, que le chi­miste amé­ri­cain Richard Smal­ley5 fit des ful­le­rènes6, struc­tures com­po­sées d’a­tomes de car­bone dis­po­sés en treillis sur une sphère de la taille du nano­mètre, struc­tures qui à leur tour se com­posent pour don­ner des nano­tubes de car­bone, sortes d’élé­ments d’é­cha­fau­dage qui per­mettent d’en­vi­sa­ger de construire à l’é­chelle nano­mé­trique des maté­riaux extrê­me­ment résis­tants, légers et bon mar­ché ; les pre­mières réa­li­sa­tions en com­pu­ta­tion quan­tique, laquelle pour­rait révo­lu­tion­ner la puis­sance de cal­cul des ordi­na­teurs en jouant, contrai­re­ment aux cir­cuits élec­tro­niques actuels, sur le prin­cipe quan­tique de super­po­si­tion des états (2002) ; la décou­verte qu’il est pos­sible d’en­ri­chir l’al­pha­bet du code géné­tique de nou­velles bases, ce qui per­met à la machi­ne­rie cel­lu­laire pro­duc­trice d’a­mi­no-acides de fabri­quer des pro­téines que la Nature à elle seule n’au­rait jamais pu pro­duire (2002) ; etc.

Le prin­ci­pal argu­ment en faveur des nano­tech­no­lo­gies, qui explique que, s’il est concep­tuel­le­ment, phy­si­que­ment, indus­triel­le­ment et éco­no­mi­que­ment viable, leur déve­lop­pe­ment paraît iné­luc­table, est que ces nou­velles tech­niques se pré­sentent comme les seules qui puissent résoudre, en les contour­nant, les dif­fi­cul­tés immenses qui se trouvent sur la route des socié­tés indus­trielles et post­in­dus­trielles. Les pro­blèmes liés à l’é­pui­se­ment pré­vi­sible des res­sources natu­relles, à com­men­cer par les sources d’éner­gie fos­sile, mais aus­si les res­sources minières, les pro­blèmes d’en­vi­ron­ne­ment (réchauf­fe­ment cli­ma­tique, pol­lu­tion de l’air et de l’eau, encom­bre­ments de toutes sortes liés à l’ur­ba­ni­sa­tion effré­née, etc.), les pro­blèmes liés à la tiers-mon­dia­li­sa­tion de la pla­nète et à la misère d’une pro­por­tion crois­sante de celle-ci, tous ces pro­blèmes et bien d’autres seront en prin­cipe non pas réso­lus par l’a­vè­ne­ment des nano­tech­no­lo­gies, mais ils devien­dront caducs, obso­lètes. On fera tout sim­ple­ment les choses autre­ment, d’une manière radi­ca­le­ment dif­fé­rente. Ce que l’ar­gu­ment omet de dire, c’est que de nou­veaux pro­blèmes émer­ge­ront, en com­pa­rai­son des­quels les dif­fi­cul­tés actuelles appa­raî­tront rétros­pec­ti­ve­ment comme négligeables.

Une première convergence, prometteuse : les nanotechnologies de l’information et de la communication

Depuis 1959, date de l’in­ven­tion du cir­cuit inté­gré, la fameuse « loi de Moore » s’est trou­vée véri­fiée : tous les dix-huit mois, le nombre de tran­sis­tors qui peuvent être fabri­qués et ins­tal­lés sur une puce a dou­blé. On est ain­si pas­sé en qua­rante ans d’un tran­sis­tor sur une puce pri­mi­tive à 100 mil­lions de com­po­sants actifs sur les puces actuelles. On attein­dra cepen­dant dans les dix ans qui viennent les limites phy­siques, éco­no­miques et en termes d’in­gé­nie­rie, de la tech­no­lo­gie du sili­cium. Or, si on veut bien consi­dé­rer les sys­tèmes vivants comme des machines com­pu­ta­tion­nelles, on voit que la nature a su créer des struc­tures hié­rar­chi­sées qui intègrent le cal­cul et la com­mu­ni­ca­tion des infor­ma­tions jus­qu’au niveau sub­na­no­mé­trique, celui des atomes. Il est donc loi­sible d’ex­tra­po­ler la loi de Moore.

Cepen­dant, cette nou­velle élec­tro­nique ne pour­ra voir le jour que par une révo­lu­tion dans la concep­tion et dans les tech­niques de fabri­ca­tion des com­po­sants, et, en deçà, dans la phi­lo­so­phie même de ce que sont le cal­cul et la com­mu­ni­ca­tion. La nou­velle élec­tro­nique sera molé­cu­laire, c’est-à-dire que ce seront les molé­cules elles-mêmes qui ser­vi­ront « d’in­ter­rup­teurs » élec­tro­niques. La litho­gra­phie sera rem­pla­cée par la maî­trise des méca­nismes d’au­to-assem­blage molé­cu­laires. Plus loin encore, on peut espé­rer contrô­ler les élec­trons à l’u­ni­té, mais aus­si les pho­tons. Les spins eux-mêmes peuvent être trai­tés comme des sys­tèmes phy­siques incor­po­rant une infor­ma­tion binaire, donc aptes à incar­ner une mémoire et à sto­cker et à trans­mettre de l’in­for­ma­tion. Le nano­ma­gné­tisme, quant à lui, conçoit des mémoires stables sans besoin d’une ali­men­ta­tion élec­trique, ce qui révo­lu­tion­ne­ra l’élec­tro­nique portable.

Ce ne sont que des exemples. Ils ont en com­mun que le concept d’in­for­ma­tion y appa­raît comme radi­ca­le­ment trans­for­mé. Aux échelles dont nous par­lons, la phy­sique clas­sique doit faire place à la phy­sique quan­tique. Aus­si bien, l’u­ni­té élé­men­taire d’in­for­ma­tion, le bit, ne cor­res­pond plus au choix entre deux pos­si­bi­li­tés dis­jointes et éga­le­ment pro­bables, mais à la super­po­si­tion de deux états de la fonc­tion d’onde. Nous sommes dans un tout autre uni­vers concep­tuel, et donc technique.

Cer­taines esti­ma­tions envi­sagent que les per­for­mances (capa­ci­tés, vitesses, etc.) pour­ront être accrues à terme dans une pro­por­tion de 109 – c’est-à-dire qu’en termes de per­for­mances, notre uni­vers est nano­mé­trique par rap­port à celui qui se pro­file à l’ho­ri­zon. Ima­gi­nons seule­ment ce que serait un accès aux ser­vices offerts par le Web 104 plus rapide ; la mise en réseau glo­bale des infor­ma­tions rela­tives aux per­sonnes et aux choses par des liens à très forte capa­ci­té et à très faible consom­ma­tion d’éner­gie via des nœuds espa­cés d’un mètre et non pas d’un kilo­mètre ; des capa­ci­tés énormes de cal­cul et de trai­te­ment de l’in­for­ma­tion incar­nées dans des dis­po­si­tifs à très faible volume, comme les mon­tures d’une paire de lunettes, etc. Donc un uni­vers carac­té­ri­sé par l’u­bi­qui­té des tech­niques de l’in­for­ma­tion, tous les objets consti­tuant notre envi­ron­ne­ment, y com­pris les par­ties de notre corps, échan­geant en per­ma­nence des infor­ma­tions les uns avec les autres. Les consé­quences sociales seraient « phé­no­mé­nales », tous les experts en tombent d’ac­cord. Elles pose­raient des pro­blèmes non moins phé­no­mé­naux, liés en par­ti­cu­lier à la pro­tec­tion des liber­tés et droits fondamentaux.

Une seconde convergence, problématique : les nanobiotechnologies

La révo­lu­tion dans notre concep­tion de la vie qu’a intro­duite la bio­lo­gie molé­cu­laire fait de l’or­ga­ni­sa­tion vivante le modèle par excel­lence d’une « nano­tech­no­lo­gie natu­relle » qui fonc­tionne admi­ra­ble­ment bien. Qu’est-ce qu’une cel­lule dans cette vision des choses sinon une nano-usine faite de nano­ma­chines molé­cu­laires capables d’au­to­ré­pli­ca­tion, voire d’au­to­com­plexi­fi­ca­tion ? Les pro­prié­tés d’au­to-assem­blage des virus ou de l’ADN ; le rôle que jouent dans le méta­bo­lisme cel­lu­laire des molé­cules fonc­tion­nant comme des engins macro­sco­piques, ayant les fonc­tions qui d’une roue, qui d’un fil, qui d’un inter­rup­teur, le tout fonc­tion­nant au moyen de « moteurs » ali­men­tés par éner­gie chi­mique, optique ou élec­trique ; les connexions qui se réa­lisent spon­ta­né­ment entre les molé­cules du sys­tème ner­veux pour trai­ter et trans­mettre l’in­for­ma­tion : autant d’exemples qui prouvent que la nature, avec le vivant, a « su créer » de l’or­ga­ni­sa­tion. Puisque la nature n’est pas un sujet, le terme tech­nique que l’on uti­lise pour décrire ce pro­dige est celui d’auto-organisation.

Le pro­jet nano­tech­no­lo­gique entend riva­li­ser avec la nature. Ce que celle-ci a fait, l’homme, qui lui est un sujet, doté d’in­tel­li­gence, doit pou­voir le faire aus­si bien, et peut-être mieux. Il faut rap­pe­ler que ce pro­jet démiur­gique a été lan­cé comme on lance, dans le com­merce, un pro­duit de grande consom­ma­tion, par Eric Drex­ler, qui était dans les années quatre-vingt étu­diant de doc­to­rat au MIT sous la direc­tion de Mar­vin Mins­ky, l’un des fon­da­teurs de l’in­tel­li­gence arti­fi­cielle. Drex­ler publia en 1986 un livre pro­gramme, Engines of Crea­tion7. C’est avec beau­coup de scep­ti­cisme et même d’i­ro­nie que la com­mu­nau­té scien­ti­fique, et encore plus le monde des affaires et de l’in­dus­trie, accueillirent d’a­bord les uto­pies vision­naires de Drex­ler. Les choses devaient chan­ger du tout au tout en l’es­pace de quelques années.

Désor­mais éta­bli à Palo Alto, en Cali­for­nie, au sein d’un Fore­sight Ins­ti­tute qui se consacre éner­gi­que­ment à la pro­mo­tion des nano­tech­no­lo­gies, Drex­ler orga­nise chaque année des congrès mon­diaux qui obtiennent un suc­cès de plus en plus mar­qué. Or, pour le Fore­sight Ins­ti­tute, les nano­tech­no­lo­gies au sens fort ne naî­tront vrai­ment que lorsque l’homme sera capable de réa­li­ser une nano­ma­chi­ne­rie arti­fi­cielle, ins­pi­rée ou non de l’au­to-orga­ni­sa­tion bio­lo­gique. Le temps vien­dra, pro­phé­tise Drex­ler, où nous pour­rons tout deman­der à des nano­puces, nano­ro­bots, nano-assem­bleurs ou nano­ma­chines mus par des nano­mo­teurs, que nous aurons conçus.

Beau­coup de scien­ti­fiques tiennent ouver­te­ment le pro­gramme de Drex­ler pour une uto­pie, voire une fumis­te­rie8, alors même qu’ils empochent sans sour­ciller les mannes bud­gé­taires que l’o­pé­ra­tion de mar­ke­ting du Fore­sight Ins­ti­tute a fait pleu­voir sur eux ! J’y reviendrai.

Mais les nano­tech­no­logues sérieux ne reculent pas devant l’i­dée de se ser­vir du vivant et de ses pro­prié­tés d’au­to-orga­ni­sa­tion, d’au­to­ré­pli­ca­tion et d’au­to­com­plexi­fi­ca­tion pour le mettre au ser­vice des fins humaines. Un pre­mier type de démarche consiste à extraire du vivant les nano­ma­chines qu’il a su engen­drer avec ses seules res­sources et, les asso­ciant à des sup­ports ou à des sys­tèmes arti­fi­ciels, à les faire tra­vailler pour nous. On peut ain­si tirer pro­fit des pro­prié­tés remar­quables des acides nucléiques et des pro­téines, en conce­vant des bio­puces et des bio­cap­teurs capables de détec­ter la pré­sence de gènes mutants, de micro-orga­nismes ou de frag­ments d’ADN, en jouant sur les affi­ni­tés spé­ci­fiques de ces molé­cules avec une sonde fixée sur la puce.

On pour­rait confier l’as­sem­blage de nano­cir­cuits élec­tro­niques com­plexes à de l’ADN, tirant par­ti de ses facul­tés d’au­to-assem­blage. Cette « bio­élec­tro­nique » pour­rait débou­cher à terme sur la concep­tion d’or­di­na­teurs bio­lo­giques. L’ar­rai­son­ne­ment de la vie aux fins de l’homme peut aller jus­qu’à modi­fier le génome d’in­sectes volants pour en faire des machines utiles à l’in­dus­trie et à la guerre.

Une autre démarche vise à réa­li­ser des fonc­tions bio­lo­giques en asso­ciant les savoir-faire du génie géné­tique et de la nano­fa­bri­ca­tion. L’ar­te­fact vient ici au ser­vice du vivant pour l’ai­der à mieux fonc­tion­ner. Cette démarche est d’es­prit plus tra­di­tion­nel – que l’on songe aux pace­ma­kers et pro­thèses de toutes sortes – mais l’é­chelle nano­mé­trique crée des défis consi­dé­rables. On sait déjà fabri­quer des glo­bules rouges arti­fi­ciels beau­coup plus effi­caces que ceux dont la nature nous a dotés dans l’ap­pro­vi­sion­ne­ment de nos tis­sus en oxy­gène. Les pers­pec­tives thé­ra­peu­tiques s’an­noncent « extra­or­di­naires », pour reprendre le terme le plus uti­li­sé par des rap­ports offi­ciels d’or­di­naire plus mesu­rés dans leurs pro­pos. La gué­ri­son du can­cer et du Sida est peut-être à l’ho­ri­zon, si l’on arrive à fabri­quer des nano­vé­si­cules intel­li­gentes qui sau­ront cibler dans l’or­ga­nisme les cel­lules malades et leur por­ter sélec­ti­ve­ment des coups mortels.

En s’u­nis­sant aux bio­tech­no­lo­gies, les nano­tech­no­lo­gies en démul­ti­plient l’am­bi­tion. Les bio­tech­no­lo­gies prennent les pro­duits de l’é­vo­lu­tion bio­lo­gique pour don­nés et se contentent de les uti­li­ser ou de les repro­duire pour les mettre au ser­vice des fins humaines. Le pro­jet nano­tech­no­lo­gique est beau­coup plus radi­cal. Il part du constat que l’é­vo­lu­tion est un piètre ingé­nieur, qui a fait son tra­vail de concep­tion plus ou moins au hasard, se repo­sant sur ce qui mar­chait à peu près pour écha­fau­der de nou­velles construc­tions plus ou moins bran­lantes – bref, en bri­co­lant. L’es­prit humain, relayé par les tech­no­lo­gies de l’in­for­ma­tion et de la com­pu­ta­tion qui le dépas­se­ront bien­tôt en capa­ci­tés d’in­tel­li­gence et d’i­ma­gi­na­tion, fera beau­coup mieux.

Une troisième convergence, essentielle : l’esprit des nanotechnologies est dans les sciences cognitives

En arrière-fond de tout « para­digme » scien­ti­fique, il y a ce que Karl Pop­per appe­lait un « pro­gramme méta­phy­sique de recherches » – ensemble non « tes­table » de pro­po­si­tions que l’on tient pour vraies sans cher­cher à les remettre en cause, cadre théo­rique qui limite le type de ques­tions que l’on pose mais aus­si qui en donne l’ins­pi­ra­tion pre­mière. Le para­digme « nano » pro­cède de la même méta­phy­sique que les sciences cog­ni­tives. Celle-ci peut se dire ain­si : tout dans l’u­ni­vers, donc la nature, la vie et l’es­prit, est machine infor­ma­tion­nelle, dite encore algo­rithme9.

Chro­no­lo­gi­que­ment, et contrai­re­ment peut-être à cer­taines idées reçues, c’est d’a­bord l’es­prit (mind) qui a été assi­mi­lé à un algo­rithme (ou machine de Turing : modèle de McCul­loch et Pitts, 1943) ; puis ce fut le tour de la vie, avec la nais­sance de la bio­lo­gie molé­cu­laire (Max Del­brück et le groupe du Phage, 1949) ; et, seule­ment plus tard, la thèse que les lois de la phy­sique sont récur­sives (ou Turing-com­pu­tables). Une fois admise une telle vision du monde, il n’y a qu’un pas pour en arri­ver à for­mer le pro­jet de se rendre maître de ces machines, d’a­bord en les simu­lant et en les repro­dui­sant (nais­sance de l’in­tel­li­gence, puis de la vie arti­fi­cielles), ensuite en inter­ve­nant sur elles à la manière de l’in­gé­nieur (bio­tech­no­lo­gies, tech­no­lo­gies cog­ni­tives, etc.).

Un second cou­rant des sciences cog­ni­tives, issu des réflexions de John von Neu­mann, a engen­dré les sciences de la com­plexi­té et de l’au­to-orga­ni­sa­tion. L’in­gé­nie­rie qui en résulte est très dif­fé­rente de la concep­tion clas­sique. Dans cette der­nière, il s’a­git de conce­voir et de réa­li­ser des struc­tures dont le com­por­te­ment repro­dui­ra les fonc­tion­na­li­tés que l’on juge dési­rables. L’in­gé­nieur de la com­plexi­té, lui, « se donne » des struc­tures com­plexes (éven­tuel­le­ment en les pui­sant dans le réser­voir que nous offrent la nature et la vie, par exemple un cer­veau humain, ou bien en les repro­dui­sant arti­fi­ciel­le­ment, par exemple sous la forme d’un réseau de neu­rones for­mels) et explore les fonc­tion­na­li­tés dont elles sont capables, en essayant de déga­ger le rap­port structure/fonction : démarche ascen­dante (bot­tom-up) donc, et non pas des­cen­dante (top-down).

L’in­dus­trie du soft­ware repose déjà en par­tie sur ce retour­ne­ment. La recherche sur les algo­rithmes géné­tiques consiste à simu­ler les capa­ci­tés évo­lu­tives d’une « soupe » pri­mi­tive consti­tuée de pro­grammes d’or­di­na­teur, les plus per­for­mants se repro­dui­sant davan­tage que les autres. On obtient ain­si des algo­rithmes très per­for­mants en effet, puis­qu’ils ont été « sélec­tion­nés » selon ce cri­tère, mais on est dans l’in­ca­pa­ci­té de com­prendre pour­quoi ils ont ces propriétés.

Le double langage de la science, et pourquoi celle-ci est devenue une des activités humaines les plus dangereuses

Cet article prend main­te­nant un tour plus per­son­nel. Après l’ex­po­sé des faits vient le temps du juge­ment et de l’engagement.

Les pro­mo­teurs des nanos­ciences et des nano­tech­no­lo­gies sont nom­breux, puis­sants et influents : les scien­ti­fiques et les ingé­nieurs enthou­sias­més par la pers­pec­tive de per­cées fabu­leuses ; les indus­triels atti­rés par l’es­poir de mar­chés gigan­tesques ; les gou­ver­ne­ments des nations et des régions du globe ter­ro­ri­sés à l’i­dée de perdre une course indus­trielle, éco­no­mique et mili­taire très rapide où vont se jouer les emplois, la crois­sance, mais aus­si les capa­ci­tés de défense de demain ; et, enfin, les repré­sen­tants de ce vaste sujet col­lec­tif et ano­nyme qu’est la fuite en avant tech­no­lo­gique où la tech­nique appa­raît seule capable de conte­nir les effets indé­si­rables et non vou­lus de la technique.

L’ADN, molécule support de l’hérédité
L’ADN est la molé­cule sup­port de l’hérédité. Sur cette vue trans­ver­sale d’un modèle de la molé­cule, les divers atomes consti­tuant la molé­cule ont été repré­sen­tés en cou­leur : le car­bone en orange, l’oxygène en bleu, l’azote en rouge, l’hydrogène en blanc et le phos­phore en vio­let. © INSERM, PHOTO MARTIN J.-L./LAMBRY J.-C.

On se s’é­tonne donc pas que soient van­tés par­tout en termes hyper­bo­liques les bien­faits pour l’hu­ma­ni­té de la révo­lu­tion scien­ti­fique et tech­nique en cours. Le rap­port amé­ri­cain de la Natio­nal Science Foun­da­tion (NSF) par lequel j’ai com­men­cé, et dont le titre com­plet est Conver­ging Tech­no­lo­gies for Impro­ving Human Per­for­mances, bat sans doute tous les records. Il ne pro­met pas moins à terme que l’u­ni­fi­ca­tion des sciences et des tech­niques, le bien-être maté­riel et spi­ri­tuel uni­ver­sel, la paix mon­diale, l’in­te­rac­tion paci­fique et mutuel­le­ment avan­ta­geuse entre les humains et les machines intel­li­gentes, la dis­pa­ri­tion com­plète des obs­tacles à la com­mu­ni­ca­tion géné­ra­li­sée, en par­ti­cu­lier ceux qui résultent de la diver­si­té des langues, l’ac­cès à des sources d’éner­gie inépui­sables, la fin des sou­cis liés à la dégra­da­tion de l’environnement.

Pru­dem­ment, le rap­port conjec­ture que : « L’hu­ma­ni­té pour­rait bien deve­nir comme un “cer­veau” unique, [dont les élé­ments seraient] dis­tri­bués et inter­con­nec­tés par des liens nou­veaux par­cou­rant la socié­té. » On reçoit cepen­dant un choc en décou­vrant que l’un des deux res­pon­sables de la publi­ca­tion, William Sims Bain­bridge, tech­no­crate influent de la NSF, milite dans la vie civile dans une secte qui prêche le « trans­hu­ma­nisme », c’est-à-dire le dépas­se­ment de l’im­par­faite espèce humaine par une cyber-humani­té. Celle-ci pour­ra accé­der à l’im­mor­ta­li­té lors­qu’on sau­ra trans­fé­rer le conte­nu infor­ma­tion­nel du cer­veau, « donc » l’es­prit et la per­son­na­li­té de cha­cun, dans des mémoires d’or­di­na­teur. On ne s’a­muse plus du tout lors­qu’on apprend que, pré­voyant des résis­tances de la part des ins­ti­tu­tions et des élites « tra­di­tion­nelles », à com­men­cer par les reli­gions éta­blies, M. Bain­bridge en appelle qua­si­ment à la rébel­lion armée10.

Quelques cher­cheurs de base sont assez lucides pour com­prendre ceci. À trop van­ter les consé­quences posi­tives « fabu­leuses » de la révo­lu­tion en cours, on s’ex­pose à ce que des cri­tiques non moins hyper­tro­phiées s’ef­forcent de la tuer dans l’œuf. Si l’on prend au sérieux le pro­gramme de Drex­ler, alors on ne peut pas ne pas s’ef­frayer des risques inouïs qui en résul­te­raient11. Le suc­cès du der­nier roman de Michael Crich­ton, Prey, a ren­du célèbre dans toute l’A­mé­rique le risque de gray goo, dit encore d’é­co­pha­gie glo­bale : le risque d’une auto­ré­pli­ca­tion sau­vage des nano­ma­chines chères au Fore­sight Ins­ti­tute, à la suite d’un acci­dent de pro­gram­ma­tion. Tout ou par­tie de la bio­sphère serait alors détruit par épui­se­ment du car­bone néces­saire à l’au­to­re­pro­duc­tion des nano-engins en ques­tion. Ce risque ne peut vrai­ment effrayer que celui qui croit à la pos­si­bi­li­té de telles machines. Il suf­fit de nier cette pos­si­bi­li­té pour écar­ter le pseu­do-risque d’un haus­se­ment d’épaules.

La direc­trice du pro­jet Nano­Bio du CEA à Gre­noble, l’un des fleu­rons de la nano­bio­tech­no­lo­gie fran­çaise, écrit à ses troupes : » Je ne pense pas qu’un scien­ti­fique nor­mal se recon­naisse dans les visions de Drex­ler. » Il faut donc en conclure que l’ac­tuel direc­teur du dépar­te­ment » sciences phy­siques et mathé­ma­tiques » du CNRS, Michel Lan­noo, émi­nent phy­si­cien, spé­cia­liste des semi-conduc­teurs et l’un des prin­ci­paux arti­sans du déve­lop­pe­ment des nanos­ciences en France, est un scien­ti­fique anor­mal. En intro­duc­tion à un numé­ro spé­cial du jour­nal du CNRS de l’é­té 2002, consa­cré au » nano­monde « , il décla­rait en effet : » L’œuvre d’E­ric Drex­ler m’a beau­coup influen­cé. J’ai ache­té 25 exem­plaires d’un de ses livres, Engines of Crea­tion, pour que cha­cun des membres de mon labo­ra­toire le lise. »

La véri­té est que la com­mu­nau­té scien­ti­fique tient un double lan­gage, ain­si qu’elle l’a sou­vent fait dans le pas­sé. Lors­qu’il s’a­git de vendre son pro­duit, les pers­pec­tives les plus gran­dioses sont agi­tées à la barbe des déci­deurs. Lorsque les cri­tiques, aler­tés par tant de bruit, sou­lèvent la ques­tion des risques, on se rétracte : la science que nous fai­sons est modeste.

Le génome contient l’es­sence de l’être vivant mais l’ADN n’est qu’une molé­cule comme une autre – et elle n’est même pas vivante ! Grâce aux OGM, on va résoudre une fois pour toutes le pro­blème de la faim dans le monde, mais l’homme a pra­ti­qué le génie géné­tique depuis le Néo­li­thique. Les nano­bio­tech­no­lo­gies per­met­tront de gué­rir le can­cer et le Sida, mais c’est sim­ple­ment la science qui conti­nue son bon­homme de che­min. Par cette pra­tique du double lan­gage, la science ne se montre pas à la hau­teur de ses responsabilités.

La science ne pense pas, disait Hei­deg­ger. Il ne vou­lait évi­dem­ment pas dire que les scien­ti­fiques sont tous des imbé­ciles. La thèse est que, par consti­tu­tion, la science est inca­pable de ce retour réflexif sur elle-même qui est le propre de toute acti­vi­té humaine res­pon­sable. Le débat sur les nano­tech­no­lo­gies, déjà intense aux États-Unis, encore au stade embryon­naire en France, a toutes chances de dégé­né­rer dans la confu­sion. Il va être, il est déjà presque impos­sible de réfléchir.

Dans la mesure où il n’est pas trop tard, j’ai­me­rais faire quelques sug­ges­tions. D’a­bord, ne pas se lais­ser empri­son­ner dans la pro­blé­ma­tique des risques, les ana­lyses coûts – avan­tages et autre prin­cipe de pré­cau­tion. Non pas que le déve­lop­pe­ment des nano­tech­no­lo­gies soit sans dan­ger ! Mais le dan­ger est d’une nature telle qu’il est vain de cher­cher à l’ap­pré­hen­der par les méthodes clas­siques. Mul­ti­plier des pers­pec­tives de dom­mages par des pro­ba­bi­li­tés sub­jec­tives est une démarche déri­soire lors­qu’il s’a­git d’ap­pré­cier des effets qui peuvent aller, à en croire les thu­ri­fé­raires, jus­qu’à un « chan­ge­ment de civi­li­sa­tion« 12.

La ques­tion essen­tielle est la sui­vante : com­ment expli­quer que la tech­nos­cience soit deve­nue une acti­vi­té si « ris­quée » que, selon cer­tains scien­ti­fiques de pre­mier plan, elle consti­tue aujourd’­hui la prin­ci­pale menace à la sur­vie de l’hu­ma­ni­té13. Les phi­lo­sophes répondent à cette ques­tion en disant que le rêve de Des­cartes – se rendre maître et pos­ses­seur de la nature – a mal tour­né. Il serait urgent d’en reve­nir à la « maî­trise de la maî­trise ». Ils n’ont rien com­pris. Ils ne voient pas que la tech­nos­cience qui se pro­file à l’ho­ri­zon, par « conver­gence » de toutes les dis­ci­plines, vise pré­ci­sé­ment à la non-maî­trise. L’in­gé­nieur de demain ne sera pas un appren­ti sor­cier par négli­gence ou incom­pé­tence, mais par fina­li­té. Il se « don­ne­ra » des struc­tures ou orga­ni­sa­tions com­plexes et il se pose­ra la ques­tion de savoir ce dont elles sont capables, en explo­rant le pay­sage de leurs pro­prié­tés fonc­tion­nelles – démarche « ascen­dante », comme on l’a vu. Il sera au moins autant un explo­ra­teur et un expé­ri­men­ta­teur qu’un réa­li­sa­teur. Ses suc­cès se mesu­re­ront plus à l’aune de créa­tions qui le sur­pren­dront lui-même que par la confor­mi­té de ses réa­li­sa­tions à des cahiers des charges préétablis.

Des dis­ci­plines comme la vie arti­fi­cielle, les algo­rithmes géné­tiques, la robo­tique, l’in­tel­li­gence arti­fi­cielle dis­tri­buée répondent déjà à ce sché­ma. Comme, par ailleurs, le savant sera de plus en plus celui qui, non pas découvre un réel indé­pen­dant de l’es­prit, mais explore les pro­prié­tés de ses inven­tions (disons le spé­cia­liste d’in­tel­li­gence arti­fi­cielle plu­tôt que le neu­ro­phy­sio­lo­giste), les rôles de l’in­gé­nieur et du savant ten­dront à se confondre.

Un regrou­pe­ment de centres de recherches euro­péens s’est don­né pour nom Nano­To­Life – abré­via­tion de Brin­ging Nano­tech­no­lo­gy to Life. L’am­bi­va­lence de l’ex­pres­sion est un chef-d’œuvre de ce double lan­gage que je dénon­çais ci-des­sus. Elle peut signi­fier, modes­te­ment, dans une atti­tude de retrait, « Faire venir les nano­tech­no­lo­gies à l’exis­tence », ou bien encore « Rap­pro­cher les nano­tech­no­lo­gies des sciences de la vie ». Mais on ne peut pas ne pas y entendre le pro­jet démiur­gique de fabri­quer de la vie au moyen de la tech­nique. Et celui qui veut fabri­quer – en fait, créer – de la vie ne peut pas ne pas ambi­tion­ner de repro­duire sa capa­ci­té essen­tielle, qui est de créer à son tour du radi­ca­le­ment nouveau.

Le lob­by nano­tech­no­lo­gique a actuel­le­ment peur. Il a peur que son opé­ra­tion de rela­tions publiques abou­tisse à un ratage encore plus lamen­table que celui qu’a connu le génie géné­tique. Avec la confé­rence d’A­si­lo­mar en 1975, les choses avaient pour­tant bien com­men­cé. La com­mu­nau­té scien­ti­fique avait réus­si à se don­ner le mono­pole de la régu­la­tion du domaine. Trente ans plus tard, le désastre est accom­pli. La moindre réa­li­sa­tion bio­tech­no­lo­gique fait figure de mons­truo­si­té aux yeux du grand public. Conscients du dan­ger, les nano­tech­no­logues cherchent une issue du côté de la « com­mu­ni­ca­tion » : cal­mer le jeu, ras­su­rer, assu­rer « l’ac­cep­ta­bi­li­té ». Ce voca­bu­laire de la pub a quelque chose d’in­dé­cent dans la bouche des scientifiques.

Que faire ? Il serait naïf de croire que l’on pour­rait envi­sa­ger un mora­toire, ou même, à court terme, un enca­dre­ment légis­la­tif ou régle­men­taire, lequel, en tout état de cause, ne pour­rait être que mon­dial. Les forces et les dyna­miques à l’œuvre n’en feraient qu’une bou­chée. Le mieux que l’on puisse espé­rer est d’ac­com­pa­gner, à la même vitesse que leur déve­lop­pe­ment et, si pos­sible, en l’an­ti­ci­pant, la marche en avant des nano­tech­no­lo­gies, par des études d’im­pact et un sui­vi per­ma­nent, non moins inter­dis­ci­pli­naires que les nanos­ciences elles-mêmes. Une sorte de mise en réflexi­vi­té en temps réel du chan­ge­ment scien­ti­fique et tech­nique serait une pre­mière dans l’his­toire de l’hu­ma­ni­té. Elle est sans doute ren­due inévi­table par l’ac­cé­lé­ra­tion des phénomènes.

Une chose est cer­taine : la ques­tion de la res­pon­sa­bi­li­té de la science est deve­nue beau­coup trop grave pour qu’on laisse le soin d’en débattre aux seuls scientifiques.

____________________________________________
Jean-Pierre DUPUY dirige au sein de l’E­co­lele Groupe de Recherche et d’Intervention sur la Science et l’Éthique [GRISÉ].
2. Le rap­port est acces­sible sur la Toile à http://www.wtec.org/ConvergingTechnologies
3. Rap­pe­lons que « nano » signi­fie 10-9. Un nano­mètre est un mil­liar­dième de mètre, soit encore un mil­lio­nième de mil­li­mètre. Un brin d’ADN fait quelques nano­mètres de long ; un atome de sili­cium est à l’échelle de quelques dixièmes de nanomètres.
4. Scan­ning Tun­nel­ling Micro­scope [STM]. “ L’ef­fet tun­nel » est un effet quan­tique, en ver­tu duquel des élec­trons tra­versent le vide qui sépare d’une sur­face à obser­ver la pointe de pla­tine ou de tungs­tène du micro­scope – ce qui serait incon­ce­vable en phy­sique classique.
5. En col­la­bo­ra­tion avec Har­ry Kro­to et Robert Curl qui par­ta­gèrent le prix Nobel avec Richard Smalley.
6. Dites encore bucky­balls, ces deux appel­la­tions se réfé­rant au vision­naire Buck­mins­ter Ful­ler et à ses cou­poles géodésiques.
7. Livre dis­po­nible sur le site du Fore­sight Ins­ti­tute à : < http://www.foresight.org >
8. C’est le cas de Richard Smal­ley. À ceux qui affirment étour­di­ment que le pro­gramme de Drex­ler “ vio­le­rait les lois de la phy­sique ”, il est trop facile à ce der­nier de répli­quer que, dans ce cas, la vie elle-même vio­le­rait les lois de la physique !
9. Je me per­mets de ren­voyer le lec­teur à mon The Mecha­ni­za­tion of the Mind. On the Ori­gins of Cog­ni­tive Science, Prin­ce­ton Uni­ver­si­ty Press, 2000.
10. Le lec­teur pour­ra juger par lui-même en consul­tant le site http://www.transhumanism.com/articles_more. php?id=P697_0_4_0_C
11. Voir le rap­port du groupe ETC – qui fit naguère plier Mon­san­to sur les OGM –, The Big­Down, acces­sible sur la Toile à < http://www.etcgroup.org/documents/TheBigDown.pdf >
ETC a dépo­sé un pro­jet de mora­toire sur les nano­tech­no­lo­gies à la confé­rence de Johan­nes­burg, qui n’a évi­dem­ment pas été retenu.
12. Cf. mon Pour un catas­tro­phisme éclai­ré, Seuil, 2002.
13. Cf. la mise en garde, très remar­quée et dis­cu­tée, de l’un des infor­ma­ti­ciens amé­ri­cains les plus brillants, Bill Joy, parue dans la revue très » bran­chée « , Wired, sous le titre élo­quent : « Why the future doesn’t need us » (avril 2000). Le sous-titre pré­cise : » Our most power­ful 21st cen­tu­ry tech­no­lo­gies – robo­tics, gene­tic engi­nee­ring, and nano­tech – are threa­te­ning to make humans an endan­ge­red spe­cies. » Voir aus­si le livre de l’astronome royal bri­tan­nique, Sir Mar­tin Rees, Our Final Hour. A Scientist’s War­ning : How Ter­ror, Error, and Envi­ron­men­tal Disas­ter Threa­ten Humankind’s Future in this Cen­tu­ry – on Earth and Beyond, Basic Books, New York, 2003.

Poster un commentaire