Décider dans l’incertitude : les États-Unis s’engagent enfin face au changement climatique

Dossier : Environnement : comprendre et agirMagazine N°637 Septembre 2008
Par Claude HENRY

Le chi­miste sué­dois Svante Arrhe­nius, dans ses tra­vaux entre 1896 et 1907, par­vient à la pre­mière esti­ma­tion quan­ti­ta­tive de l’ef­fet des gaz iden­ti­fiés par Tyn­dall sur la tem­pé­ra­ture de la terre (voir encadré).

Repères
La pre­mière men­tion dans la lit­té­ra­ture scien­ti­fique de l’ef­fet de serre remonte à 1827. Dans un article trai­tant des équi­libres éner­gé­tiques de la pla­nète, le mathé­ma­ti­cien et phy­si­cien Joseph Fou­rier exa­mi­na pour la pre­mière fois com­ment l’ef­fet de serre régule la tem­pé­ra­ture de la terre. Entre 1859 et 1871, le phy­si­cien irlan­dais John Tyn­dall réa­li­sa une série d’ex­pé­riences visant à mon­trer que trois gaz dans l’at­mo­sphère sont très lar­ge­ment res­pon­sables de l’ef­fet de serre : la vapeur d’eau, le dioxyde de car­bone et le méthane.

Cent ans de recherche sur le changement climatique

Ces tra­vaux l’ont ame­né à pré­voir qu’un dou­ble­ment de la concen­tra­tion de gaz à effet de serre (de 300 ppm, la concen­tra­tion au début du XXe siècle) aurait pour consé­quence une aug­men­ta­tion de la tem­pé­ra­ture moyenne sur terre entre 2 et 6º C, une pré­vi­sion cohé­rente avec les résul­tats des modèles les plus sophis­ti­qués uti­li­sés actuellement.

Puis, pen­dant plus de qua­rante ans, les scien­ti­fiques ont été muets sur l’ef­fet de serre et ses consé­quences pos­sibles sur le cli­mat. Ce long silence a été rom­pu dans les années cin­quante par Roger Revelle, direc­teur de l’Ins­ti­tut Scripps d’o­céa­no­gra­phie à La Jol­la en Cali­for­nie, (qui, plus tard, deve­nu pro­fes­seur à Har­vard, influen­ça for­te­ment l’un de ses élèves, Al Gore), qui affir­ma que le CO2, lié aux acti­vi­tés humaines, s’ac­cu­mu­lait dans l’at­mo­sphère à un rythme éle­vé et mena­çait la sta­bi­li­té du cli­mat. Avec le géo­chi­miste Charles Kee­ling, ils éta­blirent, à par­tir d’ob­ser­va­tions régu­lières au mont Loa, à Hawaï, que l’ef­fet de serre est en aug­men­ta­tion constante et que cette aug­men­ta­tion est essen­tiel­le­ment d’o­ri­gine anthro­pique. En 1957, Kee­ling mesu­ra une concen­tra­tion de CO2 de 314 ppm ; sa der­nière mesure en 2005, juste avant sa mort, était de 380 ppm. Non seule­ment l’aug­men­ta­tion ne flé­chis­sait pas, mais son rythme s’accélérait. 

Des modèles informatisés

Les don­nées col­lec­tées par Kee­ling inci­tèrent James Han­sen, à l’Ins­ti­tut God­dard de la NASA à New York, à construire l’un des deux pre­miers modèles infor­ma­ti­sés du cli­mat visant à éva­luer les consé­quences de l’ef­fet de serre sur le cli­mat. Les résul­tats du modèle de cli­mat déve­lop­pé par Han­sen eurent un tel effet sur le pré­sident Car­ter qu’il deman­da à la Natio­nal Aca­de­my of Science d’é­va­luer la métho­do­lo­gie et les résul­tats de Han­sen, ain­si que ses recom­man­da­tions pour agir. La réponse de la Natio­nal Aca­de­my of Science fut rapide et sans ambi­guï­té : » If car­bon dioxide conti­nues to increase, the stu­dy group finds no rea­son to doubt that cli­mate changes will result, and no rea­son to believe that these changes will be negli­gible. The cli­mate sys­tem has a built-in time delay. For this rea­son, what might seem like the most conser­va­tive approach-wai­ting for evi­dence of war­ming in order to assess the model’s accu­ra­cy-actual­ly amounts to the ris­kiest pos­sible stra­te­gy. We may not be given a war­ning until the CO2 loa­ding is such that an appre­ciable cli­mate change is inevi­table. »

Mal­heu­reu­se­ment, cette conclu­sion fut enter­rée avec la car­rière poli­tique de Car­ter en 1980. Depuis 1988, le pro­ces­sus, conti­nu, d’in­ves­ti­ga­tion du GIEC (voir enca­dré) contri­bue à la connais­sance scien­ti­fique de l’é­vo­lu­tion du cli­mat d’une manière rigou­reuse, sys­té­ma­ti­que­ment orga­ni­sée et contrô­lée, tant du point de vue théo­rique qu’empirique, ce qui leur a valu l’at­tri­bu­tion en décembre 2007 du prix Nobel de la paix. Il est donc d’au­tant plus remar­quable que le gou­ver­ne­ment des États-Unis ait reje­té les tra­vaux du GIEC comme non fon­dés scientifiquement.

Ce rejet peut s’ex­pli­quer en par­tie par le fait que les élé­ments réunis par le GIEC ne pos­sèdent pas les attri­buts de la science cano­nique (déter­mi­niste ou probabiliste). 

Incertitude scientifique et prise de décision

Dans son trai­té sur la pro­ba­bi­li­té, publié en 1921, John May­nard Keynes fait une dis­tinc­tion claire entre deux types d’in­cer­ti­tudes : la pre­mière peut être carac­té­ri­sée par des pro­ba­bi­li­tés, tan­dis que c’est impos­sible pour la seconde. La science du chan­ge­ment cli­ma­tique relève encore en par­tie d’une incer­ti­tude du second type.

L’information objec­tive dont le déci­deur dis­pose ne peut se résu­mer par une loi de probabilités

Dans son der­nier rap­port, publié en 2007, le GIEC a dis­tin­gué six scé­na­rios d’é­mis­sions de gaz à effet de serre. Leur métho­do­lo­gie a conduit à des conclu­sions telles que : » Entre 1990 et 2100, la tem­pé­ra­ture moyenne glo­bale sur terre aug­men­te­ra de 1,1º C à 6,4º C. » Cet inter­valle est la consé­quence de la diver­si­té des scé­na­rios et modèles sous-jacents. Aucune dis­tri­bu­tion de pro­ba­bi­li­tés ne peut être asso­ciée à cet inter­valle [1,1, 6,4]. L’in­for­ma­tion objec­tive (ou » scien­ti­fique ») dont le déci­deur dis­pose ne peut se résu­mer, ou même se repré­sen­ter de manière rap­pro­chée, par une loi de probabilités.

L’in­tro­duc­tion du qua­trième rap­port du GIEC met cette situa­tion bien en lumière dans sa clas­si­fi­ca­tion des conclu­sions scien­ti­fiques qu’il pro­pose. Trois approches dif­fé­rentes, fai­sant cha­cune appel à une ter­mi­no­lo­gie par­ti­cu­lière, sont adop­tées pour décrire les incer­ti­tudes. Leur choix dépend tout à la fois de la nature de l’in­for­ma­tion dis­po­nible et de l’a­vis auto­ri­sé des auteurs quant à l’exac­ti­tude et au degré d’ex­haus­ti­vi­té des connais­sances scien­ti­fiques actuelles. 

Trois approches des incertitudes

Un groupe inter­na­tio­nal d’experts
L’au­to­ri­té en matière de science du chan­ge­ment cli­ma­tique est le Groupe inter­gou­ver­ne­men­tal d’ex­perts sur l’é­vo­lu­tion du cli­mat (GIEC, en anglais IPCC). Le GIEC est un groupe inter­na­tio­nal d’ex­perts scien­ti­fiques, tra­vaillant sous l’é­gide de l’O­NU et de l’Or­ga­ni­sa­tion météo­ro­lo­gique mon­diale. Ces scien­ti­fiques sont choi­sis par leurs pairs, pays par pays. Leur tra­vail est orga­ni­sé en sous-groupes par domaine d’in­ves­ti­ga­tion ; ces sous-groupes confrontent leurs résul­tats puis les ras­semblent dans des rap­ports publiés pério­di­que­ment (1990, 1995, 2001, 2007). Pour ce faire, ils col­lectent dans le monde entier les don­nées per­ti­nentes dis­po­nibles, sus­citent la pro­duc­tion de don­nées nou­velles, sur cette base, mobi­lisent leurs com­pé­tences res­pec­tives (en phy­sique, chi­mie, bio­lo­gie, éco­lo­gie, éco­no­mie, etc.) pour éva­luer les com­po­santes et les consé­quences du chan­ge­ment climatique.

Lorsque l’é­va­lua­tion de l’in­cer­ti­tude est qua­li­ta­tive, elle consiste à don­ner une idée approxi­ma­tive de la quan­ti­té et de la qua­li­té des élé­ments pro­bants (c’est-à-dire des infor­ma­tions théo­riques ou tirées d’ob­ser­va­tions ou de modèles indi­quant si une opi­nion ou pro­po­si­tion est vraie ou valable) ain­si que du degré de concor­dance (c’est-à-dire du niveau de conver­gence des docu­ments sur une conclu­sion don­née). Lorsque l’é­va­lua­tion de l’in­cer­ti­tude est plu­tôt quan­ti­ta­tive et fon­dée sur un avis auto­ri­sé quant à l’exac­ti­tude des don­nées, des ana­lyses ou des modèles uti­li­sés, des degrés de confiance sont employés pour expri­mer la pro­ba­bi­li­té qu’une conclu­sion est cor­recte (de » très faible » à » très élevé »).

Lorsque l’é­va­lua­tion de l’in­cer­ti­tude concerne des résul­tats pré­cis et qu’elle est fon­dée sur un avis auto­ri­sé et une ana­lyse sta­tis­tique d’une série d’élé­ments pro­bants (par exemple des obser­va­tions ou des résul­tats de modèles), les four­chettes de pro­ba­bi­li­té uti­li­sées pour expri­mer la pro­ba­bi­li­té d’oc­cur­rence vont de » excep­tion­nel­le­ment impro­bable » à » pra­ti­que­ment certain « .

Le pro­to­cole de Kyo­to n’impose pas d’objectifs contrai­gnants aux pays en voie de développement

Si un déci­deur rejette a prio­ri comme » de la science dou­teuse » tout fait non ambi­gu (l’am­bi­guï­té désigne le second type d’in­cer­ti­tude défi­ni plus haut), cela signi­fie qu’il s’en tient à la maxi­mi­sa­tion de son espé­rance d’u­ti­li­té rela­tive à un pro­fil de risque sur la base de faits qui sont scien­ti­fi­que­ment non ambi­gus, ce qui reflète le fait que son aver­sion à l’am­bi­guï­té est supé­rieure à son aver­sion au risque. En cela, il néglige un large pan d’in­for­ma­tions scien­ti­fiques, qui, bien qu’in­cer­taines, peuvent être cré­dibles et décisives.

Ain­si, une façon de carac­té­ri­ser le prin­cipe de pré­cau­tion consiste à recon­naître que l’op­ti­mi­sa­tion sur la base d’actes qui ne sont pas scien­ti­fi­que­ment ambi­gus n’est pas opti­male. En d’autres termes, la pré­cau­tion néces­site que le déci­deur opti­mise sur un éven­tail plus large que celui des actes scien­ti­fi­que­ment non ambigus. 

L’Amérique doit faire le bon choix

Pré­fé­rer le risque à l’ambiguïté
Ce type de com­por­te­ment a été obser­vé pour d’autres pro­blèmes d’en­vi­ron­ne­ment et de san­té publique, tels que les risques sani­taires liés à l’a­miante (pour lequel des cor­ré­la­tions fortes entre l’oc­cu­pa­tion de postes de tra­vail expo­sés aux pous­sières d’a­miante et les atteintes aux bronches et aux pou­mons ont été éta­blies dès 1898), l’u­ti­li­sa­tion d’hor­mones de crois­sance dans l’é­le­vage, les liens entre encé­pha­lo­pa­thie spon­gi­forme bovine et mala­die de Creutz­feldt-Jakob, chlo­ro­fluo­ro­car­bones et couche d’o­zone, mala­dies induites par les PCB, épui­se­ment des res­sources halieu­tiques dans cer­tains sec­teurs des océans, etc.
Dans tous ces exemples, il exis­tait un modèle théo­rique sans aucun doute incom­plet mais ren­dant compte des élé­ments fon­da­men­taux de la réa­li­té et par ailleurs en accord avec des don­nées empi­riques non anec­do­tiques jus­ti­fiant de déclen­cher la mise en oeuvre du prin­cipe de précaution.
On observe le retard, sou­vent d’am­pleur et des consé­quences consi­dé­rables entre le moment où ce seuil est fran­chi et le moment où une action appro­priée est engagée.

En décembre 1997, le pro­to­cole de Kyo­to est adop­té par les par­ties à la Conven­tion cadre sur le chan­ge­ment cli­ma­tique. L’ap­pro­ba­tion don­née à l’é­poque par l’ad­mi­nis­tra­tion Clin­ton était déjà vide de sens. En effet, six mois aupa­ra­vant, le Sénat amé­ri­cain avait pas­sé une réso­lu­tion par une majo­ri­té écra­sante (95÷0), pour que le Pro­to­cole ne soit pas rati­fié tant que des objec­tifs contrai­gnants de réduc­tion d’é­mis­sions ne seraient impo­sés qu’aux pays indus­tria­li­sés. Le Pro­to­cole n’im­pose en effet pas d’ob­jec­tifs contrai­gnants aux pays en voie de déve­lop­pe­ment, du fait qu’ils n’ont été que peu res­pon­sables de l’ac­cu­mu­la­tion de CO2 dans l’at­mo­sphère, et qu’ils ne devraient pas être pri­vés des moyens de leur propre déve­lop­pe­ment. L’ad­mi­nis­tra­tion Bush ren­for­ça l’op­po­si­tion amé­ri­caine aux objec­tifs contrai­gnants de réduc­tion d’é­mis­sions. Il est ain­si impor­tant de sou­li­gner que l’at­ti­tude du Sénat et de l’ad­mi­nis­tra­tion Bush ne peut s’ex­pli­quer uni­que­ment par leur concep­tion de la science du chan­ge­ment cli­ma­tique, mais éga­le­ment par des consi­dé­ra­tions politiques.

Depuis quatre ou cinq ans, dans de nom­breux États, villes, entre­prises, etc., l’é­tat d’es­prit a consi­dé­ra­ble­ment chan­gé. Même cer­taines per­son­na­li­tés influentes de la droite chré­tienne, comme Richard Cisik, sont désor­mais mobi­li­sées au nom de l’é­gard dû aux créa­tures de Dieu : » Indé­pen­dam­ment du choix d’autres nations à contri­buer à la solu­tion, l’A­mé­rique doit faire le bon choix. »

En avril der­nier à Paris, George Bush a fina­le­ment recon­nu la néces­si­té d’une légis­la­tion fédé­rale obli­ga­toire pour lut­ter contre le réchauf­fe­ment cli­ma­tique et a pré­sen­té un plan des­ti­né à arrê­ter la crois­sance des émis­sions amé­ri­caines d’i­ci 2025, un pro­grès par rap­port à l’ob­jec­tif pré­cé­dent qui consis­tait à ralen­tir la crois­sance des émis­sions à par­tir de 2012. La réac­tion géné­rale a consis­té à dire que l’ex­pres­sion » trop peu, trop tard » était un euphé­misme pour qua­li­fier le nou­veau plan.

Le gou­ver­ne­ment des États-Unis va enfin s’en­ga­ger dans la lutte contre le chan­ge­ment cli­ma­tique, mais trente ans ont été per­dus depuis l’ap­pel de la Natio­nal Aca­de­my of Science, en 1979, à l’ap­pli­ca­tion du prin­cipe de pré­cau­tion. Les efforts à réa­li­ser seront d’au­tant plus gigan­tesques en termes de chan­ge­ment de com­por­te­ment indi­vi­duel et col­lec­tif, de cou­rage poli­tique, d’i­ni­tia­tives éco­no­miques et finan­cières. Espé­rons que l’é­vo­lu­tion des men­ta­li­tés et des com­por­te­ments don­ne­ra tort à ce qu’é­cri­vait Jean-Pierre Dupuy en 2002 : » To turn around what we iden­ti­fy with pro­gress, would have such phe­no­me­nal conse­quences that we refuse to believe what we indeed know as being true. »

Vers une loi contraignante
Le pré­sident Bush quit­te­ra le pou­voir en jan­vier pro­chain et les can­di­dats à l’é­lec­tion pré­si­den­tielle sont en faveur de res­tric­tions plus sévères sur les émis­sions que celles pro­po­sées par Bush (même si cer­taines mau­vaises habi­tudes élec­to­rales, comme la pro­po­si­tion du can­di­dat McCain de sup­pri­mer la taxe sur l’es­sence cet été, ont la vie dure). Une loi impo­sant des objec­tifs contrai­gnants de réduc­tion d’é­mis­sions de gaz à effet de serre, sem­blable au pro­jet dépo­sé par les séna­teurs Lie­ber­man et War­ner, n’en­tre­ra vrai­sem­bla­ble­ment pas en vigueur avant 2014, mais il y a désor­mais suf­fi­sam­ment d’a­gents aux États-Unis tra­vaillant en vue des chan­ge­ments néces­saires, et leur influence croît.

Poster un commentaire