Risques environnementaux : attention aux pièges

Dossier : Épidémiologie : au service de la santéMagazine N°670 Décembre 2011
Par André AURENGO (67)

REPÈRES

REPÈRES
L’épidémiologie joue un rôle clef dans la prise de déci­sion en san­té publique grâce aux don­nées sur l’état sani­taire des popu­la­tions et à l’analyse des risques. En méde­cine cli­nique, elle est le fon­de­ment de l’evi­dence based medi­cine. Enfin, elle devrait per­mettre l’élaboration et l’évaluation d’une poli­tique de san­té ration­nelle et effi­cace. Recueillir de manière sys­té­ma­tique des don­nées sur des effec­tifs par­fois consi­dé­rables lui per­met de lis­ser de nom­breuses par­ti­cu­la­ri­tés indi­vi­duelles et d’avoir une puis­sance sta­tis­tique éle­vée, éven­tuel­le­ment ren­for­cée par le regrou­pe­ment des don­nées de plu­sieurs études.

Parce qu’elle four­nit des don­nées sur l’état sani­taire, qu’elle concourt à l’analyse des risques et à l’évaluation des pra­tiques et de la poli­tique de san­té, l’épidémiologie se révèle irremplaçable.

Études contra­dic­toires
En 1995, dans l’article inti­tu­lé « L’épidémiologie ren­contre ses limites », Gary Taubes rele­vait le nombre impor­tant d’études contra­dic­toires dans ce domaine. Il expli­quait que ces faibles risques concernent des popu­la­tions tel­le­ment impor­tantes qu’ils pour­raient avoir un impact sani­taire impor­tant, mais que de nom­breux épi­dé­mio­lo­gistes admettent que leurs études contiennent tel­le­ment de biais, d’incertitudes et de fai­blesses métho­do­lo­giques qu’ils sont inca­pables de dis­cer­ner avec pré­ci­sion des risques aus­si faibles.

Mais elle ren­contre des dif­fi­cul­tés pour répondre clai­re­ment sur le niveau, voire la réa­li­té, des risques liés à de faibles expo­si­tions, en par­ti­cu­lier envi­ron­ne­men­tales. Qu’il s’agisse, par exemple, des champs élec­tro­ma­gné­tiques de très basse fré­quence, des antennes de télé­pho­nie mobile, des télé­phones por­tables, des faibles doses de rayon­ne­ments ioni­sants, du radon, des pes­ti­cides ou des faibles consom­ma­tions d’alcool, la mul­ti­pli­ci­té des études épi­dé­mio­lo­giques aux résul­tats contra­dic­toires ne peut que déso­rien­ter le public et les déci­deurs. Ces dis­cor­dances sont sou­vent liées à l’absence de prise en compte des incer­ti­tudes sur les expo­si­tions aux fac­teurs de risques sus­pec­tés, à la mul­ti­pli­ca­tion des tests sta­tis­tiques et à la pré­sence de biais incontrôlables.

L’épidémiologie rencontre ses limites

Les études aux résul­tats contra­dic­toires déso­rientent le public et les décideurs

Les suc­cès obser­vés ne doivent pas cacher les dif­fi­cul­tés que ren­contre l’épidémiologie à répondre clai­re­ment sur le niveau, voire la réa­li­té, des risques liés à de faibles expo­si­tions comme on les ren­contre en par­ti­cu­lier dans notre envi­ron­ne­ment. En 1995, Gary Taubes avait rele­vé le nombre impor­tant d’études contra­dic­toires dans ce domaine. En 2008, dans Les Faux Posi­tifs de l’épidémiologie en can­cé­ro­lo­gie : un appel à la réserve en épi­dé­mio­lo­gie, Pao­lo Bof­fet­ta mon­trait la fré­quence des faux posi­tifs, en expli­quait les prin­ci­pales rai­sons et relan­çait un débat nécessaire.

Incertitudes sur les expositions

Étude cas témoins
Une étude cas témoins, par exemple sur la res­pon­sa­bi­li­té d’un évé­ne­ment E dans la sur­ve­nue d’une mala­die M, consiste à recru­ter d’une part des per­sonnes pré­sen­tant la mala­die M (les « cas ») et d’autre part des per­sonnes indemnes de cette mala­die (les « témoins »), puis d’estimer pour les cas et les témoins l’exposition au pro­duit P. On peut ensuite cal­cu­ler la force du lien entre le pro­duit P et la mala­die M, sous la forme d’un « risque rela­tif » RR d’attraper la mala­die M quand on est expo­sé au pro­duit P. Une étude cas témoins est par défi­ni­tion rétros­pec­tive ; elle est tou­jours réa­li­sée après la sur­ve­nue de la mala­die. Si la mala­die M est rare, une étude cas témoins per­met de prendre en compte rapi­de­ment un nombre de cas impor­tant et d’obtenir un résul­tat en un temps raisonnable.

La majo­ri­té des études envi­ron­ne­men­tales sont rétros­pec­tives, de type cas témoins. Elles per­mettent de quan­ti­fier, sous la forme d’un « risque rela­tif » RR et de son inter­valle de confiance IC, le lien éven­tuel entre un fac­teur de risque et une patho­lo­gie. Le risque est consi­dé­ré comme signi­fi­ca­ti­ve­ment aug­men­té si l’intervalle de confiance IC est au-des­sus de la valeur 1. On dit alors que l’étude est « posi­tive » (ce qui prouve que fac­teur de risque et patho­lo­gie sont liés, mais pas que le pre­mier est la cause de la seconde).

Ces études néces­sitent une esti­ma­tion rétros­pec­tive de l’exposition au fac­teur de risque étu­dié et à d’autres fac­teurs éven­tuel­le­ment impli­qués dans les mêmes patho­lo­gies. Cette esti­ma­tion repose, quand c’est pos­sible, sur des don­nées directes et objec­tives, sinon on a recours à des don­nées d’interrogatoire ou encore à un « indi­ca­teur de l’exposition » cen­sé la reflé­ter. L’exposition est ain­si esti­mée avec un éven­tuel biais et, dans tous les cas, avec un cer­tain degré d’incertitude.

Facteurs de risque et pathologies

L’incertitude n’est pra­ti­que­ment jamais prise en compte dans l’analyse statistique

Ce n’est pas l’incertitude elle-même qui pose pro­blème, mais le fait qu’elle n’est pra­ti­que­ment jamais prise en compte dans l’analyse sta­tis­tique, alors que des tech­niques existent pour le faire. De plus, quand une étude montre une asso­cia­tion entre un indi­ca­teur d’exposition et une patho­lo­gie, les auteurs en déduisent sou­vent sans pré­cau­tion qu’il y a un lien entre le fac­teur de risque lui-même et cette patho­lo­gie. Une telle conclu­sion néces­si­te­rait de tenir compte de la loi de pro­ba­bi­li­té qui lie l’indicateur au fac­teur de risque, ce qui n’est pra­ti­que­ment jamais fait.

Mauvaise estimation du risque

Négli­ger les incer­ti­tudes sur les expo­si­tions conduit à une esti­ma­tion erro­née du risque rela­tif, dans un sens ou dans l’autre, et, en géné­ral, à une sous-esti­ma­tion de son inter­valle de confiance (IC). Dans ce cas, si IC est net­te­ment au-des­sus de 1, la conclu­sion que l’étude est posi­tive est le plus sou­vent valable. En revanche, si IC est juste au-des­sus de 1, l’étude sera consi­dé­rée comme « posi­tive », mais elle ne l’est pro­ba­ble­ment pas en réa­li­té, comme on le mon­tre­rait en pre­nant cor­rec­te­ment en compte l’incertitude sur l’exposition. Ce type de « faux posi­tif métho­do­lo­gique » explique un grand nombre des inco­hé­rences entre études épi­dé­mio­lo­giques. Citons par exemple le nombre de mou­tons du trou­peau d’un éle­veur choi­si comme indi­ca­teur de l’exposition aux insec­ti­cides, ce qui ne prend en compte ni la fré­quence et les tech­niques d’application des insec­ti­cides, ni les autres fac­teurs de risque, en par­ti­cu­lier viraux, liés aux moutons.

Le code de câblage de Wer­thei­mer et Leeper

Uti­li­sé pour carac­té­ri­ser les expo­si­tions rési­den­tielles aux champs magné­tiques, le code câblage de Wer­thei­mer et Lee­per a fini par être aban­don­né car il ne reflé­tait pas les expo­si­tions de manière fiable.

Indi­ca­teur mal choisi
Dans une étude sur les leu­cé­mies, l’inverse de la dis­tance aux lignes à très haute ten­sion de la mai­son où est né un enfant a été pris comme indi­ca­teur de son expo­si­tion aux champs élec­tro­ma­gné­tiques. L’analyse sta­tis­tique repose impli­ci­te­ment sur l’hypothèse que cet indi­ca­teur est par­fait alors qu’il a en réa­li­té une très mau­vaise valeur pré­dic­tive de l’exposition réelle.

Le piège des sous-groupes

Faire un grand nombre de tests sta­tis­tiques dans une étude peut conduire, par hasard, à un cer­tain nombre de tests posi­tifs. La réponse habi­tuelle à cette dif­fi­cul­té est de ne consi­dé­rer comme avé­rés que des risques retrou­vés par plu­sieurs études indé­pen­dantes. Cette atti­tude de pru­dence se heurte au fait qu’un risque non confir­mé mais for­te­ment média­ti­sé est consi­dé­ré comme défi­ni­ti­ve­ment démon­tré par le public et les non-spé­cia­listes du domaine. Des tech­niques sta­tis­tiques appro­priées aux tests mul­tiples, comme celle de Holm-Bon­fer­ro­ni, évitent de telles conclu­sions erro­nées ; elles ne sont mal­heu­reu­se­ment presque jamais utilisées.

Pre­nons pour exemple une étude cas témoins de la vac­ci­na­tion contre l’hépatite B qui concluait au risque de sclé­rose en plaques (SEP) après cette vac­ci­na­tion, dans un sous-groupe des cas qui fai­saient régu­liè­re­ment les vac­cins conseillés, pour les­quels le délai vac­cin-SEP était supé­rieur à trois ans, et qui avaient uti­li­sé un cer­tain type de vac­cin. Le risque rela­tif était RR # 1,7 ; l’IC 95 %. Dans ce cas, l’IC est très proche de 1, mais il n’y a guère d’incertitude sur l’exposition (le fait d’avoir été vac­ci­né). En revanche, compte tenu de la mul­ti­pli­ci­té des sous-groupes tes­tés, les auteurs ont réa­li­sé plus de 150 tests sta­tis­tiques, et la pro­ba­bi­li­té d’en obte­nir un posi­tif par simple hasard dépas­sait les 90%.

Les biais de mémorisation

Un risque non confir­mé mais for­te­ment média­ti­sé est consi­dé­ré comme défi­ni­ti­ve­ment démontré

Des biais d’anamnèse (de mémo­ri­sa­tion) peuvent affec­ter les études cas témoins dont l’évaluation de l’exposition aux fac­teurs de risque repose sur un inter­ro­ga­toire. L’exposition peut alors être sur­es­ti­mée (les cas ont davan­tage ten­dance à se rap­pe­ler les expo­si­tions que les témoins) ou sous-esti­mée (cas fré­quent des expo­si­tions volon­taires). Un exemple est don­né par l’étude Inter­phone sur les risques du télé­phone por­table. On savait dès sa mise en œuvre que ces risques étaient très faibles ou inexis­tants ; on avait donc besoin d’une esti­ma­tion pré­cise de l’exposition, ici le nombre et la durée des appels.

Risques du téléphone portable

Résul­tats douteux
Le manque de fia­bi­li­té des inter­ro­ga­toires d’utilisateurs amène à s’interroger sur la posi­ti­vi­té réelle de quelques résul­tats « posi­tifs » rap­por­tés par cer­taines études natio­nales fai­sant par­tie d’Interphone qui ont négli­gé ces incer­ti­tudes. Par exemple, l’étude fran­çaise qui rap­porte un risque de gliome avec RR # 1,02 ; IC 95% = [1,00/1,04]. Symé­tri­que­ment, on peut s’interroger sur la réa­li­té de la dimi­nu­tion de 25% du risque de ménin­giome qu’assurerait l’utilisation du por­table avec RR # 0,76 ; IC 95% = [0,65/0,89].

Mais, dès 2001, il était acquis que l’interrogatoire des uti­li­sa­teurs sur leur consom­ma­tion télé­pho­nique, uti­li­sé pour Inter­phone, n’était fiable ni pour la durée ni pour le nombre des appels. En effet, selon les auteurs mêmes d’Interphone, « l’analyse de la concor­dance entre les don­nées esti­mées en 2001 par les sujets et celles mesu­rées par les opé­ra­teurs montre une concor­dance assez médiocre (j = 0,34) mais signi­fi­ca­tive (p < 0,01) pour les nombres moyens d’appels. En revanche, il n’y a aucune concor­dance entre les durées réelles et les durées esti­mées au cours du pre­mier entre­tien (j = 0,18). […] la cor­ré­la­tion entre les nombres [d’appels] esti­més et mesu­rés, et plus encore celle des durées, est très mau­vaise. » Encore cet inter­ro­ga­toire a‑t-il été conduit en juin 2001 sur les appels d’octobre 2000 à mars 2001 ; qu’en est-il pour les appels datant de plu­sieurs années uti­li­sés dans Interphone ?

Supériorité des études de cohortes

Ces exemples illus­trent la supé­rio­ri­té des études de cohortes pour les­quelles une quan­ti­fi­ca­tion objec­tive, en temps réel, des expo­si­tions est sou­vent possible.

On peut citer par exemple la cohorte Agri­can, plus grande étude mon­diale sur la san­té en milieu agri­cole. Réunie par l’université de Caen avec l’aide de la Mutua­li­té sociale agri­cole, elle regroupe 180 000 cohor­tistes et ses pre­miers résul­tats viennent d’être publiés, four­nis­sant pour la pre­mière fois des don­nées fiables sur les diverses expo­si­tions et le risque de can­cer chez les agriculteurs.

Des faiblesses ?

Mais une étude de cohortes n’est pas tou­jours exempte de fai­blesses. Par exemple, publiée en octobre 2011, une étude de cohorte danoise ne trouve aucun lien entre l’utilisation du por­table et la sur­ve­nue de tumeurs cérébrales.

Par­tant d’une cohorte com­pre­nant presque tous les adultes danois, d’un registre réper­to­riant 10 729 tumeurs céré­brales, et d’un registre des abon­ne­ments à un por­table, cette étude a une « puis­sance » sta­tis­tique bien supé­rieure à Inter­phone, sans biais pos­sible d’interrogatoire. Mais elle ne pour­ra pas clore le débat. En effet, cer­taines per­sonnes, consi­dé­rées dans l’étude comme non-uti­li­sa­teurs de por­tables, pour­raient l’être en réa­li­té, les por­tables pro­fes­sion­nels n’ayant pas été pris en compte et l’abonnement à un por­table n’étant connu que jusqu’en 1995, alors que le recueil des cas de tumeurs céré­brales va jusqu’en 2007. D’autre part, l’exposition pro­pre­ment dite (durée totale des appels) n’est pas prise en compte, ce qui évite tout biais d’anamnèse, mais dimi­nue la sen­si­bi­li­té de l’étude.

Étude de cohortes
Une étude de cohortes est le plus sou­vent pros­pec­tive. Si l’on reprend l’exemple de la res­pon­sa­bi­li­té d’un évé­ne­ment E dans la sur­ve­nue d’une mala­die M, une étude de cohortes consiste à recru­ter un grand nombre de per­sonnes (les « cohor­tistes »), expo­sés à E ou non, mais indemnes de la mala­die M. On attend ensuite que la mala­die M se mani­feste sur un cer­tain nombre de cohor­tistes, en esti­mant régu­liè­re­ment, pour chaque cohor­tiste, l’exposition à l’événement E. Quand suf­fi­sam­ment de cas de M se sont décla­rés, on peut cal­cu­ler la force du lien entre E et M, sous la forme d’un « risque rela­tif ». L’estimation de l’exposition se fai­sant en temps réel, elle est en géné­ral plus fiable que l’estimation rétros­pec­tive des études cas témoins (sur­tout si elle repose sur un interrogatoire).
Les prin­ci­paux incon­vé­nients d’une étude de cohortes sont le coût et la durée, qui aug­mentent avec la rare­té de la mala­die M puisqu’il faut attendre que les cas se déclarent.

Autres pièges

Cer­taines études n’ont pas la puis­sance suf­fi­sante (par exemple pas assez de cas) pour mettre en évi­dence un faible risque. Si le risque est réel, cette sous-esti­ma­tion de l’effectif néces­saire conduit le plus sou­vent à un faux néga­tif. Dans le cas contraire, elles conduisent sou­vent à des faux posi­tifs, car ce sont les études les plus sen­sibles aux fac­teurs de confu­sion et aux biais divers, et elles ali­mentent ain­si des polé­miques infondées.

Cer­taines études n’ont pas la puis­sance suf­fi­sante pour mettre en évi­dence un faible risque

Enfin, la sur­in­ter­pré­ta­tion des études peut conduire à consi­dé­rer comme pro­bables, voire avé­rées ou cau­sales, des asso­cia­tions dont la vrai­sem­blance bio­lo­gique est qua­si nulle. Comme le remarque Val­le­ron, « l’analyse sta­tis­tique des résul­tats implique qu’explicitement ou impli­ci­te­ment on tienne compte des connais­sances a prio­ri rela­tives aux hypo­thèses tes­tées ». Cette prise en compte des connais­sances a prio­ri n’est pas tou­jours uti­li­sée pour tem­pé­rer des résul­tats inso­lites qui ne devraient être admis qu’avec un niveau de preuve incon­tes­table, compte tenu de leur faible vraisemblance.

Pour une échelle de validité des études épidémiologiques

Pour ren­for­cer l’impact des études épi­dé­mio­lo­giques de qua­li­té, heu­reu­se­ment nom­breuses, il est donc impor­tant d’élaborer une échelle simple et lisible de vali­di­té des études épi­dé­mio­lo­giques, qui éva­lue leur fia­bi­li­té métho­do­lo­gique et le degré de preuve qu’elles apportent. Les pro­fes­sion­nels du domaine, les médias, le public, les déci­deurs et les épi­dé­mio­lo­gistes ont tout à y gagner.

L’épidémiologie est indis­pen­sable à la san­té publique. L’impact de ses études dont les résul­tats sont sou­vent relayés, voire ampli­fiés, par les médias lui confère un rôle majeur pour l’orientation des poli­tiques de san­té, l’analyse de risque, l’évaluation de la dan­ge­ro­si­té et l’acceptabilité des tech­niques nou­velles. Ce pou­voir confère à l’épidémiologie des res­pon­sa­bi­li­tés sani­taires, sociales, scien­ti­fiques, pro­fes­sion­nelles, éco­no­miques et finan­cières, voire conten­tieuses ; il implique aus­si une grande rigueur métho­do­lo­gique et une inter­pré­ta­tion pon­dé­rée des résultats.

Conflits d’in­té­rêt

L’auteur est ancien membre (béné­vole) du conseil scien­ti­fique de Bouygues.
Pré­sident du conseil médi­cal d’EDF-GdF Suez.

Commentaire

Ajouter un commentaire

chevallierX68répondre
3 décembre 2011 à 8 h 50 min

mer­ci pour cet article très
mer­ci pour cet article très inté­res­sant. j’ai relu avec beau­coup d’in­té­rêt ton article paru en 2001 rela­tif à Tchernobyl.
dans le cadre de la cam­pagne pour les futures élec­tions pré­si­den­tielles, la média­ti­sa­tion actuelle et outran­cière sur les risques de l’éner­gie nucléaire me désole d’au­tant plus que, comme tu le dis, « un risque non confir­mé mais for­te­ment média­ti­sé est consi­dé­ré comme défi­ni­ti­ve­ment démontré ».

Répondre