Risques environnementaux : attention aux pièges

Dossier : Épidémiologie : au service de la santéMagazine N°670 Décembre 2011
Par André AURENGO (67)

REPÈRES

REPÈRES
L’épidémiologie joue un rôle clef dans la prise de déci­sion en san­té publique grâce aux don­nées sur l’état san­i­taire des pop­u­la­tions et à l’analyse des risques. En médecine clin­ique, elle est le fonde­ment de l’evi­dence based med­i­cine. Enfin, elle devrait per­me­t­tre l’élaboration et l’évaluation d’une poli­tique de san­té rationnelle et effi­cace. Recueil­lir de manière sys­té­ma­tique des don­nées sur des effec­tifs par­fois con­sid­érables lui per­met de liss­er de nom­breuses par­tic­u­lar­ités indi­vidu­elles et d’avoir une puis­sance sta­tis­tique élevée, éventuelle­ment ren­for­cée par le regroupe­ment des don­nées de plusieurs études.

Parce qu’elle four­nit des don­nées sur l’état san­i­taire, qu’elle con­court à l’analyse des risques et à l’évaluation des pra­tiques et de la poli­tique de san­té, l’épidémiologie se révèle irremplaçable.

Études con­tra­dic­toires
En 1995, dans l’article inti­t­ulé « L’épidémiologie ren­con­tre ses lim­ites », Gary Taubes rel­e­vait le nom­bre impor­tant d’études con­tra­dic­toires dans ce domaine. Il expli­quait que ces faibles risques con­cer­nent des pop­u­la­tions telle­ment impor­tantes qu’ils pour­raient avoir un impact san­i­taire impor­tant, mais que de nom­breux épidémi­ol­o­gistes admet­tent que leurs études con­ti­en­nent telle­ment de biais, d’incertitudes et de faib­less­es méthodologiques qu’ils sont inca­pables de dis­cern­er avec pré­ci­sion des risques aus­si faibles.

Mais elle ren­con­tre des dif­fi­cultés pour répon­dre claire­ment sur le niveau, voire la réal­ité, des risques liés à de faibles expo­si­tions, en par­ti­c­uli­er envi­ron­nemen­tales. Qu’il s’agisse, par exem­ple, des champs élec­tro­mag­né­tiques de très basse fréquence, des antennes de télé­phonie mobile, des télé­phones porta­bles, des faibles dos­es de ray­on­nements ion­isants, du radon, des pes­ti­cides ou des faibles con­som­ma­tions d’alcool, la mul­ti­plic­ité des études épidémi­ologiques aux résul­tats con­tra­dic­toires ne peut que désori­en­ter le pub­lic et les décideurs. Ces dis­cor­dances sont sou­vent liées à l’absence de prise en compte des incer­ti­tudes sur les expo­si­tions aux fac­teurs de risques sus­pec­tés, à la mul­ti­pli­ca­tion des tests sta­tis­tiques et à la présence de biais incontrôlables.

L’épidémiologie rencontre ses limites

Les études aux résul­tats con­tra­dic­toires désori­en­tent le pub­lic et les décideurs

Les suc­cès observés ne doivent pas cacher les dif­fi­cultés que ren­con­tre l’épidémiologie à répon­dre claire­ment sur le niveau, voire la réal­ité, des risques liés à de faibles expo­si­tions comme on les ren­con­tre en par­ti­c­uli­er dans notre envi­ron­nement. En 1995, Gary Taubes avait relevé le nom­bre impor­tant d’études con­tra­dic­toires dans ce domaine. En 2008, dans Les Faux Posi­tifs de l’épidémiologie en can­cérolo­gie : un appel à la réserve en épidémi­olo­gie, Pao­lo Bof­fet­ta mon­trait la fréquence des faux posi­tifs, en expli­quait les prin­ci­pales raisons et relançait un débat nécessaire.

Incertitudes sur les expositions

Étude cas témoins
Une étude cas témoins, par exem­ple sur la respon­s­abil­ité d’un événe­ment E dans la sur­v­enue d’une mal­adie M, con­siste à recruter d’une part des per­son­nes présen­tant la mal­adie M (les « cas ») et d’autre part des per­son­nes indemnes de cette mal­adie (les « témoins »), puis d’estimer pour les cas et les témoins l’exposition au pro­duit P. On peut ensuite cal­culer la force du lien entre le pro­duit P et la mal­adie M, sous la forme d’un « risque relatif » RR d’attraper la mal­adie M quand on est exposé au pro­duit P. Une étude cas témoins est par déf­i­ni­tion rétro­spec­tive ; elle est tou­jours réal­isée après la sur­v­enue de la mal­adie. Si la mal­adie M est rare, une étude cas témoins per­met de pren­dre en compte rapi­de­ment un nom­bre de cas impor­tant et d’obtenir un résul­tat en un temps raisonnable.

La majorité des études envi­ron­nemen­tales sont rétro­spec­tives, de type cas témoins. Elles per­me­t­tent de quan­ti­fi­er, sous la forme d’un « risque relatif » RR et de son inter­valle de con­fi­ance IC, le lien éventuel entre un fac­teur de risque et une patholo­gie. Le risque est con­sid­éré comme sig­ni­fica­tive­ment aug­men­té si l’intervalle de con­fi­ance IC est au-dessus de la valeur 1. On dit alors que l’étude est « pos­i­tive » (ce qui prou­ve que fac­teur de risque et patholo­gie sont liés, mais pas que le pre­mier est la cause de la seconde).

Ces études néces­si­tent une esti­ma­tion rétro­spec­tive de l’exposition au fac­teur de risque étudié et à d’autres fac­teurs éventuelle­ment impliqués dans les mêmes patholo­gies. Cette esti­ma­tion repose, quand c’est pos­si­ble, sur des don­nées directes et objec­tives, sinon on a recours à des don­nées d’interrogatoire ou encore à un « indi­ca­teur de l’exposition » cen­sé la refléter. L’exposition est ain­si estimée avec un éventuel biais et, dans tous les cas, avec un cer­tain degré d’incertitude.

Facteurs de risque et pathologies

L’incertitude n’est pra­tique­ment jamais prise en compte dans l’analyse statistique

Ce n’est pas l’incertitude elle-même qui pose prob­lème, mais le fait qu’elle n’est pra­tique­ment jamais prise en compte dans l’analyse sta­tis­tique, alors que des tech­niques exis­tent pour le faire. De plus, quand une étude mon­tre une asso­ci­a­tion entre un indi­ca­teur d’exposition et une patholo­gie, les auteurs en déduisent sou­vent sans pré­cau­tion qu’il y a un lien entre le fac­teur de risque lui-même et cette patholo­gie. Une telle con­clu­sion néces­sit­erait de tenir compte de la loi de prob­a­bil­ité qui lie l’indicateur au fac­teur de risque, ce qui n’est pra­tique­ment jamais fait.

Mauvaise estimation du risque

Nég­liger les incer­ti­tudes sur les expo­si­tions con­duit à une esti­ma­tion erronée du risque relatif, dans un sens ou dans l’autre, et, en général, à une sous-esti­ma­tion de son inter­valle de con­fi­ance (IC). Dans ce cas, si IC est net­te­ment au-dessus de 1, la con­clu­sion que l’étude est pos­i­tive est le plus sou­vent val­able. En revanche, si IC est juste au-dessus de 1, l’étude sera con­sid­érée comme « pos­i­tive », mais elle ne l’est prob­a­ble­ment pas en réal­ité, comme on le mon­tr­erait en prenant cor­recte­ment en compte l’incertitude sur l’exposition. Ce type de « faux posi­tif méthodologique » explique un grand nom­bre des inco­hérences entre études épidémi­ologiques. Citons par exem­ple le nom­bre de mou­tons du trou­peau d’un éleveur choisi comme indi­ca­teur de l’exposition aux insec­ti­cides, ce qui ne prend en compte ni la fréquence et les tech­niques d’application des insec­ti­cides, ni les autres fac­teurs de risque, en par­ti­c­uli­er viraux, liés aux moutons.

Le code de câblage de Wertheimer et Leeper

Util­isé pour car­ac­téris­er les expo­si­tions rési­den­tielles aux champs mag­né­tiques, le code câblage de Wertheimer et Leep­er a fini par être aban­don­né car il ne reflé­tait pas les expo­si­tions de manière fiable.

Indi­ca­teur mal choisi
Dans une étude sur les leucémies, l’inverse de la dis­tance aux lignes à très haute ten­sion de la mai­son où est né un enfant a été pris comme indi­ca­teur de son expo­si­tion aux champs élec­tro­mag­né­tiques. L’analyse sta­tis­tique repose implicite­ment sur l’hypothèse que cet indi­ca­teur est par­fait alors qu’il a en réal­ité une très mau­vaise valeur pré­dic­tive de l’exposition réelle.

Le piège des sous-groupes

Faire un grand nom­bre de tests sta­tis­tiques dans une étude peut con­duire, par hasard, à un cer­tain nom­bre de tests posi­tifs. La réponse habituelle à cette dif­fi­culté est de ne con­sid­ér­er comme avérés que des risques retrou­vés par plusieurs études indépen­dantes. Cette atti­tude de pru­dence se heurte au fait qu’un risque non con­fir­mé mais forte­ment médi­atisé est con­sid­éré comme défini­tive­ment démon­tré par le pub­lic et les non-spé­cial­istes du domaine. Des tech­niques sta­tis­tiques appro­priées aux tests mul­ti­ples, comme celle de Holm-Bon­fer­roni, évi­tent de telles con­clu­sions erronées ; elles ne sont mal­heureuse­ment presque jamais utilisées.

Prenons pour exem­ple une étude cas témoins de la vac­ci­na­tion con­tre l’hépatite B qui con­clu­ait au risque de sclérose en plaques (SEP) après cette vac­ci­na­tion, dans un sous-groupe des cas qui fai­saient régulière­ment les vac­cins con­seil­lés, pour lesquels le délai vac­cin-SEP était supérieur à trois ans, et qui avaient util­isé un cer­tain type de vac­cin. Le risque relatif était RR # 1,7 ; l’IC 95 %. Dans ce cas, l’IC est très proche de 1, mais il n’y a guère d’incertitude sur l’exposition (le fait d’avoir été vac­ciné). En revanche, compte tenu de la mul­ti­plic­ité des sous-groupes testés, les auteurs ont réal­isé plus de 150 tests sta­tis­tiques, et la prob­a­bil­ité d’en obtenir un posi­tif par sim­ple hasard dépas­sait les 90%.

Les biais de mémorisation

Un risque non con­fir­mé mais forte­ment médi­atisé est con­sid­éré comme défini­tive­ment démontré

Des biais d’anamnèse (de mémori­sa­tion) peu­vent affecter les études cas témoins dont l’évaluation de l’exposition aux fac­teurs de risque repose sur un inter­roga­toire. L’exposition peut alors être sures­timée (les cas ont davan­tage ten­dance à se rap­pel­er les expo­si­tions que les témoins) ou sous-estimée (cas fréquent des expo­si­tions volon­taires). Un exem­ple est don­né par l’étude Inter­phone sur les risques du télé­phone portable. On savait dès sa mise en œuvre que ces risques étaient très faibles ou inex­is­tants ; on avait donc besoin d’une esti­ma­tion pré­cise de l’exposition, ici le nom­bre et la durée des appels.

Risques du téléphone portable

Résul­tats douteux
Le manque de fia­bil­ité des inter­roga­toires d’utilisateurs amène à s’interroger sur la pos­i­tiv­ité réelle de quelques résul­tats « posi­tifs » rap­portés par cer­taines études nationales faisant par­tie d’Interphone qui ont nég­ligé ces incer­ti­tudes. Par exem­ple, l’étude française qui rap­porte un risque de gliome avec RR # 1,02 ; IC 95% = [1,00/1,04]. Symétrique­ment, on peut s’interroger sur la réal­ité de la diminu­tion de 25% du risque de ménin­giome qu’assurerait l’utilisation du portable avec RR # 0,76 ; IC 95% = [0,65/0,89].

Mais, dès 2001, il était acquis que l’interrogatoire des util­isa­teurs sur leur con­som­ma­tion télé­phonique, util­isé pour Inter­phone, n’était fiable ni pour la durée ni pour le nom­bre des appels. En effet, selon les auteurs mêmes d’Interphone, « l’analyse de la con­cor­dance entre les don­nées estimées en 2001 par les sujets et celles mesurées par les opéra­teurs mon­tre une con­cor­dance assez médiocre (j = 0,34) mais sig­ni­fica­tive (p < 0,01) pour les nom­bres moyens d’appels. En revanche, il n’y a aucune con­cor­dance entre les durées réelles et les durées estimées au cours du pre­mier entre­tien (j = 0,18). […] la cor­réla­tion entre les nom­bres [d’appels] estimés et mesurés, et plus encore celle des durées, est très mau­vaise. » Encore cet inter­roga­toire a‑t-il été con­duit en juin 2001 sur les appels d’octobre 2000 à mars 2001 ; qu’en est-il pour les appels datant de plusieurs années util­isés dans Interphone ?

Supériorité des études de cohortes

Ces exem­ples illus­trent la supéri­or­ité des études de cohort­es pour lesquelles une quan­tifi­ca­tion objec­tive, en temps réel, des expo­si­tions est sou­vent possible.

On peut citer par exem­ple la cohorte Agri­can, plus grande étude mon­di­ale sur la san­té en milieu agri­cole. Réu­nie par l’université de Caen avec l’aide de la Mutu­al­ité sociale agri­cole, elle regroupe 180 000 cohortistes et ses pre­miers résul­tats vien­nent d’être pub­liés, four­nissant pour la pre­mière fois des don­nées fiables sur les divers­es expo­si­tions et le risque de can­cer chez les agriculteurs.

Des faiblesses ?

Mais une étude de cohort­es n’est pas tou­jours exempte de faib­less­es. Par exem­ple, pub­liée en octo­bre 2011, une étude de cohorte danoise ne trou­ve aucun lien entre l’utilisation du portable et la sur­v­enue de tumeurs cérébrales.

Par­tant d’une cohorte com­prenant presque tous les adultes danois, d’un reg­istre réper­to­ri­ant 10 729 tumeurs cérébrales, et d’un reg­istre des abon­nements à un portable, cette étude a une « puis­sance » sta­tis­tique bien supérieure à Inter­phone, sans biais pos­si­ble d’interrogatoire. Mais elle ne pour­ra pas clore le débat. En effet, cer­taines per­son­nes, con­sid­érées dans l’étude comme non-util­isa­teurs de porta­bles, pour­raient l’être en réal­ité, les porta­bles pro­fes­sion­nels n’ayant pas été pris en compte et l’abonnement à un portable n’étant con­nu que jusqu’en 1995, alors que le recueil des cas de tumeurs cérébrales va jusqu’en 2007. D’autre part, l’exposition pro­pre­ment dite (durée totale des appels) n’est pas prise en compte, ce qui évite tout biais d’anamnèse, mais dimin­ue la sen­si­bil­ité de l’étude.

Étude de cohortes
Une étude de cohort­es est le plus sou­vent prospec­tive. Si l’on reprend l’exemple de la respon­s­abil­ité d’un événe­ment E dans la sur­v­enue d’une mal­adie M, une étude de cohort­es con­siste à recruter un grand nom­bre de per­son­nes (les « cohortistes »), exposés à E ou non, mais indemnes de la mal­adie M. On attend ensuite que la mal­adie M se man­i­feste sur un cer­tain nom­bre de cohortistes, en esti­mant régulière­ment, pour chaque cohortiste, l’exposition à l’événement E. Quand suff­isam­ment de cas de M se sont déclarés, on peut cal­culer la force du lien entre E et M, sous la forme d’un « risque relatif ». L’estimation de l’exposition se faisant en temps réel, elle est en général plus fiable que l’estimation rétro­spec­tive des études cas témoins (surtout si elle repose sur un interrogatoire).
Les prin­ci­paux incon­vénients d’une étude de cohort­es sont le coût et la durée, qui aug­mentent avec la rareté de la mal­adie M puisqu’il faut atten­dre que les cas se déclarent.

Autres pièges

Cer­taines études n’ont pas la puis­sance suff­isante (par exem­ple pas assez de cas) pour met­tre en évi­dence un faible risque. Si le risque est réel, cette sous-esti­ma­tion de l’effectif néces­saire con­duit le plus sou­vent à un faux négatif. Dans le cas con­traire, elles con­duisent sou­vent à des faux posi­tifs, car ce sont les études les plus sen­si­bles aux fac­teurs de con­fu­sion et aux biais divers, et elles ali­mentent ain­si des polémiques infondées.

Cer­taines études n’ont pas la puis­sance suff­isante pour met­tre en évi­dence un faible risque

Enfin, la sur­in­ter­pré­ta­tion des études peut con­duire à con­sid­ér­er comme prob­a­bles, voire avérées ou causales, des asso­ci­a­tions dont la vraisem­blance biologique est qua­si nulle. Comme le remar­que Valleron, « l’analyse sta­tis­tique des résul­tats implique qu’explicitement ou implicite­ment on tienne compte des con­nais­sances a pri­ori rel­a­tives aux hypothès­es testées ». Cette prise en compte des con­nais­sances a pri­ori n’est pas tou­jours util­isée pour tem­pér­er des résul­tats inso­lites qui ne devraient être admis qu’avec un niveau de preuve incon­testable, compte tenu de leur faible vraisemblance.

Pour une échelle de validité des études épidémiologiques

Pour ren­forcer l’impact des études épidémi­ologiques de qual­ité, heureuse­ment nom­breuses, il est donc impor­tant d’élaborer une échelle sim­ple et lis­i­ble de valid­ité des études épidémi­ologiques, qui éval­ue leur fia­bil­ité méthodologique et le degré de preuve qu’elles appor­tent. Les pro­fes­sion­nels du domaine, les médias, le pub­lic, les décideurs et les épidémi­ol­o­gistes ont tout à y gagner.

L’épidémiologie est indis­pens­able à la san­té publique. L’impact de ses études dont les résul­tats sont sou­vent relayés, voire ampli­fiés, par les médias lui con­fère un rôle majeur pour l’orientation des poli­tiques de san­té, l’analyse de risque, l’évaluation de la dan­gerosité et l’acceptabilité des tech­niques nou­velles. Ce pou­voir con­fère à l’épidémiologie des respon­s­abil­ités san­i­taires, sociales, sci­en­tifiques, pro­fes­sion­nelles, économiques et finan­cières, voire con­tentieuses ; il implique aus­si une grande rigueur méthodologique et une inter­pré­ta­tion pondérée des résultats.

Con­flits d’intérêt

L’auteur est ancien mem­bre (bénév­ole) du con­seil sci­en­tifique de Bouygues.
Prési­dent du con­seil médi­cal d’EDF-GdF Suez.

Commentaire

Ajouter un commentaire

chevallierX68répondre
3 décembre 2011 à 8 h 50 min

mer­ci pour cet arti­cle très
mer­ci pour cet arti­cle très intéres­sant. j’ai relu avec beau­coup d’in­térêt ton arti­cle paru en 2001 relatif à Tchernobyl.
dans le cadre de la cam­pagne pour les futures élec­tions prési­den­tielles, la médi­ati­sa­tion actuelle et out­ran­cière sur les risques de l’én­ergie nucléaire me désole d’au­tant plus que, comme tu le dis, “un risque non con­fir­mé mais forte­ment médi­atisé est con­sid­éré comme défini­tive­ment démontré”.

Répondre