Risques environnementaux : attention aux pièges

Dossier : Épidémiologie : au service de la santéMagazine N°670 Décembre 2011
Par André AURENGO (67)

REPÈRES

REPÈRES
L’épidémiologie joue un rôle clef dans la prise de décision en santé publique grâce aux données sur l’état sanitaire des populations et à l’analyse des risques. En médecine clinique, elle est le fondement de l’evidence based medicine. Enfin, elle devrait permettre l’élaboration et l’évaluation d’une politique de santé rationnelle et efficace. Recueillir de manière systématique des données sur des effectifs parfois considérables lui permet de lisser de nombreuses particularités individuelles et d’avoir une puissance statistique élevée, éventuellement renforcée par le regroupement des données de plusieurs études.

Parce qu’elle fournit des données sur l’état sanitaire, qu’elle concourt à l’analyse des risques et à l’évaluation des pratiques et de la politique de santé, l’épidémiologie se révèle irremplaçable.

Études contradictoires
En 1995, dans l’article intitulé «L’épidémiologie rencontre ses limites », Gary Taubes relevait le nombre important d’études contradictoires dans ce domaine. Il expliquait que ces faibles risques concernent des populations tellement importantes qu’ils pourraient avoir un impact sanitaire important, mais que de nombreux épidémiologistes admettent que leurs études contiennent tellement de biais, d’incertitudes et de faiblesses méthodologiques qu’ils sont incapables de discerner avec précision des risques aussi faibles.

Mais elle rencontre des difficultés pour répondre clairement sur le niveau, voire la réalité, des risques liés à de faibles expositions, en particulier environnementales. Qu’il s’agisse, par exemple, des champs électromagnétiques de très basse fréquence, des antennes de téléphonie mobile, des téléphones portables, des faibles doses de rayonnements ionisants, du radon, des pesticides ou des faibles consommations d’alcool, la multiplicité des études épidémiologiques aux résultats contradictoires ne peut que désorienter le public et les décideurs. Ces discordances sont souvent liées à l’absence de prise en compte des incertitudes sur les expositions aux facteurs de risques suspectés, à la multiplication des tests statistiques et à la présence de biais incontrôlables.

L’épidémiologie rencontre ses limites

Les études aux résultats contradictoires désorientent le public et les décideurs

Les succès observés ne doivent pas cacher les difficultés que rencontre l’épidémiologie à répondre clairement sur le niveau, voire la réalité, des risques liés à de faibles expositions comme on les rencontre en particulier dans notre environnement. En 1995, Gary Taubes avait relevé le nombre important d’études contradictoires dans ce domaine. En 2008, dans Les Faux Positifs de l’épidémiologie en cancérologie : un appel à la réserve en épidémiologie, Paolo Boffetta montrait la fréquence des faux positifs, en expliquait les principales raisons et relançait un débat nécessaire.

Incertitudes sur les expositions

Étude cas témoins
Une étude cas témoins, par exemple sur la responsabilité d’un événement E dans la survenue d’une maladie M, consiste à recruter d’une part des personnes présentant la maladie M (les «cas») et d’autre part des personnes indemnes de cette maladie (les «témoins»), puis d’estimer pour les cas et les témoins l’exposition au produit P. On peut ensuite calculer la force du lien entre le produit P et la maladie M, sous la forme d’un « risque relatif » RR d’attraper la maladie M quand on est exposé au produit P. Une étude cas témoins est par définition rétrospective ; elle est toujours réalisée après la survenue de la maladie. Si la maladie M est rare, une étude cas témoins permet de prendre en compte rapidement un nombre de cas important et d’obtenir un résultat en un temps raisonnable.

La majorité des études environnementales sont rétrospectives, de type cas témoins. Elles permettent de quantifier, sous la forme d’un « risque relatif » RR et de son intervalle de confiance IC, le lien éventuel entre un facteur de risque et une pathologie. Le risque est considéré comme significativement augmenté si l’intervalle de confiance IC est au-dessus de la valeur 1. On dit alors que l’étude est « positive » (ce qui prouve que facteur de risque et pathologie sont liés, mais pas que le premier est la cause de la seconde).

Ces études nécessitent une estimation rétrospective de l’exposition au facteur de risque étudié et à d’autres facteurs éventuellement impliqués dans les mêmes pathologies. Cette estimation repose, quand c’est possible, sur des données directes et objectives, sinon on a recours à des données d’interrogatoire ou encore à un «indicateur de l’exposition» censé la refléter. L’exposition est ainsi estimée avec un éventuel biais et, dans tous les cas, avec un certain degré d’incertitude.

Facteurs de risque et pathologies

L’incertitude n’est pratiquement jamais prise en compte dans l’analyse statistique

Ce n’est pas l’incertitude elle-même qui pose problème, mais le fait qu’elle n’est pratiquement jamais prise en compte dans l’analyse statistique, alors que des techniques existent pour le faire. De plus, quand une étude montre une association entre un indicateur d’exposition et une pathologie, les auteurs en déduisent souvent sans précaution qu’il y a un lien entre le facteur de risque lui-même et cette pathologie. Une telle conclusion nécessiterait de tenir compte de la loi de probabilité qui lie l’indicateur au facteur de risque, ce qui n’est pratiquement jamais fait.

Mauvaise estimation du risque

Négliger les incertitudes sur les expositions conduit à une estimation erronée du risque relatif, dans un sens ou dans l’autre, et, en général, à une sous-estimation de son intervalle de confiance (IC). Dans ce cas, si IC est nettement au-dessus de 1, la conclusion que l’étude est positive est le plus souvent valable. En revanche, si IC est juste au-dessus de 1, l’étude sera considérée comme « positive », mais elle ne l’est probablement pas en réalité, comme on le montrerait en prenant correctement en compte l’incertitude sur l’exposition. Ce type de «faux positif méthodologique» explique un grand nombre des incohérences entre études épidémiologiques. Citons par exemple le nombre de moutons du troupeau d’un éleveur choisi comme indicateur de l’exposition aux insecticides, ce qui ne prend en compte ni la fréquence et les techniques d’application des insecticides, ni les autres facteurs de risque, en particulier viraux, liés aux moutons.

Le code de câblage de Wertheimer et Leeper
 
Utilisé pour caractériser les expositions résidentielles aux champs magnétiques, le code câblage de Wertheimer et Leeper a fini par être abandonné car il ne reflétait pas les expositions de manière fiable.
Indicateur mal choisi
Dans une étude sur les leucémies, l’inverse de la distance aux lignes à très haute tension de la maison où est né un enfant a été pris comme indicateur de son exposition aux champs électromagnétiques. L’analyse statistique repose implicitement sur l’hypothèse que cet indicateur est parfait alors qu’il a en réalité une très mauvaise valeur prédictive de l’exposition réelle.

Le piège des sous-groupes

Faire un grand nombre de tests statistiques dans une étude peut conduire, par hasard, à un certain nombre de tests positifs. La réponse habituelle à cette difficulté est de ne considérer comme avérés que des risques retrouvés par plusieurs études indépendantes. Cette attitude de prudence se heurte au fait qu’un risque non confirmé mais fortement médiatisé est considéré comme définitivement démontré par le public et les non-spécialistes du domaine. Des techniques statistiques appropriées aux tests multiples, comme celle de Holm-Bonferroni, évitent de telles conclusions erronées ; elles ne sont malheureusement presque jamais utilisées.

Prenons pour exemple une étude cas témoins de la vaccination contre l’hépatite B qui concluait au risque de sclérose en plaques (SEP) après cette vaccination, dans un sous-groupe des cas qui faisaient régulièrement les vaccins conseillés, pour lesquels le délai vaccin-SEP était supérieur à trois ans, et qui avaient utilisé un certain type de vaccin. Le risque relatif était RR # 1,7 ; l’IC 95 %. Dans ce cas, l’IC est très proche de 1, mais il n’y a guère d’incertitude sur l’exposition (le fait d’avoir été vacciné). En revanche, compte tenu de la multiplicité des sous-groupes testés, les auteurs ont réalisé plus de 150 tests statistiques, et la probabilité d’en obtenir un positif par simple hasard dépassait les 90%.

Les biais de mémorisation

Un risque non confirmé mais fortement médiatisé est considéré comme définitivement démontré

Des biais d’anamnèse (de mémorisation) peuvent affecter les études cas témoins dont l’évaluation de l’exposition aux facteurs de risque repose sur un interrogatoire. L’exposition peut alors être surestimée (les cas ont davantage tendance à se rappeler les expositions que les témoins) ou sous-estimée (cas fréquent des expositions volontaires). Un exemple est donné par l’étude Interphone sur les risques du téléphone portable. On savait dès sa mise en œuvre que ces risques étaient très faibles ou inexistants ; on avait donc besoin d’une estimation précise de l’exposition, ici le nombre et la durée des appels.

Risques du téléphone portable

Résultats douteux
Le manque de fiabilité des interrogatoires d’utilisateurs amène à s’interroger sur la positivité réelle de quelques résultats «positifs » rapportés par certaines études nationales faisant partie d’Interphone qui ont négligé ces incertitudes. Par exemple, l’étude française qui rapporte un risque de gliome avec RR # 1,02; IC 95% = [1,00/1,04]. Symétriquement, on peut s’interroger sur la réalité de la diminution de 25% du risque de méningiome qu’assurerait l’utilisation du portable avec RR # 0,76; IC 95% = [0,65/0,89].

Mais, dès 2001, il était acquis que l’interrogatoire des utilisateurs sur leur consommation téléphonique, utilisé pour Interphone, n’était fiable ni pour la durée ni pour le nombre des appels. En effet, selon les auteurs mêmes d’Interphone, « l’analyse de la concordance entre les données estimées en 2001 par les sujets et celles mesurées par les opérateurs montre une concordance assez médiocre (j = 0,34) mais significative (p < 0,01) pour les nombres moyens d’appels. En revanche, il n’y a aucune concordance entre les durées réelles et les durées estimées au cours du premier entretien (j = 0,18). […] la corrélation entre les nombres [d’appels] estimés et mesurés, et plus encore celle des durées, est très mauvaise. » Encore cet interrogatoire a-t-il été conduit en juin 2001 sur les appels d’octobre 2000 à mars 2001 ; qu’en est-il pour les appels datant de plusieurs années utilisés dans Interphone ?

Supériorité des études de cohortes

Ces exemples illustrent la supériorité des études de cohortes pour lesquelles une quantification objective, en temps réel, des expositions est souvent possible.

On peut citer par exemple la cohorte Agrican, plus grande étude mondiale sur la santé en milieu agricole. Réunie par l’université de Caen avec l’aide de la Mutualité sociale agricole, elle regroupe 180 000 cohortistes et ses premiers résultats viennent d’être publiés, fournissant pour la première fois des données fiables sur les diverses expositions et le risque de cancer chez les agriculteurs.

Des faiblesses?

Mais une étude de cohortes n’est pas toujours exempte de faiblesses. Par exemple, publiée en octobre 2011, une étude de cohorte danoise ne trouve aucun lien entre l’utilisation du portable et la survenue de tumeurs cérébrales.

Partant d’une cohorte comprenant presque tous les adultes danois, d’un registre répertoriant 10 729 tumeurs cérébrales, et d’un registre des abonnements à un portable, cette étude a une «puissance» statistique bien supérieure à Interphone, sans biais possible d’interrogatoire. Mais elle ne pourra pas clore le débat. En effet, certaines personnes, considérées dans l’étude comme non-utilisateurs de portables, pourraient l’être en réalité, les portables professionnels n’ayant pas été pris en compte et l’abonnement à un portable n’étant connu que jusqu’en 1995, alors que le recueil des cas de tumeurs cérébrales va jusqu’en 2007. D’autre part, l’exposition proprement dite (durée totale des appels) n’est pas prise en compte, ce qui évite tout biais d’anamnèse, mais diminue la sensibilité de l’étude.

Étude de cohortes
Une étude de cohortes est le plus souvent prospective. Si l’on reprend l’exemple de la responsabilité d’un événement E dans la survenue d’une maladie M, une étude de cohortes consiste à recruter un grand nombre de personnes (les «cohortistes»), exposés à E ou non, mais indemnes de la maladie M. On attend ensuite que la maladie M se manifeste sur un certain nombre de cohortistes, en estimant régulièrement, pour chaque cohortiste, l’exposition à l’événement E. Quand suffisamment de cas de M se sont déclarés, on peut calculer la force du lien entre E et M, sous la forme d’un « risque relatif ». L’estimation de l’exposition se faisant en temps réel, elle est en général plus fiable que l’estimation rétrospective des études cas témoins (surtout si elle repose sur un interrogatoire).
Les principaux inconvénients d’une étude de cohortes sont le coût et la durée, qui augmentent avec la rareté de la maladie M puisqu’il faut attendre que les cas se déclarent.

Autres pièges

Certaines études n’ont pas la puissance suffisante (par exemple pas assez de cas) pour mettre en évidence un faible risque. Si le risque est réel, cette sous-estimation de l’effectif nécessaire conduit le plus souvent à un faux négatif. Dans le cas contraire, elles conduisent souvent à des faux positifs, car ce sont les études les plus sensibles aux facteurs de confusion et aux biais divers, et elles alimentent ainsi des polémiques infondées.

Certaines études n’ont pas la puissance suffisante pour mettre en évidence un faible risque

Enfin, la surinterprétation des études peut conduire à considérer comme probables, voire avérées ou causales, des associations dont la vraisemblance biologique est quasi nulle. Comme le remarque Valleron, «l’analyse statistique des résultats implique qu’explicitement ou implicitement on tienne compte des connaissances a priori relatives aux hypothèses testées». Cette prise en compte des connaissances a priori n’est pas toujours utilisée pour tempérer des résultats insolites qui ne devraient être admis qu’avec un niveau de preuve incontestable, compte tenu de leur faible vraisemblance.

Pour une échelle de validité des études épidémiologiques

Pour renforcer l’impact des études épidémiologiques de qualité, heureusement nombreuses, il est donc important d’élaborer une échelle simple et lisible de validité des études épidémiologiques, qui évalue leur fiabilité méthodologique et le degré de preuve qu’elles apportent. Les professionnels du domaine, les médias, le public, les décideurs et les épidémiologistes ont tout à y gagner.

L’épidémiologie est indispensable à la santé publique. L’impact de ses études dont les résultats sont souvent relayés, voire amplifiés, par les médias lui confère un rôle majeur pour l’orientation des politiques de santé, l’analyse de risque, l’évaluation de la dangerosité et l’acceptabilité des techniques nouvelles. Ce pouvoir confère à l’épidémiologie des responsabilités sanitaires, sociales, scientifiques, professionnelles, économiques et financières, voire contentieuses ; il implique aussi une grande rigueur méthodologique et une interprétation pondérée des résultats.

Conflits d'intérêt
 
L’auteur est ancien membre (bénévole) du conseil scientifique de Bouygues.
Président du conseil médical d’EDF-GdF Suez.

Commentaire

Ajouter un commentaire

chevallierX68répondre
décembre 2011 à 8 h 50 min

merci pour cet article très
merci pour cet article très intéressant. j’ai relu avec beaucoup d’intérêt ton article paru en 2001 relatif à Tchernobyl.
dans le cadre de la campagne pour les futures élections présidentielles, la médiatisation actuelle et outrancière sur les risques de l’énergie nucléaire me désole d’autant plus que, comme tu le dis, « un risque non confirmé mais fortement médiatisé est considéré comme définitivement démontré ».

Répondre