Que nous apprennent les nouveaux risques ? Vers la construction d’un nouveau paradigme ou comment l’effet critique adverse s’impose !
Valentine Erné-Heintz, maître de conférences en sciences économiques, membre du CERDACC
Mots clés : risques émergents, évaluation, ALARA, Paracelse, effet critique adverse
Quel est le point commun entre les perturbateurs endocriniens, les conséquences du bisphénol A, du distilbène, des PCB ou des maladies à l’âge adulte ayant des origines fœtales ? Tout simplement, ils échappent à la perception : ils deviennent invisibles et « restent tapis dans les formules des physiciens et des chimistes » (Ulrich Beck[1], 1992). Le contexte est à l’ambiguïté, l’incertitude est radicale. Il est impossible de lister l’ensemble des possibles et/ou d’y affecter des probabilités. Cette incertitude reflète aussi la limite cognitive d’un expert ou d’un scientifique qui ne peut envisager l’ensemble des conséquences. L’équation (risque = aléa * vulnérabilité) est caduque. En l’espèce, comment évaluer les conséquences environnementales et sanitaires du 7e continent ? Ce dernier, d’une taille de près de 3,5 millions de km2 (5 fois la France), se situe au nord-est du Pacifique ; il stocke les déchets plastiques et déstabilise l’ensemble de la chaîne alimentaire : les tortues confondent sacs plastiques et méduses, les poissons se nourrissent de microgranules en remplacement de plancton. Les toxines (DDT, PCB, bisphénol A, phtalates) s’accumulent et s’agglutinent énergétiquement. Ce paradis des POP (polluants organiques persistants) n’est en réalité qu’une catastrophe écologique silencieuse.
Traditionnellement, les principes de l’évaluation et de la gestion du risque se basent sur la notion de risque acceptable[2] sur lequel repose le principe de Paracelse : « plus la dose est faible, plus le risque est réduit ». Cependant, cette notion répond à une logique qui assimile respect de seuils avec protection de la santé des individus. Or, elle ne dit rien sur le cumul des expositions ou de la bioaccumulation. En outre, elle assimile la population vulnérable à un individu moyen issu d’une simple extrapolation statistique (de l’animal à l’homme ou d’une proportionnalité de doses). Dès lors, l’approche rationalisée et bureaucratisée des risques néglige les risques émergents et les signaux d’alerte émanant de sources différentes – comme le savoir profane[3] – que celles des voies officielles (agences d’expertise). Le principe de régulation des risques doit alors être revu à la fois sous l’auspice de la relation dose/effet et du droit à l’information. Nous allons donc voir comment le principe de l’ALARA (as low as reasonably possible) va, inévitablement, être progressivement abandonné au bénéfice de l’effet critique adverse.
I. De l’abandon du principe de l’ALARA (as low as reasonably possible) …
La démarche d’évaluation[4] du risque s’articule autour de quatre étapes comme le présente le schéma suivant : lors de la première, il s’agit d’identifier le danger en établissant des liens de causalité via la construction d’une base de données ; il s’en suit alors la définition d’une relation dose-réponse[5] (relation cause à effet) qui permet, selon le principe de Paracelse, de définir le niveau à partir duquel la substance devient-elle dangereuse. Ensuite, l’évaluation des expositions distribue des niveaux d’exposition dans les populations concernées et exposées. Elle est l’étape antérieure à l’étude d’impact qui permet de savoir s’il existe ou non des limites. L’approche est soit ex post comme dans le cas du nuage de Tchernobyl, soit ex ante à partir d’une future installation à risques. Elle peut être avec seuil (il existe une dose sans effet) ou sans seuil (une dose correspond à un risque négligeable). Dans ce contexte, le risque permet de dompter l’aléa via des mesures de sécurité. Dans le cas d’une entreprise industrielle classée, l’étude de dangers liste l’ensemble des dangers potentiels et intrinsèques (causes d’un accident) afin de prévoir les scénarios (analyse des risques) et, par conséquent, les mesures de prévention[6] pour éviter ou limiter les dommages et assurer des secours efficaces. L’évaluation du risque est donc à la fois une démarche de quantification et de qualification[7] d’une source de danger.
Schéma : Une façon d’évaluer le risque acceptable
Cependant, la dose ne fait pas toujours le poison ! Certaines substances nous obligent à changer de paradigme : il existe des effets transgénérationnels, des effets stochastiques du fait de mélanges et d’une durée d’exposition longue. L’approche traditionnelle ne permet pas, par exemple, de répondre à la question suivante : les additifs alimentaires augmentent-ils le risque d’allergies, de diabète, d’obésité, d’hyperactivité, d’autisme ou de maladies dégénératives ?
Si le principe de Paracelse nous a enseigné qu’une dose entrainait tel effet, il laisse une controverse quant aux faibles doses chroniques. Ainsi, au-delà d’un certain seuil, certaines substances chimiques provoquent des troubles de la reproduction de la fertilité ou un risque de cancer accru. L’échelle d’observation appartient au long terme ; ce qui rend la production d’informations d’autant plus délicate. En mai 2013, 89 scientifiques affirment, à travers la déclaration de Berlaymont[8], que l’incertitude scientifique ne doit pas retarder la mise en place d’une réglementation. Ainsi, dans le cas de faibles doses mélangées, la question de la vulnérabilité du comportement de ces substances sur un organisme vivant se trouve posée : ce n’est pas tant le risque cancer, mais la morbidité qui est posée. Nous nous retrouvons à la limite de la capacité à hiérarchiser des risques par l’identification de populations vulnérables et du traitement des incertitudes. D’ailleurs, qui est vulnérable ? La relation santé / environnement n’est pas uniformément répartie au sein de la population : s’agit-il de femmes enceintes, de personnes âgées, des riverains, des travailleurs sur site ? Ces nouvelles questions laissent le principe ALARA (as low as reasonably possible) de côté au bénéfice du principe de précaution. Le rapport du National Research Council de 2007, intitulé Testing toxicity in the 21st century. A vision and a strategy[9] affirme clairement les limites du paradigme de Paracelse.
En effet, il se pose ici un problème de preuve toxicologique, de preuve épidémiologique, de la durée d’exposition et du mélange des substances (effet cocktail). Le raisonnement substance par substance ne tient plus puisque la considération de synergies[10] possibles dépasse le principe de l’addition simple d’effets nocifs. Dans ce contexte, comment tester cette multi-toxicité ? S’il n’est plus possible de définir un seuil, il sera plus délicat de construire une relation bénéfice / risque. Déjà dans les années 60, la Commission internationale de protection radiologique (CIPR) affirmait qu’en matière radiologique, il est impossible de déterminer un seuil minimal en-dessous duquel une dose de rayonnements serait sans effet. La relation serait linéaire sans seuil. Pour autant, les autorités publiques ont établi des seuils maxima d’exposition. Ces limites annuelles d’exposition pour la population sont celles du code de la santé publique. Actuellement, la dose maximale admissible de 1 mSv par an. En réalité, les expositions à la radioactivité varient considérablement d’une personne à une autre selon le nombre de diagnostics et de traitements ; le plus souvent la limite est dépassée. Faut-il alors interdire les scanners ou les radioscopies ?
L’approche se base sur les avantages eu égard aux coûts induits par cette dose ; un risque accru est acceptable dès lors que les bénéfices attendus dépassent les coûts. Cependant, sous l’angle de la relation dose/effet, il est aujourd’hui question du cumul des expositions et des limites de la Science à analyser l’interaction des substances. Or les relations entre les substances ne sont pas toutes monotones : il n’est donc plus possible de raisonner sur de simples extrapolations de doses/réponses. Traditionnellement, le scientifique apporte des réponses à l’expert qui statue en connaissance de cause. La gestion est top-down et repose sur une délégation du pouvoir décisionnel et du choix. C’est dans ce contexte que le statisticien Alain Desrosières[11] (2006 ; 1993) rappelle comment la statistique s’est transformée : outil de connaissance, elle est devenue un outil de gouvernement. L’assurance joue indéniablement le rôle de régulateur et de planificateur des risques par l’objectivation de liens statistiques voire déterministes, agréant alors l’Etat protecteur et instigateur de campagnes de prévention de jouer un rôle dans la protection des individus et la prévention des risques. En d’autres termes, c’est aussi une remise en cause de la statistique en tant qu’outil de gestion : il n’est pas toujours sûr que la quantification soit source d’objectivité. Par le choix des hypothèses, du type de modélisation et du type de corrélation[12] entre les données, le statisticien conditionne les résultats : les connaissances scientifiques sont donc également construites ; elles sont le fruit d’une certaine subjectivité. Effectivement, dès lors que les connaissances produites ont conduit à l’acceptation d’un niveau de risque, il va de soi que le rôle (la responsabilité) de producteurs de savoirs peut se trouver poser. D’ailleurs, la théorie des catastrophes fait l’hypothèse d’une rationalité limitée des individus : l’issue du problème dépend de la quantité de paramètres pris en compte. La complexité du problème – ou sa simplification – n’est donc pas neutre dans la solution retenue. Dès lors, ne retenir que le seul aspect « coût/bénéfice » peut biaiser l’approche.
II. … au bénéfice de l’effet critique adverse !
En conséquence de quoi, la philosophie du seuil n’est plus applicable. D’ailleurs, les résultats obtenus en milieu confiné dans un laboratoire sont-ils transposables à l’extérieur où le milieu est bien plus complexe ? Aujourd’hui, l’Homme vit dans un monde pollué (air intérieur, eau, sol, aliments, air extérieur, …) et subit de nombreux risques d’exposition en-dehors de celui qu’il a délibérément choisi. La persistance de ces sources – faibles mais chroniques – provoque un effet de bioaccumulation qu’il est difficile à mesurer (résidus de pesticides et d’antibiotiques dans les eaux potables[13], par exemple). Ainsi, nous serions tous chimiquement contaminés. Aujourd’hui, un nouveau concept s’impose dans l’évaluation du risque : l’effet critique adverse s’interprète comme une réponse à la contestation d’un effet seuil ou dose acceptable. Ce n’est plus la dose qui fait le poison, mais sa durée. Il est donc question de l’exposition chronique à de faibles doses et de leurs effets à long terme sur la santé ou l’environnement. Le problème de l’origine des cancers, de la multiplication des allergies ou de l’augmentation d’un type de diabète ou encore des perturbateurs endocriniens est alors au cœur de ce nouveau paradigme. Il s’agit de s’interroger sur les effets cumulatifs d’une exposition à des ondes électromagnétiques, des additifs alimentaires, des résidus de pesticides tout autant que des composants organiques volatiles. En Angleterre, une étude épidémiologique – connue sous le nom de Barker hypothesis – a été mise en place dans les années 80 pour mesurer les effets à long terme[14]. La cohorte porte sur des individus nés en 1946. Depuis mars 2011, la France suit la cohorte Elfe[15] (Etude longitudinale française depuis l’enfance) pour mettre en évidence les effets des polluants et des modes nutritifs sur le développement moteur, cognitif et social des 20 000 enfants.
Dans ce nouveau paradigme dans lequel s’inscrit le principe de précaution, le véritable enjeu est la création de savoirs. Cette attente d’informations modifie la place de l’expertise : paradoxalement, elle voit son rôle à la fois s’accentuer par la nécessité de produire un savoir consensuel sur un risque donné, mais aussi s’atténuer voire décrédibiliser par cette difficulté à aboutir à un consensus. Il existe incontestablement un risque de blocage dans les négociations. Ainsi, Bernard Chevassus-au-Louis[16] (2009) distingue ainsi plusieurs types d’incertitude.
Schéma : Les types d’incertitude selon Chevassus-au-Louis (2009)
L’incertitude radicale fait référence à une très faible disponibilité d’informations ; la faible convergence entre les experts aboutit souvent à une absence de consensus (cas des effets cumulatifs ou des très faibles doses). L’incertitude consensuelle est une situation dans laquelle il n’existe que peu d’informations expérimentales ou de publications mais la convergence entre les experts rend l’arbitrage possible ; ce fût le cas de la vache folle en 1996-98. Quant à l’incertitude conflictuelle, elle résulte d’une absence de consensus du fait de débats très violents entre scientifiques et/ou experts et ce malgré l’existence d’une abondante littérature (ogm, effets des ondes électromagnétiques). Dans ce dernier cas, le relativisme crée une polémique stérile : la controverse se suffit à elle-même[17].
Par conséquent, le type d’incertitude conditionne le niveau maîtrisable du risque : le décideur qui privilégie la plausibilité axe son action plutôt vers une décision réglementaire (il y a peu d’intérêt à la discussion en raison de fortes divergences d’opinion). Le décideur qui préfère l’acceptabilité définit des campagnes d’informations en transférant le risque en amont (cas de la directive Reach[18]) ou en aval (via la transparence dans la chaîne alimentaire[19] i.e. « de la ferme à l’assiette »). En d’autres termes, la subjectivité du Politique intervient dans la définition du risque acceptable. Pourtant l’urgence de la décision n’est pas toujours compatible avec le temps de la connaissance, qui appartient au long terme alors que paradoxalement, le besoin d’information du citoyen est immédiat. En somme, les risques émergents révèlent surtout un besoin d’informations et d’expériences que nous ne disposons pas encore. D’ailleurs, un éventuel effet domino suggère au contraire que l’approche traditionnelle ne paraît pas raisonnable. Faut-il alors anticiper un point de rupture ? Le pire des scénarios ? Dans ces conditions, le principe de précaution peut être interprété de diverses manières : selon le point de vue (abstentionniste ou non), l’incitation à investir et à accepter l’innovation diffère considérablement : la croissance durable peut être durable ou non soutenable !
En conclusion, ce nouveau paradigme pour la toxicologie du 21e siècle se base sur des analyses in vitro visant à tester les effets de la façon la plus précoce possible afin de hiérarchiser les composants chimiques. En réalité, il s’agit aussi d’une révolution scientifique[20] puisque la biologie (toxicologie) des systèmes s’introduit dans l’approche toxicologique (clinique) traditionnelle. Elle est interdisciplinaire[21] par excellence et conduit à confronter les méthodologies entre la toxicologie animale, humaine et l’écotoxicologie. C’est à ce titre que l’expologie concilie les aspects toxicologiques avec les effets épidémiologiques pour mettre en avant la notion d’expositions multiples. Mais c’est une discipline récente en cours de construction. D’ailleurs, avons-nous les moyens humains, techniques et financiers pour détecter et répliquer les études ? En biologie, pour réduire le coût des études, les tailles des échantillons sont réduites et des équivalences d’extrapolation sont posées. Ainsi, deux doses chez des macaques sont supposées équivalentes à dix doses sur une souris ; une étude sur les macaques correspond à trente études sur les rats[22]. Cette hypothèse de quasi-reproductibilité des résultats peut être questionnée. Il en est de même pour la durée des études. Un des éléments de contestation des études sur les ogm porte sur les 90 jours : ce délai est-il suffisant pour analyser les effets à long terme sur l’organisme et sur le vivant en général ? Dans un contexte de crise économique, la disponibilité des moyens conditionne la validité des résultats. L’urgence d’une réponse politique à un problème sanitaire et environnemental pêche également au détriment d’une approche sur le long terme. En d’autres, il n’est pas sûr que dans ce contexte précis, les études épidémiologiques ou toxicologiques disponibles soient toujours pertinentes dans l’évaluation des risques. C’est la raison pour laquelle, la gestion top/down (du scientifique vers l’expert puis vers le politique) n’est pas forcément la meilleure réponse.
[1] Beck Ulrich, La société du risque. Sur la voie d’une autre modernité, Champ Flammarion, 2003, version originale, 1992
[2] Erné-Heintz V. (2010), « Le principe de précaution rend-il l’évaluation incontournable ? », Risques, Etudes et Observations, www.riseo.fr, n°1
[3] Erné-Heintz V. (2013), « OGM et autres sujets : plaidoyer pour le savoir profane », n° 128, janvier, http://www.jac.cerdacc.uha.fr/ ; Erné-Heintz V. (2012), « OGM : faut-il un référendum pour juger de leur acceptabilité sociale ? », n° 122, février, http://www.jac.cerdacc.uha.fr/
[4] Toute la difficulté dans une situation incertaine sera de satisfaire les conditions à chaque étape. Ainsi, lors de l’identification du danger, il existe, par exemple, une incertitude épidémiologique concernant une éventuelle transposition des résultats de l’animal à l’homme. Dans le cas de la relation dose-réponse, quels sont les effets à long terme des très faibles doses subies de façon chronique ? La difficulté est d’autant plus grande pour les maladies à long terme de latence comme les cancers.
[5] Pour l’épidémiologiste Bradford Hill (1965) : « une association entre une exposition et un effet est considérée comme causale si un ensemble d’arguments positifs est réuni ». Dès lors qu’une association est considérée comme forte, le risque est dit élevé (ex: l’exposition à des rayons ionisants augmente le risque de leucémie).
[6] Erné-Heintz V. (2010), Les risques : subir ou prévenir ?, collection Transversale Débats, Ellipses
[7] Attribuer des valeurs chiffrées à chacune des options permet de hiérarchiser ces dernières. L’un des enjeux dans l’évaluation d’une qualité environnementale ou d’une dégradation d’un état sanitaire va dans ce sens. C’est ce qu’on appelle la quantitative risk assessment.
[8]http://www.brunel.ac.uk/__data/assets/pdf_file/0005/300200/The_Berlaymont_Declaration_on_Endocrine_Disrupters.pdf
[9] http://coeh.berkeley.edu/greenchemistry/cbcrpdocs/ToxTesting21st.pdf.
[10] Même si cet effet synergie ne fait pas l’objet d’un consensus chez les biologistes. Pour plus de précisions, nous invitons le lecteur à se référer à deux articles de la revue Science : Arnold SSF, Klotz DM, Collins BM, Vonier PM, Guillette LJ, McLachlan JA, « Synergistic activation of estrogen receptor with combinations of environmental chemichals » (1996, n°272, pp.1489-1492) ; et McLachlan JA, « Synergetic effect of environmental estrogen : report withdrawn » (1997, n°277, pp.462-463).
[11] Desrosières Alain (2006), « De Cournot à l’évaluation des politiques publiques : Paradoxes et controverses à propos de la quantification, Prisme, n°7, avril ; Desrosières Alain (1993), La politique des grands nombres : Histoire de la raison statistique, Paris, La Découverte
[12] Définir les variables significatives dans une démarche inductive repose sur un choix d’un type d’ajustement (linéaire ou logarithmique par exemples) qui conditionne les hypothèses de modélisation : ainsi, l’existence d’une rupture s’observe à travers une comparaison donc une différence de pente entre deux ajustements linéaires de séries chronologiques. Toute la problématique réside dans la manière d’articuler les données et la théorie. A cet égard, les économistes logiciens-mathématiciens s’opposent ainsi aux économistes historicistes ou institutionnalistes : ces derniers privilégient les statistiques descriptives et refusent les lois théoriques générales.
[13] Erné-Heintz V. (2002), « Le risque industriel en Alsace : compte-rendu du colloque du 25 octobre à l’Ecole Nationale d’Administration », n° 28, novembre, http://www.jac.cerdacc.uha.fr/
[14] Pearson H., « Study of lifetime », Nature, n° 471, pp.20-24.
[16] Chevassus au Louis B. « Qualifier ou quantifier l’incertitude : quelle évaluation des risques ? », Colloque AFSSET, « Gouverner l’incertitude : les apports des sciences sociales à la gouvernance des risques sanitaires environnementaux », 6 et 7 juillet 2009
[17] L’étude de Séralini intervient dans un contexte précis : les ogm sont devenus un sujet politique éminemment subjectif où la rationalité semble faire défaut. Or, les questions scientifiques demeurent ouvertes. Pourquoi la discussion n’est-elle plus possible ? Cette étude n’est pourtant pas la seule à s’interroger sur leurs dangers potentiels (Sawaminathan et al, 2011 ; Shiva, 2011; Séralini et al, 2007). En l’espèce, en 2007, les Archives of Environmental Contamniation and Toxicology (mars 2007) soulignent des dérèglements significatifs lors de l’assimilation des ogm par des animaux. De même, en 2009, le recours judiciaire de Greenpeace Allemagne (contre Monsanto) avait permis d’obtenir les résultats bruts d’une analyse qui confirmait la présence de risques de toxicité.
[18] Erné-Heintz V. (2004), « Le projet REACH : une nouvelle réglementation pour l’industrie chimique », n° 47, septembre, http://www.jac.cerdacc.uha.fr/ ; Erné-Heintz V. (2007), « Reach : vers un nouvel accord ? », n° 71, février, http://www.jac.cerdacc.uha.fr/
[19] Erné-Heintz V. (2008), « Comment le règlement CE n°396/2005 du 23 février 2005, entré en vigueur le 1er septembre 2008, nie le lien entre environnement et santé », n° 89, http://www.jac.cerdacc.uha.fr/
[20] Il ne faut se tromper. Les querelles restent fortes et les réponses de la biologie traditionnelle ne sont pas muettes : la question des faibles doses serait résolue à travers la question des « faux positifs » statistiques.
[21] Erné-Heintz V. (2013), « Les sciences sociales dans l’expertise », n° 134, avril,http://www.jac.cerdacc.uha.fr/
[22] Exemples cités (page 15) par Chateauraynaud, Debaz et Fintz, dans un rapport ANSES d’avril 2011 intitulé La dose fait-elle toujours le poison ?
Poster un Commentaire