HIGHLIGHTS 38 Avril 29, 2015

L'enfant au bord du trottoir

Représentez-vous votre petit garçon s'agrippant fermement à votre main alors que vous vous demandez si vous allez le laisser traverser une route à plusieurs pistes et de surcroît incroyablement fréquentée. Et voici que l'absurde intervient: en utilisant les statistiques comme elles le sont dans le domaine scientifique, s'il n' y a QUE 94% de risques que votre enfant soit renversé et tué,vous devriez le laisser traverser car vous n'avez pas prouvé le danger, ou - si vouspréférez - "le risque n'est pas statistiquement significatif".Ceci est naturellement absurde. Personne ne laisserait l'enfant traverser dans de telles circonstances.  

 

La doctrine

Cependant, contrairement à votre intuition, la précédente métaphore est entièrement correcte si vous pensez au niveau de certitude dont un scientifique doit se prévaloir pour affirmer qu'un gène, un produit chimique ou tout autre élément faisant l'objet d'une étude provoquera telle action spécifique. "Un scientifique ne peut dire qu'un remède provoque telle réaction avant que sa certitude n'ait atteint 95% ou plus", confirme le docteur Louis Guillette1.

dr Louis Guillette Louis Guillette, professeur d'obstétrique et de gynécologie à l'Université médicale de Caroline du Sud.

1 | Docteur Louis Guillette, professeur d'obstétrique et de gynécologie, Université médicale de Caroline du Sud; titulaire de la chaire de génomique marine, laboratoire marin Hollings; professeur à l'Institut médical Howard Hughes. Le docteur Guillette étudie les mécanismes selon lesquels les facteurs environnementaux influencent l'évolution, le développement et le fonctionnement du système reproductif chez les vertébrés (l'influence des agents contaminateurs sur la génétique du développement et la biologie reproductrice, tant dans la faune que chez l'être humain, met en danger la biologie reproductrice des espèces et l'évolution de la communication chimique entre la mère et le fétus).

De là le "J'ai besoin de 95% de certitude que votre enfant sera renversé avant de pouvoir vous affirmer le lien de cause à effet entre l'action de traverser la rue et l'accident." En tant que scientifique, si mes données n'évaluent ce lien qu' à 94%, alors je dois dire qu'il n'y a AUCUN lien de cause à effet. Voilà en quoi réside la base de la certitude statistique des 95%. Je détiens des quantités de données atteignant 90% d'associations mais ne puis les présenter comme liens de causalité dans aucune publication."

Naturellement, c'est sur cette méthode que s'appuient les agences de régulation quand elles en viennent à choisir les études d'évaluation du danger. Qu'il s'agisse du changement climatique, des contaminations d'origine chimique, c'est du pareil au même. Si un certain pesticide devait être un jour testé sur l'être humain - et si l'étude ne montrait pas de résultats significatifs (en d'autres termes, s'il y avait moins de 5% de chance que le résultat soit dû au hasard), cette étude ne serait pas prise en considération.

Ceci a pour résultat que, bien que nous sachions qu'un nombre notoire de personnes meurent du cancer dans une ville possédant une décharge responsable d'infiltrations de substances chimiques nocives, nous ne sommes pas autorisés à avancer que l'exposition à ces déchets est la source de ces cancers tant que des enquêteurs ne l'auront pas prouvé. Voilà que la situation se corse. Pour être convaincus qu'il y a une relation de cause à effet entre cette déchèterie et les cancers, nous devons nous plier non seulement à une analyse statistique significative montrant qu'il y a plus de cancers qu'on ne pourrait en attendre aléatoirement (se procurer un groupe de contrôle constitué d' "humains non contaminés" est déjà impossible) mais nous devons également fournir la preuve que les victimes ont été exposées aux produits chimiques de la décharge et que ces mêmes produits provoquent réellement des cancers. En sachant qu'un laps de temps assez important peut s'écouler entre la période d'exposition et le moment réel du développement de la plupart des cancers, la tâche qui consiste à prouver que la décharge est bien à l'origine des maladies affectant une part de la population, cette tâche est quasiment impossible.

Au lieu de nous appuyer sur le bon sens, nous sommes entraînés sur une voie aux déceptions incalculables.

Et pourtant, il n'en demeure pas mois que "la signification statistique" est le Saint-Graal de la science. Elle est appliquée avec la dernière rigueur pour rejeter les découvertes qui ne se conforment pas à ses standards, même si cela va à l'encontre de tout bon sens.

Le juste Équilibre

Le docteur Terrence Collins souligne que certains problèmes scientifiques nécessitent un niveau de fiabilité statistique exceptionnel pour acquérir toute leur valeur. "Par exemple, pour les physiciens, en raison des types de problèmes qu'ils ont à traiter, les marges d'erreur sont souvent absolument invisibles. Les données doivent être si rapprochées que, lors d'une analyse statistique, les barres d'erreur sont là, juste là au point de se confondre.

Dr. Terrence J. Collins Dr. Terrence J. Collins, Teresa Heinz Professor of Green Chemistry, Carnegie Mellon University.

En biologie, les barres d'erreurs prennent souvent de l'importance en raison d'une plus grande complexité. Lorsqu'il est question des formes de la vie, deux créatures ne sont pas vraiment semblables, alors que toutes les molécules d'un composé le sont (en partant du principe que l'expérimentateur s'est attaché à purifier l'objet de sesobservations). Ce haut degré d'incertitude est de règle lorsqu'il s'agit du phénomène de perturbation endocrinale, un domaine où les expériences représentent un défi de taille (de faibles doses administrées à plusieurs organismes et dont les effets, pour cruciaux qu'ils soient, n'en sont pas moins microscopiques, et où la détection peut exiger des compétences très avancées que seuls possèdent quelques rares chercheurs). Toutefois, il est remarquable de constater combien les marges d'erreur sont étroites dans maintes analyses de perturbation endocrinale".

En ce qui concerne l'épidémiologie, l'étude des associations entre les produits chimiques et les maladies affectant les personnes est rendue d'autant plus difficile quel'on ne peut effectuer d'expériences directement sur des êtres humains (expérience dite « sous contrôle »), sauf circonstances exceptionnelles.



Des expériences contrôlées impliquent que l'on fait tout ce qui est en son pouvoir pour réduire la variabilité. Par exemple, n'utiliser qu'une souche de souris, les garder dans le même type de cage, les nourrir de la même façon ... et exposer un groupe à un produit toxique et l'autre non. Si vous observez une différence statistiquement significativeentre les groupes, vous pouvez alors annoncer avec confiance que le produit toxique est la cause de l'effet observé.

Mais, on ne rencontre pas chez deux personnes une biologie identique ou un même historique de vie. Ce qui fait que le moindre échantillon humain connaîtra un nombre incalculable de sources de variation. Certaines sont naturellement évidentes: âge, race, sexe, etc. Mais les identifier toutes est impossible. Qui, durant son enfance, a été exposé à un mélange de produits chimiques et auquel? Quelle était la part de contamination de la mère? Toute source inconnue de variabilité ajoute "un bruit statistique" aux mesures, accroissant la difficulté à dégager des résultats statistiquement significatifs.

L'irrationnel

Revenons à notre scène surréaliste au bord du trottoir: si vous oubliez votre bon sens et agissez conformément au protocole scientifique, (ignorant ainsi dans votre obéissance l'étude qui avance qu'il N'Y A QUE 94% de risques que votre enfant soit renversé) vous direz à votre fils de se lancer et de s'exposer aux voitures car la situation est officiellement considérée comme sûre. De même, la règle du 95% vous oblige à ignorer les données, qu'il s'agisse des effets toxiques chroniques ou aigus d'un produit chimique.

dr Naomi Oreskes Naomi Oreskes, professeur d'Histoire des Sciences à Harvard

Naomi Oreskes, dans le New York Times, s'exprime encore plus directement: "La limite de confiance fixée à 95% n'a aucune base logique ou naturelle. C'est une pure construction mentale, une convention ancrée dans une longue tradition dans l'histoire des Sciences et valorisant le scepticisme comme antidote à la croyance religieuse. La science est conservatrice et les nouvelles revendications de découvertes sont accueillies avec le plus grand scepticisme. Lorsque Copernic a découvert que la Terre tournait autour du Soleil, quand Wegener a articulé la théorie de la dérive des continents et que Darwin a soutenu que les espèces évoluaient grâce à la sélection naturelle, le fardeau de la preuve qu'il en était ainsi leur incomba.

Aux 18ème et 19ème siècles, ce conservatisme se manifesta sous la forme de l'exigence d'une grande quantité de preuves; mais au 20ème, on adopta l'exigence de la signification statistique."

La protection statistique empeche-t-elle la precaution?

Ronald Fischer, biologiste évolutionniste, eugéniste et mathématicien du début du XXème siècle, décrivit ce niveau des 95% de confiance comme une méthode destinée à éviter aux chercheurs l'Erreur appelée de "Type 1" 2 - (permettant de ce fait de s'assurer que le résultat observé d'une expérience n'était pas seulement dû à un coup de chance).

2 |L'Erreur de Type 1 (une valeur positive erronée) détecte un effet qui n'est pas présentou, en d'autres termes, conclut qu'un effet (ou un lien) supposé existe alors qu'en fait il n'existe pas. Par exemple, un test montrant qu'un patient est atteint d'une maladie alors qu'il est en parfaite santé.

Une Erreur de Type 2 (une valeur négative erronée) échoue à détecter un effet qui est présent - le patient est sur le point de mourir de la variole mais l'examen ne décèle rien d'anormal.

Appliquée à l'évaluation des risques environnementaux, l'Erreur de Type 1 met le fardeau de la preuve sur les victimes plutôt, par exemple, que sur le fabricant d'un produit nocif. (Prouvez-moi que c'est nocif.) Ainsi de nombreux patients devrontdécéder pour que s'instaure le soupçon que leur mort a peut- être été provoquée par l'ingestion de trop d'insecticide. Ainsi, si nous évaluons tous les produits chimiques (exception faite pour les produits pharmaceutiques) à l'aune de l'Erreur de Type 1, nous pourrions échouer à protéger ceux qui sont réellement en danger.

Les produits pharmaceutiques, par contraste, sont évalués avec soin d'après l’Erreur de Type 2, du moins en principe (la mise en pratique reste souvent bien en deçà de l'objectif). En tant que tels, ils sont soumis à un régime totalement différent: le fabricant doit satisfaire à d’innombrables tests - sur les êtres humains - et faire tout son possible pour démontrer que le médicament est efficace et n'est pas nocif avant l'obtention de l'autorisation de diffusion.

dr Ronald Fisher Docteur Ronald Fisher, détenteur en 1943 de la chaire Balfour en Génétique à l'Université de Cambridge. Il s'opposa à la Déclaration de l'UNESCO sur la race et croyait intimement que les groupes humains différaient profondément "dans leur capacité innée à se développer intellectuellement et émotionnellement" et que "le problème international est celui qui consiste à apprendre à partager amicalement les ressources de cette planète avec des personnes de nature très différente." Il s'opposaégalement aux scientifiques qui soutenaient que fumer provoquait le cancer des poumons.

Et, c'est ainsi que ce seuil de 95% constitue toujours pour les scientifiques un moyen utile de se protéger contre de fausses affirmations. Des conclusions erronées qui seraient acceptées en l'absence d'analyse statistique sont tellement embarrassantes qu’elles sont susceptibles de ruiner une réputation, construite au cours de toute une vie,et de mettre terme à une carrière.

L'objectif de ce standard est, bien entendu, d'empêcher des scientifiques filous d'introduire des constatations fausses dans le débat public et la prise de décisions politiques et d'éviter les répercussions négatives d'une telle science sur des populations entières. (Même si des études peuvent être conçues pour induire en erreur, mais ceci est un tout autre sujet).

Cependant, cette règle pousse la science tout entière dans une direction opposée avec pour conséquence que, si elle peut s'avérer bonne dans la protection des scientifiques, elle échoue tout simplement à protéger la santé publique. Tout cela parce que le résultat est que la science est encline à privilégier l'opposé: "l'Erreur de Type 2", c'est-à-dire à se montrer trop conservatrice et oublieuse. Elle omet d'énoncer les causes et effets tangibles réellement présents.

Quand le seuil de 95% s'applique à l'évaluation des dangers des produits chimiques ou aux changements climatiques, la crainte de perdre la face conduit les scientifiques et les agences de régulation à considérablement sous-estimer la gravité de la situation.




Il se pourrait bien alors que le standard magique de Ronald Fisher soit un obstacle à la précaution.3

3 | Conformément aux nouvelles réglementations, par exemple REACH, le fardeau de la preuve en ce qui regarde la sécurité incombe au fabricant: cependant, les nombreux"trous" dans REACH font que cette loi n'est pas vraiment mise en œuvre.

En réalité, le Principe de précaution 4, dominé par la peur d'une Erreur de Type 2 est rarement appliqué, même s'il est en accord avec notre bon sens. Le Principe de précaution existe pour aider les gens à agir lorsque la science n'est pas certaine mais que de nombreux indicateurs laissent entrevoir de possibles problèmes.

4 | Le Principe de précaution "si une action ou une politique présente un risque soupçonné de faire du mal au public ou à l'environnement, en l'absence d'un consensus scientifique sur l'innocuité de l'action ou du plan, le fardeau de la preuve de cette innocuité incombe à ceux qui souhaitent implémenter cette action."

Le seul problème avec le Principe de précaution est qu'il est rarement appliqué. Le 2 février 2000, la Commission européenne a publié une "communication" sur l'adoption d'une procédure pour l'application du Principe de précaution mais sans en proposer de définition détaillée. Depuis 2006, il a été intégré aux lois de l'Union européenne maisn’a produit que peu de cas de mise en œuvre effective. La nouvelle directive européenne sur les pesticides s'est faite l'écho de l'interdiction évidente d'un pesticide qui serait un perturbateur endocrinien, mais délais et querelles à propos des définitions rendent cette loi inapplicable.

a katz / Shutterstock

La fine ligne de demarcation entre scientifique et activiste

Cette situation se reflète dans la façon dont les scientifiques s'autocensurent. Oreskes relève que, pour éviter l'Erreur de Type1, les scientifiques "refusent souvent de recourir au langage du danger alors même que c'est précisément de danger dont ils parlent et ceux qui le font (s’ils s’expriment face à un auditoire) choisissent avec circonspection des termes nuancés."

Il existe une frontière invisible entre les disciples de l'Erreur de Type1 (principalement les scientifiques) et les disciples de l'Erreur de Type 2 (les "partisans" et les "activistes"). Les scientifiques considèrent que s'exprimer comme les activistes dénote un manque de professionnalisme. Ces scientifiques qui, voyant un danger, le révèlent au public en un langage accessible, s'exposent à être traités d'activistes par leurs propres pairs. Plus important pour leur carrière, ils courent également le risque de perdre des fonds - souvent collectifs - destinés à des travaux ultérieurs. C'est une des raisons pour lesquelles si peu de scientifiques plaident clairement en faveur de la précaution.


Terry Collins abonde en ce sens. "L'obsession qui consiste à vouloir éviter les erreurs de Type1 est également le résultat de réticences de personnes dont le domaine de prédilection ne peut fonctionner autrement. Ils ont de la peine à accepter que quelqu'un puisse travailler avec une plus grande marge d'incertitude, parce que cela remet en jeu l'essence même du logiciel fonctionnel, base de leur carrière indépendante et de leur spécialisation. Ils éprouvent une peine infinie à sortir de leur bunker. Ces personnes ont tendance à fréquenter les couloirs du pouvoir en affichant leur renommée et expérience, que leur âge atteste, et une confiance en soi qui font d'eux, croient-ils, les gardiens de la qualité."

Le Carnage

Pourquoi de telles absurdités ont-elles droit de cité? Une raison pourrait en être que les gens ont tendance à réagir face aux images sanglantes plutôt qu'aux images subtiles.

dr Paul Ehrich Docteur Paul Ehrich, professeur de Démographie au Département des Sciences biologiques de l'Université de Stanford et président du Centre de Biologie de la Conservation.

Au cours des millions d'années de l'histoire humaine, nous avons appris à réagir promptement aux menaces physiques immédiates et violentes: l'attaque d'un animal, d'un voisin fou ou d'une tribu hostile. La violence ou des images de carnage (comme celle du corps d'un enfant, ensanglanté, méconnaissable, écrasé sur un pare-chocs) provoquent automatiquement le même dégoût et réaction, un peu comme lorsque nous reculons devant un serpent répugnant ou une maladie contagieuse. (Moins de 9000 morts dus à Ebola 5 ont provoqué plus d'agitation dans les media au cours des quatre derniers mois que les 361 millions de diabétiques 6 de par le monde.) Les menaces rampantes ne sont pas instinctivement identifiées. La partie reptilienne denotre cerveau réagit beaucoup mieux au carnage visible et immédiat.

5 | OMS Ebola, rapport sur la situation (http://www.who.int/csr/disease/ebola/situation-reports/en/ )

6 | Le diabète affecte plus de 371 millions d'individus dans le monde et l'on s'attend à compter 552 millions de personnes touchées d'ici à 2030. IDF: link: idf.org/ diabetesatlas/5e/ Update2012 http://www.who.int/csr/disease/ebola/situation-reports/en/

"Les êtres humains ont élaboré un merveilleux arsenal de mécanismes permettant l'observation et la réaction aux changements soudains en considérant intellectuellement l'arrière-plan environnemental comme étant constant, de manière à faire ressortir les changements", souligne Paul Ehrlich, dans son ouvrage "The Dominant Animal - Human Evolution and the Environment".

"Mais les individus ne sont pas suffisamment armés pour détecter les changements intervenant dans cet arrière-plan, comme l'accumulation des gaz à effet de serre ou celle des composés toxiques dans leurs environnements. Une pierre projetée contre la tête de quelqu'un est immédiatement assimilée à une mise en danger; il n'en est pas de même pour les mots et graphiques illustrant la progression de la production des gaz à effet de serre."

La Culture

Une autre raison est que les progrès industriels (et chimiques) actuels ne connaissent aucun précédent dans notre histoire ce qui a pour conséquence une inadéquation de nos normes sociales face aux problèmes de pollutions toxiques.

Dans le passé, la pollution environnementale était inconnue: les produits chimiques de synthèse n'existaient pas et les métaux lourds ainsi que les matériaux radioactifs dormaient en sûreté dans la croûte terrestre. Jusqu'au milieu du 18ème siècle, et exception faite de l'Empire romain et de son usage malencontreux du plomb, nos ancêtres ne disposaient pas de la technologie pour détruire des royaumes entiers à l'aide de substances toxiques invisibles 7 En l'absence de plastique, tous nos déchets étaient biodégradables. Pesticides ou produits pharmaceutiquespotable. Il n’y avait pas de notion de crime environnemental.

7 | Quelques parties par trillion représentent une quantité énorme pour une hormone ou un produit chimique toxique provoquant des perturbations endocriniennes.



La plus grave menace environnementale était une éruption volcanique. La déforestation et l'épuisement des sols, qui ont tout de même provoquésl'anéantissement de civilisations entières, se déroulaient de manière trop lente pour être appréhendés et évités.

La doctrine du 1%

Tandis que nous ne possédons pas de normes adéquates pour réagir aux menaces de contamination toxique, nous possédons des doctrines pour minimiser les dangersgraves, tels que les attaques terroristes ou les accidents d'avions de lignes.

D'énergiques mesures de précaution sont prises pour la sécurité dans les airs et sur les routes, contre les incendies ou la noyade. Et, bien sûr, aucune compagnie aérienne ne pourrait vendre de billets si leurs avions n'avaient « que» 94% de risques de s'écraser.

Les traitements médicaux se poursuivent, même confrontés à l'incertitude voire au doute qu'il soit question d'une appendicite, d'un lymphome ou d'une césarienne. Plus d'un traitement médical moderne n'aurait perduré si l'on avait exigé l'absolue certitude, la signification statistique. Les médecins prennent régulièrement la décision de suivre des procédures auxquelles ne correspond aucune certitude statistique. À leurs yeux, éviter une Erreur de Type2 est plus important qu'éviter une Erreur de Type1.

Et il y a les guerres, bien entendu. Dans ce domaine, l'exemple le plus spectaculaire concerne la Doctrine de Cheney 8,d'après laquelle les USA sont prêts à se lancer dans une guerre avec 1% de certitude et non 96%. (Le vice-président américain a prononcé ces mots célèbres: "S'il y a 1% de risque que les scientifiques pakistanais aident Al Qaïda à fabriquer ou à développer une arme nucléaire, nous avons à considérer cette menace comme une certitude en termes de réponse de notre part. Il n'est ici pas question de notre analyse... Il est question de notre réponse.")

8 |8. La Doctrine du 1% ( également nommée Doctrine Cheney) fut créée en novembre 2001, durant une réunion dirigée par George Tenet, alors directeur de la CIA, et un rapporteur anonyme auprès du vice-président Dick Cheney et de Condoleezza Rice, Conseillère à la sécurité nationale, en réponse aux préoccupations concernant un scientifique pakistanais qui offrait à Al Qaïda son expertise des armes nucléaires après l'attaque terroriste du 11 septembre 2001. Réagissant à l'idée que Al Qaïda pourrait désirer acquérir l'arme nucléaire, Cheney fit remarquer que les USA se trouvaient face à une menace d'un nouveau type, "un événement à faible probabilité mais à fort impact potentiel", comme il le décrivit.

"La Doctrine du 1%" est également un ouvrage documentaire (classé en troisième place par le New York Times, le 24 juillet 2006, dans la liste des ouvrages les mieux vendus) écrit sur la guerre depuis le 11 septembre 2001 par Ron Suskind, journaliste et lauréat du Prix Pulitzer.

Asianet-Pakistan / Shutterstock

Un accord

Nous sommes gouvernés par nos convenances. Il ne s'agit pas de remettre en question la théorie mathématique derrière la signification statistique ni d'en contester la valeur scientifique. Ce qui est intéressant ici est la façon dont notre société traite une doctrine appliquée au domaine de la santé publique et comment elle l'applique. Comment elle RÉPOND à une situation quand les intérêts de la certitude scientifique entrent en conflit avec la sécurité publique. Une sécurité publique mise en danger non par des armées étrangères mais par des ennemis de l’intérieur.

Le bon sens, et non la signification statistique, s'exerce dans notre vie quotidienne.

Comme tout père le confirmerait "Lorsque vous entendez une rumeur que quelqu'un est en train d'agresser votre fille, vous n'attendez pas d'avoir 20 confirmations avant d'intervenir, vous n'attendez pas une preuve à 95%."

À moins que, guidés par notre instinct et notre bon sens, nous n'agissions maintenant avec notre cœur et notre intelligence pour changer nos conventions et revoir nos règlementations, nous continuerons à être, en image, écrasés au bord du trottoir, et serons prêts à faire courir de graves risques à nos enfants.