mmrobin

Les paysans s’organisent et la DJA (suite)

Les 19 et 20 mars , une soixantaine d’agriculteurs malades se sont réunis à Ruffec, pour lancer l’association Phyto Victimes. Soutenue par Générations futures, cette réunion vise à rassembler les agriculteurs, qui partout en France souffrent de pathologies liées à l’utilisation des pesticides, pour mener des actions communes – y compris judiciaires – à destination des pouvoirs publics et des fabricants de poisons agricoles. Elle fait suite à la réunion que j’avais filmée en janvier 2010 à Ruffec et qui commence mon film et livre Notre poison quotidien:

http://www.mdrgf.org/news/news190311_phyto_victimes.html

La veille de la réunion, le 18 mars, une projection de Notre poison quotidien a été organisée à La Salle de Villefagnan, à une dizaine de kilomètres de Ruffec, à laquelle j’ai participé avec François Veillerette de Générations Futures et Paul François, l’agriculteur victime d’une grave intoxication au Lasso de Monsanto, qui a été élu président de Phyto Victimes (photo).

Comme promis, je mets en ligne la suite du chapitre que j’ai consacré à la DJA dans mon livre Notre poison quotidien (en librairie le 24 mars).

Le concept clé de la NOAEL, « dose sans effet toxique observé »

Évidemment, tout cela n’est guère rassurant, surtout quand on sait, comme on l’a vu au cours des chapitres précédents, à quel point l’industrie est prête à tout pour maintenir sur le marché ses produits, aussi toxiques soient-ils. Et logiquement, on peut craindre qu’il en soit de même quand il s’agit d’obtenir l’homologation des dits produits. Concrètement, les « études toxicologiques » sont conduites sur des animaux de laboratoire, car, comme l’écrit Diane Benford, « il ne serait pas éthique de tester un produit chimique sur des volontaires humains, à moins qu’il y ait un degré raisonnable de confiance qu’ils ne souffriront pas de dommages[i] ». Cette remarque n’est pas anodine, car elle souligne la première approximation – d’aucuns diront « absurdité » – qui caractérise le système d’évaluation des produits toxiques que l’on a délibérément décidé d’introduire dans notre assiette, au nom d’une certaine idée du « progrès ». « Sans aucun doute, expliquait ainsi René Truhaut, des données provenant d’études humaines seraient plus satisfaisantes pour estimer le risque couru par les humains, […] mais cette approche idéale se heurte à de nombreuses difficultés et limitations. […] C’est pourquoi il a été postulé que, jusqu’à preuve du contraire, l’homme devrait se comporter comme l’espèce la plus sensible testée et, en conséquence, il est plus adéquat de sélectionner l’espèce animale la plus comparable à l’homme[ii]. » Voilà qui est pour le moins… « flou », pour reprendre le terme utilisé précédemment par le « père de la DJA », d’autant plus qu’aucun modèle expérimental n’a été développé pour déterminer quelle était l’espèce animale la plus susceptible de se comporter comme les humains, en cas d’intoxication par des produits chimiques. Faute de quoi on utilise généralement des rongeurs (souris, rats, lapins) et, dans les cas plus délicats, des chiens et des singes.

Dans un premier temps, on expose les cobayes à une dose élevée de la substance testée, généralement par voie orale, pour déterminer ce que l’on appelle la « dose létale » ou, dans le jargon la « DL 50 », c’est-à-dire la dose qui tue la moitié des animaux. On se souvient (voir supra, chapitre 2) que la fameuse « DL 50 » est une déclinaison de la « loi de Haber », du nom du chimiste allemand qui inventa les gaz de combat. Celle-ci exprimait une relation entre la concentration d’un gaz et le temps d’exposition nécessaire pour provoquer la mort d’un être vivant : plus le produit des deux facteurs était petit, plus le pouvoir létal du gaz était grand. Il en est de même pour la DL50, qui est une valeur indicative du degré de toxicité, par exemple, d’un pesticide. Et le « père de la guerre chimique » avait constaté que l’exposition à une concentration faible de gaz toxique pendant une longue période avait souvent le même effet mortel qu’une exposition à une dose élevée pendant une courte durée. Curieusement, les agences de réglementation, mais aussi le JECFA et le JMPR, semblent ignorer ces conclusions, car leurs experts s’évertuent à croire qu’il est possible de trouver une dose inoffensive à long terme, même quand la substance se révèle mortelle à forte dose.

En effet, la deuxième étape du processus d’évaluation toxicologique consiste à baisser la dose qui a servi à établir la DL50 pour observer quels sont les effets sur les cobayes. « On recherche toute une série d’effets nocifs possibles, m’a ainsi expliqué Diane Benford. Par exemple, on essaie de savoir si le produit endommage les tissus ou les organes, s’il provoque des effets sur le système nerveux ou immunitaire, et on s’intéresse tout particulièrement à son potentiel cancérigène, parce que bien sûr c’est quelque chose qui préoccupe les gens ».

De fait, quand on lit la monographie qu’a rédigée la toxicologue pour l’ILSI, on est impressionné par la liste des études toxicologiques que les industriels sont censés fournir aux agences de réglementation. Les « effets » qu’ils sont tenus d’investiguer concernent « les changements fonctionnels (comme la perte de poids), les changements morphologiques (taille accrue des organes ou anormalités pathologiques), la mutagénicité (modifications de l’ADN, des gènes et chromosomes transmissibles et ayant le potentiel de causer des cancers ou des malformations du fœtus), la cancérogénicité, l’immunotoxicité (hypersensibilité, allergie, dépression du système immunitaire conduisant à une susceptibilité accrue aux affections), la neurotoxicité (changements comportementaux, surdité, acouphènes), la reprotoxicité (baisse de la fertilité, avortement spontané, malformations congénitales) ».

Selon le type d’effet recherché, la durée des études varie entre deux semaines (toxicité à court terme) et deux ans (cancérogénicité), pendant lesquels les cobayes ingèrent quotidiennement une certaine dose de poison, car l’objectif de ces tests est de mesurer la toxicité chronique et donc les effets provoqués par une exposition prolongée et répétée dans le temps. Les expériences sont conduites jusqu’à obtenir une dose qui apparemment ne provoque aucun effet sur les animaux : c’est la « NOAEL » (acronyme de « no observed adverse effect level », « dose sans effet toxique observé »).

« Peut-on dire que la NOAEL est un seuil de sécurité ?, ai-je demandé à Diane Benford.

– Dans la vie, il n’y a aucun domaine où l’on puisse garantir une sécurité absolue, a-t-elle admis, en regardant résolument ses mains. En fait, cela dépend de la qualité des études conduites sur les animaux. Si l’étude est médiocre, on risque d’être passé à côté d’effets qu’on aurait pu observer dans une étude de très bonne qualité… C’est pourquoi il a été décidé d’appliquer un facteur de sécurité qui consiste à diviser la NOAEL par cent pour obtenir la DJA. »

Les « facteurs de sécurité » : un bricolage « absolument inacceptable »

« La NOAEL est une mesure floue, qui n’est pas extrêmement précise », m’a affirmé pour sa part Ned Groth, un biologiste qui fut expert pendant vingt-cinq ans de la Consumers Union, la principale organisation de consommateurs des États-Unis. À ce titre, il participa régulièrement aux forums organisés par la FAO et l’OMS sur la sécurité des aliments. « C’est pourquoi les gestionnaires du risque utilisent ce qu’ils appellent un facteur de “sécurité” ou d’ “incertitude”. L’approche standard utilisée depuis cinquante ans par les toxicologues consiste à diviser la NOAEL par un facteur de cent. En fait, ils appliquent un premier facteur de dix pour tenir compte des différences qui peuvent exister entre les animaux et les humains, car on n’est pas sûr que les hommes réagissent exactement de la même manière que les animaux au produit chimique ; puis, ils appliquent un deuxième facteur de dix pour prendre en compte les différences de sensibilité entre les humains eux-mêmes, car, bien sûr, celle-ci varie selon qu’on est une femme enceinte, un enfant, une personne âgée ou une personne atteinte d’une maladie grave. La question est de savoir si c’est suffisant. Nombreux sont ceux qui soutiennent qu’un facteur de dix pour tenir compte de la variabilité humaine est beaucoup trop faible. Pour une même dose, l’effet pourra être nul pour certaines personnes, mais il pourra être énorme pour d’autres.

– Mais sait-on sur quelle base scientifique ce facteur de cent a été fixé ?, ai-je demandé.

– Ça s’est décidé à quatre autour d’une table[1] !, m’a répondu l’expert en environnement. C’est ce qu’a rapporté Bob Shipman, un ancien de la Food and Drug Administration, dans une conférence à laquelle j’ai assisté. Il a dit : “C’était dans les années 1960, il fallait que nous trouvions une manière de déterminer quel niveau de produit toxique on pouvait autoriser sur les aliments. On s’est réuni et on l’a fait”[iii] ! »

Ce que raconte l’expert américain est confirmé par… René Truhaut en personne qui, dans son article de 1973, reconnaît que le fameux « facteur de sécurité », censé constituer l’ultime rempart contre la toxicité des poisons, relève de l’empirisme le plus pur : « Un facteur de sécurité quelque peu arbitraire de cent a été largement accepté et ce chiffre a été recommandé par le JECFA dans son deuxième rapport, écrit-il. Mais il ne serait pas raisonnable de l’appliquer d’une manière trop rigide[iv]. » Dans sa monographie, Diane Benford fait exactement le même constat : « Par convention, un facteur d’incertitude de cent est normalement utilisé, par défaut, car, à l’origine, ce fut, une décision arbitraire[v]. » Au passage, elle souligne que la principale source « de variation et d’incertitude » du processus d’évaluation réside dans la différence qui existe entre des animaux de laboratoire élevés dans des conditions d’hygiène maximales et exposés à une seule molécule chimique, et la population humaine qui présente une grande variabilité (génétique, maladies, facteurs de risque, âge, sexe, etc.) et est soumise à de multiples expositions.

Fidèle à son franc-parler, le Britannique Erik Millstone tranche d’une formule qui a le mérite de la clarté : « Le facteur de sécurité qui est censé être de cent est un chiffre tombé du ciel et griffonné sur un coin de nappe ! D’ailleurs, dans la pratique, les experts changent régulièrement la valeur du facteur au gré de leurs besoins : parfois, ils utilisent un facteur de mille, quand ils estiment qu’une substance présente des problèmes de sécurité très préoccupants ; parfois, ils le réduisent à dix, parce que, s’ils appliquaient un facteur de cent, cela rendrait impossible l’exploitation du produit par l’industrie. La réalité, c’est qu’ils utilisent toutes sortes de facteurs de sécurité qui sortent de leur chapeau d’une manière opportuniste et absolument pas scientifique. Ce bricolage est absolument inacceptable, quand on sait que c’est la santé des consommateurs qui est en jeu[vi] ! »

Cet avis est partagé par l’avocat américain James Turner, qui est aussi le président de l’association Citizens for Health et un spécialiste reconnu des questions de sécurité alimentaire et environnementale : « L’application du fameux “facteur de sécurité” ne répond à aucune règle, m’a-t-il expliqué lors de notre rencontre à Washington. Par exemple, actuellement l’EPA (l’agence de protection de l’environnement) utilise un facteur de mille pour des pesticides qui causent des dégâts neurologiques ou des troubles de comportement chez l’enfant. En fait, la détermination du facteur de sécurité dépend totalement des experts qui réalisent l’évaluation : s’ils sont sensibles à la protection de la santé et de l’environnement, ils vont prôner un facteur de mille et pourquoi pas d’un million ! S’ils sont plutôt du côté de l’industrie, ils vont appliquer un facteur de cent, voire de dix. Le système est complètement arbitraire et n’a rien à voir avec la science, car, en fait, il est éminemment politique[vii]. »

En résumé, pour qu’on comprenne bien l’incroyable amateurisme du système de réglementation censé nous protéger contre les méfaits des poisons chimiques qui entrent en contact avec nos aliments : pour établir des normes d’exposition prétendument « sûres », on réalise des expériences sur des animaux, en essayant de trouver une « dose sans effet » quelque peu aléatoire, car elle dépend de l’espèce utilisée et de la compétence, pour dire les choses sobrement, des laboratoires privés de l’industrie ; puis, on divise la dose obtenue par un facteur de sécurité qui varie selon le profil des experts…

Au bout du compte, la DJA est une valeur exprimée en milligramme de produit par kilo de poids corporel. Prenons l’exemple d’un pesticide qui a une DJA de 0,2 mg. Si le consommateur pèse 60 kg, il est donc censé pouvoir ingérer 60 x 0,2 mg, soit 12 mg, de pesticide par jour et pendant toute sa vie, sans que sa santé en soit affectée. Mais cette jolie construction somme toute très bureaucratique ne tient pas compte du fait que nous sommes exposés, chaque jour, à des centaines de substances chimiques qui peuvent interagir, ou avoir un effet nocif à des doses extrêmement faibles, comme les perturbateurs endocriniens, que seuls des outils très performants peuvent détecter, mais nous n’en sommes pas encore là (voir infra, chapitre 15)…

Les ressorts de la « société du risque »

« Est-ce que vous considérez que la DJA est un concept scientifique ? » Incontournable, la question semble pourtant surprendre Angelika Tritscher, la secrétaire du JECFA et du JMPR à l’Organisation mondiale de la santé. « Bien sûr que c’est un concept scientifique, me répond-elle sans hésiter, puisqu’elle est le résultat de l’évaluation de toutes les données scientifiques dont nous disposons sur un produit chimique. À partir de ces données, nous déterminons la dose qui ne provoque aucun effet et nous la divisons par un facteur d’incertitude, c’est un processus totalement scientifique[viii]. » J’ai obtenu le même type de réponse de Herman Fontier, le chef de l’Unité des pesticides de l’Autorité européenne de sécurité des aliments (EFSA) » : « J’ose bien espérer que la DJA est un concept scientifique ! », s’est-il exclamé, avec un large sourire[ix]. Ou de David Hattan, le toxicologue de la Food and Drug Administration en charge des additifs alimentaires : « Je pense vraiment que c’est un concept scientifique qui protège la santé des consommateurs », m’a-t-il assuré, avec un calme imperturbable.

Il serait tentant de considérer que ces experts qui travaillent pour des agences nationales ou internationales sont tous des menteurs ou des imposteurs. Je dois avouer que cette pensée m’a plusieurs fois effleurée, au fur et à mesure que je découvrais l’indigence du système réglementaire censé nous protéger des méfaits des poisons chimiques. La vérité est bien sûr beaucoup plus complexe, à l’image de la situation inextricable dans laquelle nous sommes plongés depuis que, poussés par la soif de profit des industriels mais aussi par une certaine vision du « progrès », les hommes politiques ont accepté l’idée qu’il était légitime d’introduire un nombre incommensurable de poisons dans notre environnement. Mais nous avons tous notre part de responsabilité dans cette évolution, ainsi que le faisait remarquer Rachel Carson dès 1962 : « Les agents chimiques du cancer sont imbriqués dans notre monde de deux manières, écrivait-elle dans Le Printemps silencieux. La première tient ironiquement au désir de l’homme d’avoir une vie meilleure et plus facile ; la seconde à la production et à la vente des produits chimiques qui sont devenues une part communément acceptée de notre économie et de notre mode de vie[x]. »

C’est en lisant La Société du risque d’Ulrich Beck que j’ai vraiment compris les répercussions politiques et sociales de ce que l’on appelle la « consommation de masse » et, du coup, l’insoutenable position dans laquelle sont enferrés les « experts » sollicités pour limiter les dégâts que ce modèle induit sui generis. Dans cet ouvrage capital, le sociologue allemand explique en effet comment, en cinquante ans, nous sommes passés de la « société de classes », qui était caractérisée par la « pénurie » et la question fondamentale de la répartition de la « richesse socialement induite », à la « société du risque », qui est la marque de la « modernité avancée » où « la production sociale de richesses est systématiquement corrélée à la production sociale de risques[xi] ».

« Les sociétés de classes restent attachées, dans la dynamique de leur évolution, à l’idéal de l’égalité, écrit-il, dans une démonstration magistrale. La situation est différente dans le cas de la société du risque. Son contre-projet normatif, qui en est le fondement et le moteur, est la notion de sécurité. […] Tandis que l’utopie de l’égalité est riche d’une quantité d’objectifs de transformations sociales à contenu positif, l’utopie de la sécurité reste singulièrement négative et défensive : au fond, il ne s’agit plus d’atteindre quelque chose de « bien », mais simplement d’empêcher que se produise le pire. Le rêve de la société de classes est le suivant : tous veulent et doivent avoir leur part du gâteau. L’objectif que poursuit la société du risque est différent : tous doivent être épargnés par ce qui est toxique[xii]. » Certes, poursuit Ulrich Beck, les « risques » ont toujours existé, mais ceux qui caractérisent la « machinerie industrielle du progrès » sont d’un autre ordre que ceux que courait Christophe Colomb en s’embarquant dans un improbable voyage ou les paysans guettés par la peste, car ils « se dérobent à la perception des sens » : « Ce sont des “produits parasites” que l’on ingurgite, que l’on inhale en même temps que quelque chose d’autre. Ils sont les “passagers clandestins” de la consommation normale. Ils sont véhiculés par le vent et par l’eau. Ils peuvent être présents n’importe où et sont assimilés avec les denrées dont notre survie dépend – l’air que l’on respire, l’alimentation, l’habitat, etc.[xiii]. »

C’est pourquoi, dans ce « nouveau paradigme de la société du risque », la question fondamentale que les politiques ont à résoudre est « comment les risques et les menaces qui sont systématiquement produits au cours du processus de modernisation avancée » et qui prennent la « forme d’effets induits latents » peuvent-ils être « endigués et évacués de sorte qu’ils ne gênent pas le processus de modernisation ni ne franchissent les limites de ce qui est “tolérable” (d’un point de vue écologique, médical, psychologique, social)[xiv] » ?

En lisant ces lignes, j’ai enfin compris pourquoi les textes réglementaires concernant la sécurité des aliments et environnementale faisaient systématiquement référence à des notions qui ont fait leur apparition après la Seconde Guerre mondiale, à savoir celles d’« évaluation des risques » ou de « gestion des risques ». Ces nouveaux concepts de la politique publique sont même la seule raison d’être des multiples « agences » qui ont fleuri en France au cours des dernières décennies (mais aussi dans les autres pays dits « développés »), comme l’Agence de sécurité sanitaire pour les produits de santé (Afssaps) ou l’Agence de sécurité sanitaire des aliments (Afssa) ou encore l’Agence française de sécurité sanitaire de l’environnement et du travail (Afsset). De même, le docteur Jean-Luc Dupupet (voir supra, chapitre 3) se présente comme le « médecin en charge du risque chimique » à la Mutualité sociale agricole, une fonction similaire à celle de Diane Benford qui dirige le « département du risque chimique » à la Food Standards Agency, l’agence chargée des normes alimentaires au Royaume-Uni.

Dans le texte qu’elle a rédigé pour l’ILSI, celle-ci consacre un long développement à la notion de « risque » (en anglais risk) qu’elle relie à celle de « danger » (hazard). C’est d’autant plus fascinant que, je le rappelle, sa monographie concerne les… aliments. « Les experts désignent par “danger” tout agent biologique, chimique ou physique qui a le potentiel de causer un effet nocif pour la santé, écrit-elle. La probabilité ou le risque que ce danger se manifeste chez les humains dépend de la quantité de produit chimique qui entre dans le corps, c’est-à-dire de l’exposition. Le danger est une propriété inhérente à la substance chimique, mais s’il n’y a pas d’exposition, alors il n’y a pas de risque [sic !] que quelqu’un souffre des conséquences de ce danger. L’évaluation du risque est donc le processus qui permet de déterminer si un danger particulier va s’exprimer à un certain niveau d’exposition, de durée ou à un certain moment du cycle de la vie, et si c’est le cas l’étendue du risque est estimée. La gestion du risque consiste à essayer de réduire le risque en réduisant l’exposition[xv]… »

Les bénéfices contre la santé

« La DJA a l’apparence d’un outil scientifique, parce qu’elle est exprimée en milligramme de produit par kilo de poids corporel, une unité qui a le mérite de rassurer les politiques, car elle a l’air très sérieuse, m’a dit Erik Millstone avec un petit sourire en coin, mais ce n’est pas un concept scientifique ! D’abord, parce que ce n’est pas une valeur qui caractérise l’étendue du risque mais son acceptabilité. Or l’ “acceptabilité” est une notion essentiellement sociale, normative, politique ou commerciale. “Acceptable”, mais pour qui ? Et derrière la notion d’acceptabilité il y a toujours la question : est ce que le risque est acceptable au regard d’un bénéfice supposé ? Or, ceux qui profitent de l’utilisation des produits chimiques sont toujours les entreprises et pas les consommateurs. Donc ce sont les consommateurs qui prennent le risque et les entreprises qui reçoivent le bénéfice. »

De fait, si les politiques s’évertuent à réclamer de leurs « experts » des montagnes de chiffres – et nous allons voir avec les « limites maximales de résidus » (voir infra, chapitre 13) que l’ampleur de la tâche dépasse tout ce que l’on peut imaginer –, c’est parce qu’ils jugent que les « bénéfices » technologiques ou économiques que sont censés apporter les poisons chimiques valent bien quelques risques humains. Cet « important concept des bénéfices versus les risques » constitue même le fondement du système élaboré par René Truhaut, ainsi qu’il le reconnaît très crûment dans une phrase assez étonnante : « Il est évident que dans le cas d’une population sous-alimentée où l’espérance de vie ne dépasse pas les quarante ans, il est justifié de prendre des risques plus élevés que pour une population qui dispose d’une alimentation surabondante[xvi]. »

Plus prosaïquement, il suffit de lire le préambule de la directive européenne du 15 juillet 1991 « concernant la mise sur le marché des produits phytosanitaires » pour mesurer l’idéologie économique qui sous-tend la politique sanitaire et à quel point les « bénéfices » précèdent les « risques » dans l’ordre des priorités de nos dirigeants : « Considérant que la production végétale tient une place très importante dans la Communauté ; considérant que le rendement de cette production est constamment affecté par des organismes nuisibles et par des mauvaises herbes, et qu’il est absolument nécessaire de protéger les végétaux contre ces risques pour éviter une diminution du rendement et pour contribuer à assurer la sécurité des approvisionnements ; considérant que l’utilisation de produits phytopharmaceutiques constitue l’un des moyens les plus importants pour protéger les végétaux et produits végétaux et pour améliorer la production de l’agriculture ; considérant que ces produits phytopharmaceutiques n’ont pas que des répercussions favorables sur la production végétale ; que leur utilisation peut entraîner des risques et dangers pour l’homme, les animaux et l’environnement, notamment s’ils sont mis sur le marché sans avoir été examinés et autorisés officiellement et s’ils sont utilisés d’une manière incorrecte[xvii]… »

La phraséologie de ce texte est tellement incroyable qu’il m’a fallu le relire plusieurs fois pour comprendre ce qui me choquait profondément. Le mot « risque » y est utilisé à deux reprises : la première pour désigner celui que courent les végétaux à cause des « organismes nuisibles » ; la seconde pour évoquer celui qui menace la santé des hommes. Pour le législateur européen, il n’y a manifestement aucune différence de nature entre ces deux formes de « risque ». Pire : il justifie le second par l’élimination du premier, en reprenant à son compte les arguments des adeptes de l’agriculture chimique et des fabricants de pesticides, qui sont les seuls et uniques bénéficiaires de l’usage des « produits phytosanitaires ».

L’argument des « bénéfices » est aussi au cœur d’un rapport parlementaire français présenté en avril 2010 par Claude Gatignol, député UMP de La Manche, et Jean-Claude Étienne, sénateur UMP de la Marne, intitulé Pesticides et Santé, dont les « deux cents pages pourraient faire rire tant elles sont tendancieuses », pour reprendre les mots de Libération[xviii]. Après avoir auditionné les auteurs du fameux rapport Les Causes du cancer en France (voir supra, chapitre 10), qui, la main sur le cœur, affirment que « les risques pour la santé des insecticides actuellement autorisés en France et plus généralement des produits phytosanitaires, sont souvent très surestimés, alors que leurs avantages sont très sous-estimés », les deux représentants de la nation lancent un cri d’alarme absolument pathétique (pour dire les choses poliment) : « Vos rapporteurs souhaitent rappeler les bénéfices de l’usage des pesticides et invitent les pouvoirs publics à anticiper les conséquences d’une diminution trop brutale de l’utilisation des pesticides en France[xix]. »

Plus sérieusement, car le rapport des deux parlementaires constitue une telle parodie qu’il ne mérite pas qu’on s’y intéresse davantage, on retrouve la même rhétorique « bénéfices/risques » dans le texte de l’Agence de protection de l’environnement des États-Unis (EPA) qui a fondé en 1972 l’homologation des pesticides et autorise la mise sur le marché de toute substance ne posant pas un « risque déraisonnable pour l’homme ou l’environnement, après avoir pris en compte tous les coûts et bénéfices économique, social et environnemental du pesticide[xx] ».

« Le point de vue des politiques, c’est que le danger d’un polluant environnemental doit être mesuré à l’aune de sa valeur économique, m’a expliqué l’avocat James Turner. Sur le fond, je ne suis pas opposé à ce qu’on fasse une évaluation des bénéfices et des risques qu’induit l’usage d’un produit chimique, à condition que la santé soit le seul étalon de l’arbitrage. Or, l’arbitrage ne se fait jamais santé contre santé, mais santé contre bénéfice économique. D’ailleurs, il y a une règle communément admise qui veut qu’un produit soit considéré comme sûr s’il ne tue pas plus d’une personne sur un million chaque année. C’est pour vous dire à quel point le système est pervers… »

L’information que m’a communiquée l’avocat de Washington est confirmée par Michel Gérin et ses coauteurs dans leur manuel Environnement et santé publique : « Bien que la notion de risque et de niveau acceptable soit très controversée, écrivent-ils, on s’accorde à dire qu’un risque de l’ordre de 10 – 6 (un cancer par million de personnes exposées) est acceptable dans le cas des produits chimiques qualifiés de cancérogène chez l’animal[xxi]. » Rapporté à la seule population française, ce « quota » signifie soixante morts annuelles pour un seul produit cancérigène. Quand on sait que des milliers de produits cancérigènes (mais aussi neurotoxiques ou reprotoxiques) sont actuellement en circulation, on mesure mieux l’étendue des dégâts et le malaise des « experts » dont la mission est de masquer l’hécatombe par des colonnes de « dose journalière acceptable » et autres « limites maximales de résidus », comme nous allons le voir.


[1] L’expression employée par Ned Groth est un américanisme : la « méthode BOGSAT », pour bunch of guys sitting around the table (une bande de mecs assis autour de la table).


[i] Diane Benford, « The acceptable daily intake, a tool for ensuring food safety », loc. cit.

[ii] René Truhaut, « Principles of toxicological evaluation of food additives », loc. cit.

[iii] Entretien de l’auteure avec Ned Groth, Washington, 17 octobre 2009.

[iv] René Truhaut, « Principles of toxicological evaluation of food additives », loc. cit. C’est moi qui souligne.

[v] Diane Benford, « The acceptable daily intake, a tool for ensuring food safety », loc. cit. C’est moi qui souligne.

[vi] Entretien de l’auteure avec Erik Millstone, Brighton, 12 janvier 2010.

[vii] Entretien de l’auteure avec James Turner, Washington, 17 octobre 2009.

[viii] Entretien de l’auteure avec Angelika Tritscher, Genève, 21 septembre 2009.

[ix] Entretien de l’auteure avec Herman Fontier, Parme, 19 janvier 2010.

[x] Rachel Carson, Silent Spring, op. cit., p. 242.

[xi] Ulrich Beck, La Société du risque, Flammarion, Paris, 2008, p. 35. C’est Ulrich Beck qui souligne.

[xii] Ibid., p. 89.

[xiii] Ibid., p. 74.

[xiv] Ibid., p. 36.

[xv] Diane Benford, « The acceptable daily intake, a tool for ensuring food safety », loc. cit. C’est moi qui souligne.

[xvi] René Truhaut, « Principles of toxicological evaluation of food additives », loc. cit.

[xvii] Directive 91/414/CEE du Conseil, du 15 juillet 1991, concernant la mise sur le marché des produits phytopharmaceutiques, Journal officiel, n° L 230, 19 août 1991, p. 0001-0032. C’est moi qui souligne.

[xviii] Éliane Patriarca, « Le texte des rapporteurs UMP est révélateur du rétropédalage de la droite sur les objectifs du Grenelle », Libération, 4 mai 2010.

[xix] Claude Gatignol et Jean-Claude Étienne, Pesticides et Santé, Office parlementaire des choix scientifiques et technologiques, Paris, 27 avril 2010.

[xx] Federal Insecticide, Fungicide, and Rodenticide Act (FIFRA), § 3 (b) (5). C’est moi qui souligne.

[xxi] Michel Gérin et alii, Environnement et santé publique, op. cit., p. 371.

Catégories : Notre poison quotidien