La croissance ne profite qu’aux riches!

La « croissance » ne profite qu’aux riches, qui sont de plus en riches, et ne sert pas à réduire le chômage et la pauvreté : c’est ce que vient de démonter avec brio un rapport publié par une centaine d’économistes, réunis au sein de la World Wealth and  Income Database. Les chiffres sont accablants : depuis les années 1980, le 1% le plus riche a capté 27% de la croissance du revenu, contre 12% pour les 50% les plus pauvres de la planète. Malgré son « modèle protecteur » , sans cesse attaqué par la doxa libérale, la France n’est pas en reste : entre 1983 et 2014, le revenu moyen du 1% le plus riche a progressé de 98% contre 31% pour le reste de la population. Le « 1% le plus riche » désigne ceux et celles qui profitent de la mondialisation et de la dérégulation de la finance et de l’économie, lancée au début des années 1980 par Margaret Thatcher (Grande Bretagne) et Ronald Reagan (États-Unis) et promue à l’unisson par tous les gouvernements, libéraux ou sociaux-démocrates, européens. Il désigne aussi les « premiers de cordée » que le président Macron a élevés au rang de modèle, alors qu’ils ne doivent leur « réussite » qu’à un système généralisé de prédation des ressources humaines et naturelles, qui nous conduit tout droit vers l’effondrement.

Comme en est-on arrivé là ?

C’est ce que j’expliquais dans mon livre Sacrée croissance ! où j’imaginais que le 14 avril 2014 le président François Hollande, après la lecture du dernier rapport du GIEC sur le dérèglement climatique, avait – enfin !- compris que la fameuse « croissance » n’était pas la solution, mais le problème et décidait de lancer la « grande transition » vers une société durable, décarbonée, plus équitable et plus solidaire. J’écrivais mon livre en… 2034 en racontant cette formidable aventure qui nous avait permis d’éviter « l’irréversible », pour reprendre l’expression de l’appel des 15 000 scientifiques publié récemment.

L’explosion des inégalités n’est pas une fatalité, elle a une cause ! Elle est le produit de décisions politiques que les citoyens peuvent influer, à condition de comprendre les mécanismes à l’œuvre, car, selon mon adage, « savoir c’est pouvoir »…

Cet extrait de mon livre est issu du chapitre « L’argent fou », compris dans la deuxième partie intitulée « Le grand gâchis ».

La financiarisation de l’économie, Dracula des temps modernes

À la veille du 14 Avril, l’hypothèse d’un effondrement imminent de ce que l’on appelait alors le « système financier » était en effet régulièrement avancée par les économistes critiques et des organisations citoyennes internationales comme ATTAC (Association pour la taxation des transactions financières et pour l’action citoyenne), un mouvement d’éducation populaire qui, depuis sa création en France en 1998, n’avait cessé de se battre « contre l’hégémonie de la finance et la marchandisation du monde ». Grâce à ses cent trente-cinq comités et groupes locaux dans trente-huit pays, l’association avait joué un rôle primordial, en expliquant pourquoi les citoyens devaient reprendre en main le système économique en déboulonnant la croissance et l’une de ses créatures les plus maléfiques : la financiarisation de l’économie.

Tel un Dracula des temps modernes, ce processus avait commencé dans les années 1980, à mesure que les idées néolibérales de Friedrich von Hayek et de Milton Friedman se répandaient sur la planète (voir supra, chapitre 3). Lancée par Ronald Reagan et Margareth Thatcher, puis relayée par l’Union européenne à partir des années 1990, la « révolution néolibérale » se résumait à un mot : déréglementation. Et de fait, tous les dispositifs de régulation qui avaient été mis en place à la fin de la Seconde Guerre mondiale ou durement conquis par des luttes syndicales pour éviter l’« ensauvagement du capitalisme[1] » furent méthodiquement démantelés. Au nom de la « liberté » et de l’« efficacité », tout fut systématiquement « libéré », y compris dans le domaine de la finance : les taux de change et d’intérêt, les mouvements de capitaux et les marchés boursiers. Ainsi que l’écrivit ATTAC, « la déréglementation financière engendra la prolifération de techniques bancaires baptisées “innovations” : produits dérivés, titrisation, marchés à terme, rachat d’actions, effet de levier, stock-options. Tout cet arsenal eut pour effet de favoriser une instabilité financière chronique, débouchant périodiquement sur la montée d’une bulle spéculative suivie systématiquement d’un krach[2] ».

D’un coup, le monde devint un immense casino où les barons de la croissance jouaient à la roulette dans le seul but de décrocher le maximum de profits. L’argent (indûment) gagné ne servait plus à investir pour faire tourner la machine économique, comme l’avaient préconisé les économistes classiques tel Adam Smith (voir supra, chapitre 1), mais à spéculer. En effet, ainsi que le soulignait en 2013 l’Institut de recherche et d’information économique de Montréal, « dans la logique financière, le capital n’a plus à passer par le détour de la production pour fructifier ; sa simple circulation engendre une création de capital neuf. L’investissement à court terme devient la norme et c’est la spéculation qui fait augmenter la valeur d’un actif[3] ». En d’autres termes : fini ce qu’on appelait alors le « théorème de Schmidt » (du nom d’Helmut Schmidt, l’ancien chancelier allemand de 1974 à 1982), selon lequel « les profits d’aujourd’hui sont les investissements de demain et les emplois d’après-demain ». Désormais, la finance était un système poussant « hors sol », complètement déconnecté de l’économie réelle.

Dans le même temps, par le jeu des privatisations et de la mondialisation, les spéculateurs étendirent leur emprise sur les entreprises, qui furent contraintes d’appliquer le principe de rentabilité à court terme propre à la sphère financière. Dès lors, pour assurer le maximum de dividendes aux actionnaires, tout était bon : les délocalisations, les « licenciements boursiers[4] » et la pression maximale sur les salaires. Au final, les profits dégagés par l’activité productive ne servaient plus à investir ni à rémunérer les salariés, mais à remplir les poches de la classe des riches (voir supra, chapitre 5). Pire : plus les profits augmentaient, plus la part accordée aux salariés diminuait – d’après l’INSEE, la part des richesses produites revenant aux salariés français était ainsi passée de 62 % en 1960 à 57 % en 2005.

Progressivement, la sphère financière en vint à contrôler tous les rouages de l’économie, mais aussi tous ses acteurs, contraints de financiariser leurs activités afin de nourrir l’insatiable bête. La clé ? Une expansion absolument sans précédent de l’endettement des ménages, qui n’a cessé de progresser partout – en 2011 en France, celui-ci représentait 61 % du PIB, contre 38 % en 2000. Étranglés par des salaires stagnants, les foyers avaient massivement recours aux « crédits à la consommation » pour financer leurs achats de biens et services (voiture, travaux, équipements domestiques, voyages) et, pour bon nombre d’entre eux, assouvir leur addiction[5]. De même, en mai 2014, l’encours de la dette immobilière française avait atteint la somme faramineuse de 915,8 milliards d’euros ! Une étude publiée la même année par Jacques Friggit, économiste au Conseil général de l’environnement et du développement durable, avait révélé que les prix de l’immobilier ancien avaient augmenté beaucoup plus vite que les revenus, contraignant les Français à s’endetter de plus en plus longtemps : en 2012, il fallait 32,5 ans pour acheter le logement qu’on achetait en quinze ans en 2000 ! Octroyés par des banques privées moyennant un taux d’intérêt composé de type exponentiel (voir supra, chapitre 1), ces prêts étaient devenus la principale source de création monétaire. Je reviendra ultérieurement (voir infra, chapitre 9) sur les effets dévastateurs de ce que l’on appelait alors la « monnaie-dette », mais pour l’heure il suffit de comprendre qu’en cette phase ultime du capitalisme mondialisé, l’endettement était le seul moyen de maintenir la croissance en vie, d’où l’inertie complice des dirigeants politiques qui, quand ils ne l’ont pas encouragé, ont laissé proliférer le virus fatal. « La croissance exceptionnelle de la consommation entre 1990 et 2007 a été alimentée par une expansion massive du crédit et un niveau croissant d’endettement, notait ainsi l’économiste Tim Jackson dans son livre Prosperity without Growth. Cela a permis de protéger la croissance quelque temps, mais finalement cela a conduit à des niveaux insoutenables de dette qui ont déstabilisé les marchés financiers eux-mêmes. […] La crise économique n’est pas la conséquence de mauvaises pratiques isolées à l’intérieur du secteur bancaire. L’irresponsabilité a été approuvée au plus haut niveau des États, avec un objectif très clair : la poursuite et la protection de la croissance économique[6]. »

« Un système pourri jusqu’à la moelle »

« L’économie mondiale tout entière repose aujourd’hui sur de gigantesques pyramides de dettes, prenant appui les unes sur les autres dans un équilibre fragile. […] Jamais une telle instabilité potentielle n’était apparue avec une telle menace d’un effondrement général. » Voilà ce qu’écrivait l’économiste Maurice Allais dans une tribune publiée dans Le Figaro en octobre 1998[7]. Et effectivement, ce qui devait se passer se passa : moins de dix ans plus tard, la « pyramide de dettes » s’effondra, entraînant le monde dans la plus grave récession économique de l’histoire. Le déclencheur fut ce que l’on a appelé la « crise des subprimes », ces crédits dits à « haut risque » accordés aux ménages américains les moins fortunés à des taux variables et élevés[8]. Il a suffi que la Banque fédérale américaine décide brutalement de relever ses taux d’intérêt pour que tout le château de cartes s’écroule. Incapables de faire face à leurs échéances, 3,6 millions de propriétaires américains furent jetés à la rue entre juin 2006 et septembre 2008. En explosant, la « bulle immobilière » provoqua une réaction en chaîne de défauts de paiement et de faillites, à commencer par celle de la banque Lehman Brothers (15 septembre 2008). On découvrit alors les pratiques criminelles d’un vaste « système bancaire parallèle » (shadow banking system) reposant sur la vente de produits financiers pourris (junk), fourgués dans une multitude de « produits dérivés » qui avaient contaminé tout le système financier[9]. Du jour au lendemain, toutes les grandes banques qui régnaient sur les places boursières se retrouvèrent au bord de la faillite ! Pour les « sauver », les gouvernements, d’abord aux États-Unis, puis en Europe, mirent généreusement la main à la poche en injectant des milliers de milliards d’euros puisés sur les deniers publics ou obtenus grâce à des… emprunts[10] ! Quelques voix isolées s’élevèrent pour dénoncer ce principe consistant à privatiser les profits et à socialiser les pertes, tandis que les dirigeants des entreprises renflouées, non seulement ne furent pas sanctionnés, mais s’accordaient des salaires et primes mirobolants !

En attendant, les gros bonnets de la croissance et leurs alliés politiques provoquèrent un beau désastre, car bien sûr, en raison du processus de financiarisation de l’économie précédemment évoqué, la « crise » se répandit comme une tache d’huile dans toute l’économie réelle : des dizaines de millions d’emplois furent détruits, principalement dans les pays du Nord, provoquant une envolée spectaculaire du chômage. En France, pour la seule année 2013, 44 000 petites et moyennes entreprises (PME) furent rayées de la carte[11]. Dans le même temps, le montant de la dette mondiale atteignit des records historiques : plus de 100 000 milliards de dollars ! Incluant l’endettement public et celui des entreprises et des sociétés financières, mais pas celui des ménages, cette dette avait été multipliée par 2,5 depuis 2000. Avec la crise de 2008, c’est la dette des États qui avait le plus augmenté (+ 80 % en six ans), précisément parce que les gouvernements avaient renfloué les caisses des firmes délinquantes.

Le cas de la France était exemplaire : en 2013, sa dette publique s’élevait à 1 925,3 milliards d’euros, soit 93,5 % du PIB, alors qu’elle ne représentait « que » 78 % du PIB en 2009, 55,5 % en 1995 et 21 % en 1979[12]. Contrairement à ce que répétaient à l’envi les barons de la croissance (industriels ou politiques), l’explosion de la dette n’était pas due à un excès irresponsable des dépenses publiques, mais à trois facteurs provenant de décisions strictement politiques : les « plans de sauvetage de la finance et la récession provoquée par la crise bancaire et financière de 2008 »[13] ; « la “contre-révolution fiscale” menée par les gouvernements depuis vingt-cinq ans » qui, selon un rapport parlementaire, avait privé la France de 100 milliards d’euros de recettes entre 2000 et 2010, en raison des baisses d’impôts et niches fiscales consenties (auxquels s’ajoutaient 30 milliards dus aux exonérations de cotisations sociales)[14] ; enfin, le niveau excessif des taux d’intérêt qui avait engendré un « effet boule de neige » des intérêts composés exponentiels : en 2013, la France avait payé 45 milliards d’euros, uniquement au titre des intérêts de la dette ! Or, cet emballement n’était pas tombé du ciel : une loi de 1973, baptisée « loi Pompidou-Giscard », avait contraint l’État à emprunter exclusivement auprès des banques privées, et non plus à la Banque de France qui lui prêtait jusque-là à taux zéro[15]. Ce qui marchait plutôt bien, puisqu’en 1973, « l’État français n’était quasiment pas endetté[16] ». Cette disposition avait été confirmée par le traité de Maastricht (1992), puis par le traité de Lisbonne (2007), qui interdisaient « à la Banque centrale européenne (BCE) et aux banques centrales des États membres d’accorder tout type de crédit aux institutions, organes ou organismes de l’Union, aux administrations centrales, aux autorités régionales ou locales, et aux autres autorités publiques des États membres ». Alors que la BCE était autorisée à prêter aux banques privées à des taux inférieurs à ceux que celles-ci accordaient aux États !

Pour reprendre l’expression de William Rees, le « système était pourri jusque la moelle ». Mais en attendant, tout était pour le mieux dans le meilleur des mondes : pour réduire leurs « déficits », les gouvernements faisaient subir à leurs peuples une cure d’austérité qui ne faisait que creuser l’écart entre les riches et les pauvres. À l’aube du 14 Avril, alors que « 3,5 millions d’Européens dépendaient des points de distribution alimentaire de la Croix-Rouge, un chiffre qui avait bondi de 75 % entre 2009 et 2012 », « le patrimoine des riches, sur l’ensemble de la planète, culminait à 178 milliards d’euros, en hausse de 4,9 % en un an[17] »…

 

[1] J’emprunte cette expression joliment trouvée à ATTAC, Sortir de la crise globale. Vers un monde solidaire et écologique, La Découverte, Paris, 2009, p. 54.

[2] Ibid., p. 37.

[3] Julia Posca, « Qu’est-ce que la financiarisation de l’économie ? », Institut de recherche et d’information économique, 7 février 2013.

[4] En France, jusqu’en 1986, tout licenciement était soumis à une demande d’autorisation préalable de l’administration. Cette disposition, permettant notamment d’empêcher les « licenciements boursiers » (c’est-à-dire sans autre raison économique que l’augmentation du profit distribué aux actionnaires), a été supprimée par le gouvernement du Premier ministre libéral Jacques Chirac. Elle a été réintroduite après la GT dans le cadre de la loi de 2016, dite de « rénovation sociale des entreprises ».

[5] En 2010, le montant total (encours) du crédit à la consommation dans le monde était de 5 473 milliards d’euros ; il avait augmenté de 15,5 %, entre 2009 et 2012, atteignant alors 6 383 milliards d’euros.

[6] Tim Jackson, Prosperity without Growth, op. cit, p. 21, 25 et 31.

[7] Cité par Pierre-Antoine Delhommais, « Maurice Allais, prophète maudit », Le Monde, 24 janvier 2009 (Maurice Allais est notamment l’auteur de La Crise mondiale d’aujourd’hui. Pour de profondes réformes des institutions financières et monétaires, Clément Juglard, Paris, 1999).

[8] Aux États-Unis, le montant des prêts subprime était passé de 173 à 600 milliards de dollars de 2001 à 2006 ; et la part de ces prêts à hauts risques dans le total des prêts immobiliers était passé de 5 % à 14 %.

[9] Certains de ces « produits » avaient été créés en recourant à la technique de la « titrisation », consistant à « transférer à des investisseurs des actifs financiers tels que des créances (par exemple des factures émises non soldées ou des prêts en cours), en transformant ces créances, par le passage à travers une société ad hoc, en titres financiers émis sur le marché des capitaux ». Cette définition proposée par Wikipédia est la meilleure que j’ai trouvée, tant cette technique est tordue et donc difficile à comprendre…

[10] Le premier plan de sauvetage américain destiné aux banques de Wall Street et aux compagnies d’assurances s’élevait à 12 000 milliards de dollars. Après j’ai renoncé à calculer le montant total des différents « plans de sauvetage » américains et européens.

[11] Denis Cosnard, « Les liquidations d’entreprises sont à un niveau historique », Le Monde, 22 novembre 2013.

[12] Source : « La dette publique de la France », Wikipédia. En 2013, dans les pays dits « développés », le record de l’endettement public était détenu par le Japon (245 % du PIB), la Grèce (175 %), l’Italie (132 %) et les États-Unis (111 %).

[13] D’après le ministère de l’Économie et des Finances, le seul « sauvetage de l’euro » avait coûté 68,7 milliards d’euros à la France.

[14] Source : Le Manifeste des économistes atterrés, chapitre 4.

[15] La loi n° 73-7 du 3 janvier 1973 a été élaborée par Valéry Giscard d’Estaing, alors ministre de l’Économie du président Georges Pompidou. Les mauvaises langues susurrent que le fait que Pompidou ait travaillé pour la banque Rothschild n’était peut-être pas étranger à cette loi, qui officiellement devait limiter la capacité de l’État à créer de la monnaie en utilisant la planche à billets (ce qui pouvait engendrer de l’inflation)…

[16] Jean-Luc Shaffhauser, « Mais pourquoi avait-on voté en 1973 cette loi imposant à l’État de passer par les banques privées ou les marchés pour financer sa dette ? », Atlantico, 18 janvier 2012.

[17] Christian Losson, « Les riches se régalent, les autres dégustent », Libération, 11 octobre 2013.

Un responsable de l’INRA pris en flagrant délit d’incompétence

Le 21 novembre, Christian Huygue, directeur scientifique-adjoint de l’agriculture à l’INRA a été auditionné à l’Assemblée nationale. Le député LREM Didier Martin lui a posé des questions relatives aux fonctions d’antibiotique et de chélateur du glyphosate, qui, comme je l’ai révélé dans mon film (toujours visible en replay)  Le Roundup face à ses juges,  sont complètement ignorées par les agences de réglementation.

Or, les réponses du cadre de l’INRA montrent qu’il n’est pas au courant… À moins qu’il ne mente. Ce qui dans les deux cas est grave.

Pour la fonction de chélation, voici ce que j’écris dans mon livre Le Roundup face à ses juges qui accompagne le film:

Ce n’est pas Monsanto qui a inventé le glyphosate, mais un chimiste suisse du nom d’Henri Martin, qui travaillait pour le laboratoire pharmaceutique Cilag. En 1950, n’ayant pu identifier aucune application pharmaceutique, la firme vendit la molécule à différentes entreprises qui la testèrent. C’est ainsi qu’en 1964, la multinationale américaine Stauffer Chemical obtint un premier brevet pour une fonction totalement méconnue de la molécule, celle de chélateur de métaux[1]. Provenant du grec khêlê (pince), la chélation est un processus physico-chimique qui permet à un « ligand » – le « chélateur » – d’attraper les cations ou atomes des métaux pour former avec eux un complexe stable, qu’on appelle « chélate ». En médecine, certains chélateurs sont utilisés comme agents de détoxification lors d’une contamination aiguë par des métaux lourds, comme le mercure des plombages dentaires, ou par des produits radiologiques, comme le plutonium. Car le processus de chélation rend les métaux solubles, ce qui permet aux organismes vivants de les excréter, notamment par les voies urinaires. Le brevet obtenu en 1964 par Stauffer Chemical montre ainsi que le glyphosate est un chélateur puissant, capable de séquestrer de nombreux métaux et minéraux, comme le calcium, le magnésium, le cadmium, le nickel, le cobalt, le plomb ou le strontium. La structure chimique de la molécule lui permet d’extraire les métaux de leur milieu, de les fixer et de les rendre solubles dans l’eau. C’est ainsi que le glyphosate a d’abord été utilisé comme détergent, afin de détartrer les chaudières et les canalisations d’eau privées ou industrielles, encrassées par des dépôts de métaux.

J’invite Christian Huygue à consulter le brevet obtenu par la Stauffer Chemical en 1964. Il verra (s’il comprend l’anglais…) que le glyphosate est un chélateur puissant, ainsi que l’ont confirmé de nombreux scientifiques indépendant comme cette étude scandinave ou cette étude parue dans The Chemical Monthly.

Le glyphosate séquestre les minéraux présents dans le sol, et les rend inaccessibles aux plantes. Du coup, comme l’explique très bien le phytopathologiste Don Huber de l’Université de Purdue (États-Unis) dans ce bonus de mon film  les plantes OGM, – comme le soja ou le maïs – qui ont été manipulées génétiquement pour résister au glyphosate tombent malades, pour cause de déficience en minéraux. Le glyphosate chélate aussi les minéraux présents dans les organismes des mammifères qui sont contaminés par les voies de l’alimentation, provoquant des déficiences, ainsi que l’ont montré plusieurs études européennes et américaines.

De plus, contrairement à ce qu’a affirmé l’éminent scientifique de l’INRA, le glyphosate est bien un antibiotique à large spectre, ainsi que le montre le deuxième  brevet obtenu par Monsanto en 2010 (le premier obtenu par la multinationale, en 1969, concernait la fonction herbicide de la molécule).

Dans son explication très confuse, Christian Huygue mélange tout. Avec beaucoup de mal, il essaie d’expliquer au député, dont j’imagine le désarroi, ce qui est censé être le principal mode d’action  du glyphosate. De fait, Monsanto a toujours prétendu que la caractéristique de son désherbant dit  « non sélectif » ou « total », c’est qu’il  est absorbé par la plante au niveau des feuilles et transporté rapidement par la sève jusqu’aux racines et rhizomes, en affectant la « voie du shikimate », un intermédiaire métabolique essentiel à la synthèse des acides aminés aromatiques, ce qui entraîne une diminution de l’activité de la chlorophylle ainsi que de certaines hormones. Son action bloque la croissance végétale, provoquant une nécrose des tissus qui aboutit à la mort de la plante. L’un des arguments avancés par la multinationale pour affirmer que le glyphosate n’est pas toxique pour les humains ni pour les animaux, c’est que la voie du shikimate est présente chez les plantes, les algues et les bactéries mais est absente chez les vertébrés.

Le colonel Don Huber, qui travailla sur les armes chimiques et bactériologiques dans les laboratoires biologiques de Fort Detrick (Maryland), met ces « arguments  » en pièces, ainsi que je l’ai écrit dans mon livre:

« Contrairement à ce que prétend Monsanto, le principal mode d’action du glyphosate n’est pas l’inhibition de l’enzyme EPSPS qui commande la voie du shikimate, mais ses fonctions d’antibiotique et de chélateur », a dit Don Huber sur un ton extrêmement ferme. Pour bien saisir cette affirmation un peu technique, il faut rappeler que la « voie du shikimate », est un intermédiaire métabolique, qui est essentiel pour la synthèse des acides aminés aromatiques (voir supra, chapitre 1). Cette « voie » est activée par une enzyme qui porte un nom à rallonge et que l’on appelle communément la « EPSPS »[2]. C’est de cette enzyme dont parle Monsanto sur les étiquettes de ses bidons de Roundup où l’on peut lire : « Le glyphosate affecte une enzyme que l’on trouve dans les plantes mais pas chez les humains ni chez les animaux de compagnie. »

« Cette affirmation est fausse pour deux raisons, a réagi Don Huber, quand je lui ai rappelé la notice du Roundup. D’abord, parce que le glyphosate n’affecte pas seulement l’enzyme EPSPS, mais 291 enzymes qui ont besoin des minéraux comme cofacteurs pour activer les métabolismes premiers et secondaires de la plante. Par exemple, il y a vingt-cinq enzymes qui dépendent du manganèse pour agir correctement ; or, les plantes souffrent d’une déficience en manganèse à cause du glyphosate accumulé dans les sols. Par ailleurs, il est faux de dire que le glyphosate épargne les mammifères – les humains et les animaux – qui ne possèdent par la voie du shikimate, car les bactéries, elles, la possèdent comme les plantes et les algues ! Et comme nous le savons tous, notre intestin, qui est considéré comme notre “deuxième cerveau”, est plein de bactéries qui ont besoin de l’enzyme EPSPS pour produire nos acides aminés – comme le tryptophane, la tyrosine, la phénylalanine –, essentiels pour nos cellules neurologiques ou hormonales. Or, les bactéries sont sensibles au glyphosate. Ce qui peut avoir des conséquences très graves pour la santé des animaux et des humains » (voir infra, chapitres 6 et 7).

[1] La demande de brevet a été déposée par deux inventeurs, Toy Fon et Eugène Uhing, au nom de Stauffer Chemical le 30 janvier 1961. Le brevet a été accordé par l’Office des brevets des États-Unis le 8 décembre 1964, sous le numéro 3160632A.

[2] Le nom complet de l’EPSPS synthase est 5-énolpyruvylshikimate-3-phosphate synthase. Cette enzyme intervient à la sixième étape de la voie du skikimate en permettant la synthèse de trois acides aminés aromatiques : la phénylalanine, la tyrosine et le tryptophane.

Pour finir, je copie la réponse intégrale de l’éminent responsable de l’INRA:

Le Mardi 21 Novembre 2017,

Audition à l’Assemblée nationale, Mission d’information commune sur l’usage des produits phytopharmaceutiques

Christian Huyghe (directeur scientifique adjoint agriculture de l’INRA) sur les effets chélateur et antibiotique du Glyphosate

 

Question de Didier Martin :

Monsieur le président directeur général, quitte à disloquer encore davantage votre présentation, mais puisque vous avez parlé du glyphosate et que la présidente nous propose de poser spontanément des questions… Le glyphosate est un chélateur et le glyphosate est un antibiotique. C’est pas moi qui le dis, c’est ce que j’ai pu lire dans les publications. Puisque votre institution est spécialiste de l’agronomie, quelle répercussion ces fonctions de chélateur et d’antibiotique peuvent avoir sur la croissance des plantes cultivées, et pas cultivées. Et globalement dans notre environnement.

Réponse de Christian Huyghe :

Le glyphosate c’est pas un antibiotique. C’est une molécule qui a une particularité biologique puisqu’elle réussit à tromper une enzyme absolument fondamentale d’un processus métabolique qui est partagé par toutes les plantes et elle arrive à se greffer sur cette enzyme et à bloquer le fonctionnement de cette enzyme-là. C’est pour ça que, comme cette enzyme est partagée par tout le règne végétal, elle est aussi efficace et qu’elle tape sur à peu près tous les végétaux. Et en plus comme c’est une molécule qui est de taille relativement modeste, extrêmement soluble dans la sève, elle circule très vite dans le végétal, elle est capable d’aller taper dans tous les tissus, y compris les tissus racinaires. C’est pour ça que le glyphosate s’avère extrêmement efficace sur ce qu’on appelle les mauvaises herbes vivaces, des mauvaises herbes qui ont des systèmes racinaires extrêmement développés, qui d’une façon générale sont très difficile à éliminer parce que la plupart des herbicides détruisent les systèmes aériens et le glyphosate parce qu’il est absorbé à cet effet systémique et qu’il va stopper le fonctionnement et le développement d’absolument tous les végétaux. Donc c’est ça la fonction particulière, c’est une molécule qui est assez unique puisqu’il n’y en a qu’une autre qui avait un effet à peu près semblable qui est le gluphosinate d’ammonium, qui est même moins efficace. Donc le glyphosate n’a jamais eu de petit frère, il n’y a jamais eu de molécule ayant une activité similaire et comme il est très efficace, très peu cher il a été très utilisé. C’est ça son vrai défaut. Comme il marchait extrêmement bien sur toutes les flores, tout le monde l’a généralisé et pas que les agriculteurs.

Relance de Didier Martin :

Ma question portait sur des notions que j’ai prises dans des publications grand public. Effet antibiotique, effet chélateur, qui perturbent y compris la croissance des plantes cultivées, qui finissent par chuter de rendement avec une sorte de nécrose des plantes.

Réponse de Christian Huyghe :

Alors je ne sais pas qui a écrit que c’était un antibiotique parce que ce n’en est pas un… Enfin, en tous cas pas un antibiotique au sens où on les entend quand il s’agit de soigner des animaux. C’est antibiotique dans le sens où ça supprime la vie. De fait quand ça tue un végétal on peut considérer que c’est contre la vie mais… En tous cas, en termes d’un antibiotique utilisé pour soigner des humains ou des animaux ce n’est absolument pas ça.

Après le fait d’être un chélateur : la notion de chélation elle est liée à la capacité qu’a une molécule à être chélateur en transportant une autre. Là aussi le glyphosate n’a pas cette capacité à transporter d’autres molécules, par contre il a cette capacité à aller se lier sur cette enzyme particulière dont le nom est assez compliqué ce qui fait que je ne vais pas vous le dire là. C’est une enzyme qui sert à la production, au métabolisme le plus fondamental parce qu’il traite avec les acides aminés et c’est une enzyme qui est constitué d’un trimère, donc trois molécules. C’est d’ailleurs ça qui avait été manipulé lorsqu’on a fait des OGM résistants au glyphosate, c’était en changeant un de ces trimères-là. L’affinité du glyphosate pour cette enzyme disparaissait et donc la plante devenait tolérante au glyphosate. C’était ça le mécanisme. Donc le glyphosate a cette capacité à aller se lier à cette enzyme-là donc c’est sûrement pour ça que quelqu’un, à un moment donné, à utiliser le terme de chélation mais il n’a pas la capacité qu’on par exemple des chélateurs du fer. On utilise beaucoup de chélateur du fer quand on est en situation de chlorosférite, sur certaines vignes par exemple avec des ph très bas. Donc on est obligé d’apporter du fer chélaté. Donc c’est une molécule organique sur laquelle on a mis du fer et qui a la capacité à l’apporter au végétal. N’essayez pas d’apporter du fer avec du glyphosate, vous allez tuer la plante.

 

 

4) La polémique Cash investigation: le « bricolage » des LMR

Voici le quatrième article que je consacre à la polémique autour de la diffusion du Cash Investigation sur les pesticides. Il est regrettable que cette polémique, alimentée par Libération (dans sa rubrique Désintox), serve finalement aux lobbyistes des fabricants de poison pour discréditer l’ensemble de l’émission. C’est une technique bien connue des professionnels de la désinformation qui exploitent jusqu’à la lie une petite erreur (ici, une mauvaise interprétation du rapport de l’EFSA) pour dénigrer l’ensemble de l’œuvre (un documentaire, un livre ou une étude) qui les dérange. Donc, plus que jamais, le « diable est dans le détail » !

En lisant les trois premiers articles de ma série, les lecteurs auront compris (j’espère !) que la DJA qui constitue le pilier de la réglementation des poisons chimiques contaminant notre alimentation est un outil arbitraire, sans fondement scientifique sérieux. Je ne peux pas ici résumer toute mon enquête (si vous voulez en savoir plus, lisez mon livre !), mais il est un point que je voudrais tout de même préciser, car il illustre parfaitement le « bricolage » que représente le calcul de la fameuse « Dose journalière admissible » (ou acceptable). Dans mon dernier article, j’ai mis en ligne le dessin animé que j’avais utilisé dans mon film pour expliquer comment la DJA était calculée. On y voyait qu’après avoir calculé la « DL50 », à savoir la dose de poison qui tue la moitié des pauvres cobayes (généralement des rats), les toxicologues baissaient la dose pour calculer la « NOAEL », c’est-à-dire la-dose-sans-effet-toxique-observé ». En général, cette « observation » a lieu au bout de trois mois, ce qui, bien sûr, n’est pas suffisant pour mesurer les effets toxiques à long terme d’une substance… Ensuite, les toxicologues appliquent un facteur de sécurité, généralement de 100, par lequel il divise la NOAEL, pour obtenir la DJA. D’où sort ce « facteur de sécurité » ? Voici ce que j’ai écrit dans mon livre :

Les « facteurs de sécurité » : un bricolage « absolument inacceptable »

« La NOAEL est une mesure floue, qui n’est pas extrêmement précise », m’a affirmé Ned Groth, un biologiste qui fut expert pendant vingt-cinq ans de la Consumers Union, la principale organisation de consommateurs des États-Unis. À ce titre, il participa régulièrement aux forums organisés par la FAO et l’OMS sur la sécurité des aliments. « C’est pourquoi les gestionnaires du risque utilisent ce qu’ils appellent un facteur de “sécurité” ou d’ “incertitude”. L’approche standard utilisée depuis cinquante ans par les toxicologues consiste à diviser la NOAEL par un facteur de cent. En fait, ils appliquent un premier facteur de dix pour tenir compte des différences qui peuvent exister entre les animaux et les humains, car on n’est pas sûr que les hommes réagissent exactement de la même manière que les animaux au produit chimique ; puis, ils appliquent un deuxième facteur de dix pour prendre en compte les différences de sensibilité entre les humains eux-mêmes, car, bien sûr, celle-ci varie selon qu’on est une femme enceinte, un enfant, une personne âgée ou une personne atteinte d’une maladie grave. La question est de savoir si c’est suffisant. Nombreux sont ceux qui soutiennent qu’un facteur de dix pour tenir compte de la variabilité humaine est beaucoup trop faible. Pour une même dose, l’effet pourra être nul pour certaines personnes, mais il pourra être énorme pour d’autres.

Mais sait-on sur quelle base scientifique ce facteur de cent a été fixé ?, ai-je demandé.

Ça s’est décidé à quatre autour d’une table[1] !, m’a répondu l’expert en environnement. C’est ce qu’a rapporté Bob Shipman, un ancien de la Food and Drug Administration, dans une conférence à laquelle j’ai assisté. Il a dit : “C’était dans les années 1960, il fallait que nous trouvions une manière de déterminer quel niveau de produit toxique on pouvait autoriser sur les aliments. On s’est réuni et on l’a fait[i] ! »

Ce que raconte l’expert américain est confirmé par… René Truhaut en personne qui, dans son article de 1973, reconnaît que le fameux « facteur de sécurité », censé constituer l’ultime rempart contre la toxicité des poisons, relève de l’empirisme le plus pur : « Un facteur de sécurité quelque peu arbitraire de cent a été largement accepté et ce chiffre a été recommandé par le JECFA dans son deuxième rapport, écrit-il. Mais il ne serait pas raisonnable de l’appliquer d’une manière trop rigide[ii]. » Dans sa monographie, Diane Benford fait exactement le même constat : « Par convention, un facteur d’incertitude de cent est normalement utilisé, par défaut, car, à l’origine, ce fut, une décision arbitraire[iii]. » Au passage, elle souligne que la principale source « de variation et d’incertitude » du processus d’évaluation réside dans la différence qui existe entre des animaux de laboratoire élevés dans des conditions d’hygiène maximales et exposés à une seule molécule chimique, et la population humaine qui présente une grande variabilité (génétique, maladies, facteurs de risque, âge, sexe, etc.) et est soumise à de multiples expositions.

Fidèle à son franc-parler, le Britannique Erik Millstone tranche d’une formule qui a le mérite de la clarté : « Le facteur de sécurité qui est censé être de cent est un chiffre tombé du ciel et griffonné sur un coin de nappe ! D’ailleurs, dans la pratique, les experts changent régulièrement la valeur du facteur au gré de leurs besoins : parfois, ils utilisent un facteur de mille, quand ils estiment qu’une substance présente des problèmes de sécurité très préoccupants ; parfois, ils le réduisent à dix, parce que, s’ils appliquaient un facteur de cent, cela rendrait impossible l’exploitation du produit par l’industrie. La réalité, c’est qu’ils utilisent toutes sortes de facteurs de sécurité qui sortent de leur chapeau d’une manière opportuniste et absolument pas scientifique. Ce bricolage est absolument inacceptable, quand on sait que c’est la santé des consommateurs qui est en jeu[iv] ! »

Cet avis est partagé par l’avocat américain James Turner, qui est aussi le président de l’association Citizens for Health et un spécialiste reconnu des questions de sécurité alimentaire et environnementale : « L’application du fameux “facteur de sécurité” ne répond à aucune règle, m’a-t-il expliqué lors de notre rencontre à Washington. Par exemple, actuellement l’EPA (l’agence de protection de l’environnement) utilise un facteur de mille pour des pesticides qui causent des dégâts neurologiques ou des troubles de comportement chez l’enfant. En fait, la détermination du facteur de sécurité dépend totalement des experts qui réalisent l’évaluation : s’ils sont sensibles à la protection de la santé et de l’environnement, ils vont prôner un facteur de mille et pourquoi pas d’un million ! S’ils sont plutôt du côté de l’industrie, ils vont appliquer un facteur de cent, voire de dix. Le système est complètement arbitraire et n’a rien à voir avec la science, car, en fait, il est éminemment politique[v]. »

En résumé, pour qu’on comprenne bien l’incroyable amateurisme du système de réglementation censé nous protéger contre les méfaits des poisons chimiques qui entrent en contact avec nos aliments : pour établir des normes d’exposition prétendument « sûres », on réalise des expériences sur des animaux, en essayant de trouver une « dose sans effet » quelque peu aléatoire, car elle dépend de l’espèce utilisée et de la compétence, pour dire les choses sobrement, des laboratoires privés de l’industrie ; puis, on divise la dose obtenue par un facteur de sécurité qui varie selon le profil des experts…

Au bout du compte, la DJA est une valeur exprimée en milligramme de produit par kilo de poids corporel. Mais cette jolie construction somme toute très bureaucratique ne tient pas compte du fait que nous sommes exposés, chaque jour, à des centaines de substances chimiques qui peuvent interagir, ou avoir un effet nocif à des doses extrêmement faibles, comme les perturbateurs endocriniens, que seuls des outils très performants peuvent détecter, mais nous n’en sommes pas encore là (voir infra, chapitre 15) »…

N’oublions pas que les fameuses « LMR », les limites maximales de résidus autorisées sont calculées à partir de la DJA…On comprend pourquoi je dis qu’il faut prendre ces « limites légales » avec beaucoup de pincettes ! S’ajoute à cela, le fait que les études toxicologiques qui sont fournies aux agences de réglementation pour fixer la DJA ou les LMR sont conduites par des laboratoires privés travaillant pour les industriels, lesquels comme on l’a vu, exigent que les données soient protégées par le « secret commercial ». Étonnant, non ?

Voici un autre extrait de mon livre Notre poison quotidien qui éclaire l’exigence fort à propos des fabricants de poison :

« Dans mon livre Le Monde selon Monsanto, je racontais, en effet, qu’à la fin des années 1980, un procès avait défrayé la chronique : il concernait les Industrial Bio-Test Labs (IBT) de Northbrook, un laboratoire privé dont l’un des dirigeants était Paul Wright, un toxicologue venu de Monsanto, recruté au début des années 1970 pour superviser les études sur les effets sanitaires des PCB, mais aussi d’un certain nombre de pesticides. En fouillant dans les archives du laboratoire, les inspecteurs de l’Agence de protection de l’environnement des États Unis (EPA) avaient découvert que des dizaines d’études présentaient de « sérieuses déficiences et incorrections » et une « falsification routinière des données » destinée à cacher un « nombre infini de morts chez les rats et souris » testés[vi]. Parmi les études incriminées se trouvaient trente tests conduits sur le glyphosate (la matière active du Roundup)[vii]. « Il est difficile de ne pas douter de l’intégrité scientifique de l’étude, notait ainsi un toxicologue de l’EPA, notamment quand les chercheurs d’IBT expliquent qu’ils ont conduit un examen histologique des utérus prélevés sur des… lapins mâles[viii]. »

En 1991, les laboratoires Craven étaient à leur tour accusés d’avoir falsifié des études censées évaluer les effets de résidus de pesticides, dont le Roundup, présents sur des fruits et légumes, ainsi que dans l’eau et les sols[ix]. « L’EPA a expliqué que ces études étaient importantes pour déterminer les niveaux de pesticide autorisés dans les aliments frais ou transformés, écrivait le New York Times. Le résultat de la manipulation, c’est que l’EPA a déclaré sains des pesticides dont il n’a jamais été prouvé qu’ils l’étaient véritablement[x]. » La fraude généralisée a valu au propriétaire des laboratoires une condamnation à cinq ans de prison, alors que Monsanto et les autres compagnies chimiques, qui avaient profité des études complaisantes, ne furent jamais inquiétées… »

L’autre « problème » régulièrement soulevé par les associations de consommateurs ou de protection de l’environnement c’est que les « experts » qui travaillent pour les agences de réglementation, comme le JMPR ou l’EFSA, présentent souvent des conflits d’intérêt, c’est-à-dire qu’ils ont (ou ont eu) des liens professionnels et financiers avec les entreprises dont ils sont censés réglementer les produits. Ce qui entache l’impartialité que l’on est en droit d’attendre de leur part… Dans certains cas que je connais bien – comme celui de l’aspartame, du Bisphénol A ou du roundup – le pouvoir de nuisance de ces « experts » inféodés aux industriels est absolument redoutable ! Enfin, dernier « détail » qui prouve s’il en était besoin que les « limites légales » sont tout sauf de la science exacte : la DJA ou les LMR n’arrêtent pas de changer, au gré des dernières études et de « l’état des connaissances  scientifiques». En clair : une norme considérée comme « sûre » telle année peut-être revue à la baisse, quelques années plus tard, et de nouveau présentée comme « légale » et donc « sûre ». Ce qui veut dire que la norme qui prévalait jusqu’à ce que les agences de réglementation décident de la changer n’était pas « sûre » du tout ! Vous me suivez ? Lisez le récit que j’ai fait de ma visite à l’EFSA en janvier 2010, et vous mesurerez l’embarras, voire la panique, qui s’empare des « experts » quand on leur fait remarquer ce genre d’incongruité. Dans mon film, c’était un moment très fort…

Janvier 2010 : une édifiante visite à l’Autorité européenne de sécurité des aliments (EFSA)

« J’ai ici un avis de l’EFSA qui annonce une baisse de la DJA et des LMR du procymidone en raison d’inquiétudes pour la santé du consommateur. Cela veut-il dire que la DJA précédente, dont on pensait qu’elle nous protégeait, en fait ne nous protégeait pas ? »

J’ai évidemment posé ma sempiternelle question à Herman Fontier, le chef de l’Unité des pesticides de l’Autorité européenne de sécurité des aliments (EFSA). J’ai alors senti un ange passer dans le petit bureau du toxicologue belge, qui lança plusieurs regards désespérés vers les trois membres du service de presse, assis dans mon dos. Au demeurant fort sympathiques, ceux-ci ont scrupuleusement enregistré les quatre interviews que j’ai réalisées à l’EFSA, ce 19 janvier 2010 à Parme. S’ils réécoutent leur bande, ils constateront aisément que je retranscris ici mot à mot la réponse très embrouillée de mon interlocuteur. Contraint à défendre l’indéfendable, celui-ci perdit pied : « Elle ne protégeait pas pour cette… Elle n’avait pas la même… Elle ne faisait pas la même protection. Encore une fois, il y a des valeurs de sécurité qui sont appliquées, une valeur de cent par rapport à la dose sans effet, donc il y a des sécurités qui sont un peu partout insérées dans le système. Il est donc très improbable que la DJA qui avait été fixée auparavant ait amené des effets pour la santé… »

Le malaise du fonctionnaire européen m’a d’abord fait sourire, puis remplie d’une infinie tristesse, car j’ai mesuré l’extrême fragilité des « magiciens des taux limites », contraints de danser sur un fil si ténu qu’il menace de craquer au premier accroc : « Si je vous offre une pomme avec des résidus de procymidone et de chlorpyriphos, est-ce que vous la mangez ?, lui ai-je demandé.

Cela dépend du niveau des résidus, s’il est conforme à la législation, avec une teneur en pesticides en dessous des LMR, oui je la consomme, a-t-il répondu, manifestement soulagé par cette nouvelle question.

Même si vous savez que, dans trois ans, on va revoir à la baisse les LMR parce qu’il y aura de nouvelles données ?

Oui, on ne sait jamais ce que nous réserve l’avenir, mais j’ai confiance dans le travail que nous faisons. Absolument[xi] ! »

C’est précisément pour « restaurer et maintenir la confiance vis-vis de l’approvisionnement alimentaire de l’Union européenne[2] » que l’EFSA a été créée en janvier 2002, « à la suite d’une série de crises liées à la sécurité des aliments survenues à la fin des années 1990 », ainsi que l’explique la page d’accueil de son site Web. Et il faut bien reconnaître que, dans ce domaine, la tâche de l’Autorité est immense. En effet, d’après un sondage « eurobaromètre » publié en février 2006, « 40 % des personnes interrogées pensent que leur santé pourrait être endommagée par la nourriture qu’elles mangent ou par d’autres produits de consommation. Une association entre l’alimentation et la santé n’est faite que par une personne sur cinq[xii] ». Et en tête des « facteurs externes » considérés comme particulièrement « dangereux » par les Européens, se trouvent les « résidus de pesticides » (71 %), suivis des « résidus dans la viande, comme les antibiotiques ou les hormones » (68 %). Enfin, dernier enseignement du sondage : « Si 54 % des citoyens pensent que leurs inquiétudes pour la santé sont prises au sérieux par l’Union européenne, 47 % estiment qu’au moment de décider des priorités, les autorités favorisent généralement les intérêts des fabricants plutôt que la santé des consommateurs. »

Installée à Parme (Italie), l’Autorité européenne de sécurité des aliments a pour mission d’évaluer les risques liés à l’utilisation de produits chimiques dans la chaîne alimentaire. Sans pouvoir réglementaire, elle se contente d’émettre des « avis et conseils scientifiques » pour « aider la Commission européenne, le Parlement européen et les États membres de l’Union européenne à arrêter des décisions efficaces et opportunes en matière de gestion des risques ». Pour comprendre la fonction de l’EFSA, il faut la replacer dans le système de réglementation européen des « produits phytosanitaires », régi par la directive 91/414 du 17 juillet 1991. Celle-ci prévoit que, pour pouvoir être utilisé légalement, tout pesticide doit au préalable être inscrit sur une « liste positive » de produits autorisés, la fameuse « Annexe 1 ». Afin d’obtenir cette inscription, le fabricant doit déposer une demande d’autorisation sur le marché auprès de l’un des États de l’Union, considéré comme l’« État rapporteur ». C’est lui qui est chargé de rassembler et d’évaluer les études toxicologiques et écotoxicologiques sur la substance active fournie par le fabricant. Pour cela, il sollicite l’expertise de l’EFSA, laquelle intervient à deux niveaux.

En premier lieu, elle donne son avis sur la classification de la molécule quant à ses effets potentiellement cancérigènes, mutagènes et reprotoxiques. Et, en second lieu, depuis le 1er septembre 2008, elle est chargée de proposer les DJA et LMR pour chaque pesticide soumis à évaluation, lesquelles sont promulguées par l’Union européenne et sont désormais communes aux vingt-sept États membres de l’Union.

Au final, c’est l’« État rapporteur » qui accorde la première autorisation de mise sur le marché d’un pesticide. Valable pour une durée de dix ans et renouvelable, elle est généralement reprise par les autres États européens, selon le principe dit de la « reconnaissance mutuelle », même si chaque pays garde la faculté « de limiter ou d’interdire de manière provisoire la circulation d’un produit sur son territoire ». En vertu du règlement 1107/2009, qui se substituera à la directive 91/414 à compter du 14 juin 2011, la Commission pourra désormais « adopter des mesures d’urgence pour restreindre ou interdire l’utilisation et/ou la vente d’un produit phytopharmaceutique lorsqu’il est susceptible de constituer un risque grave pour la santé humaine ou animale ou pour l’environnement et que ce risque est mal maîtrisé par l’État membre ou les États membres concernés ».

« Combien de substances actives de pesticides[3] sont-elles actuellement autorisées en Europe ?, ai-je demandé en janvier 2010 au chef de l’Unité des pesticides de l’EFSA.

Il faut savoir que dans les années 1990, il y en avait presque mille, m’a-t-il expliqué. Mais aujourd’hui, il n’y en a plus que trois cents. L’Union européenne a conduit un vaste programme de révision et beaucoup de molécules n’ont pas survécu, notamment parce que les industriels ne les ont pas défendues, en renonçant à envoyer les données qui leur étaient réclamées. Dans certains cas, le dossier soumis n’était pas complet et l’inclusion des produits dans cette nouvelle liste positive a été refusée.

Cela veut dire que sept cents molécules ont été récemment interdites ?

Oui, le programme de révision s’est terminé en 2008.

– Est-ce que l’EFSA tient compte des travaux du JMPR pour fixer les DJA et les LMR ?

– Bien sûr, nous suivons de très près les recommandations du JMPR. Nous n’arrivons pas toujours aux mêmes conclusions, parce que nous disposons parfois de nouvelles études que le JMPR n’avait pas au moment de son évaluation. Généralement, quand y a une différence, c’est que notre DJA est plus basse.

– Dans ce cas-là, pour le consommateur, il vaut mieux avoir la DJA de l’EFSA que celle du JMPR ?

– On trouve bien sûr que la DJA de l’EFSA est celle qu’il faut suivre ! »

 

Voilà ! Autant dire que les DJA et autres LMR sont des normes fluctuantes qui servent en quelque sorte de « cache-sexe » aux industriels et surtout aux politiques qui ont besoin de chiffres pour continuer à justifier l’usage des poisons chimiques dans la chaîne alimentaire (du champ du paysan à l’assiette du consommateur). La facture sanitaire de cet empoisonnement collectif est très élevée : le taux d’incidence des cancers, des troubles de la reproduction (stérilité), des maladies neurodégénératives, du diabète, de l’autisme, de l’obésité a explosé au cours des trente dernières années, tandis que l’espérance de vie en bonne santé ne cessait de reculer dans les pays dits « développés » et, depuis une date récente, dans les pays dits « en voie de développement ». Cette évolution préoccupante est due aussi à un autre fait que je n’ai pas encore abordé et qu’ignoraient René Truhaut, l’inventeur de la DJA et son maître, le Suisse Paracelse : pour de nombreuses molécules, ce n’est pas « la dose qui fait le poison », mais le moment de l’exposition. Ces molécules sont des hormones de synthèse utilisées pour des raisons diverses et variées par les industriels (comme le Bisphenol A des biberons en plastique dure, ou les phtalates des plastiques mous, le PFOA des poêles Téfal, ou de nombreux herbicides comme le Roundup) qui agissent à de très faibles doses et ont un impact absolument dévastateur sur les fœtus et embryons. On les appelle des « perturbateurs endocriniens » parce que ces substances ont la capacité de faire dérailler la mécanique délicate de l’organogenèse, à savoir le développement in utero des bébés, qui est lié à l’action minutieuse d’hormones dont elles prennent la place à de … très faibles doses. Or, l’effet des faibles doses est totalement ignoré par les agences de réglementation qui s’en tiennent au bon vieux principe de « la dose fait le poison » et par les industriels qui ne les mesurent pas ! C’est ainsi que les résidus faibles, par exemple de pesticides, ne sont pas recherchés, ni donc détectés, quand les 27 États de l’Union européenne analysent leurs échantillons alimentaires pour que l’EFSA puisse faire son rapport.

On ne trouve que ce que l’on cherche…

Et je dirais même : on ne trouve que ce que l’on est capable de chercher, car pour détecter de faibles résidus de pesticides, il faut des équipements que la majorité des pays européens n’ont pas. Lisez ce que j’ai écrit dans Notre poison quotidien et vous comprendrez pourquoi j’ai affirmé dans le premier article de ma série que le « rapport de l’EFSA » était « pipeau »…

« Depuis le 1er septembre 2008, les LMR sont fixées par la Commission européenne, qui a conduit un vaste programme d’harmonisation des normes existant dans les vingt-sept États membres de l’Union. En effet, jusqu’à cette date, chaque pays fixait ses propres taux limites sur chaque produit agricole (légumes, viandes, fruits, lait, œufs, céréales, épices, thés, cafés, etc.) et on compta jusqu’à 170 000 LMR différentes sur l’ensemble du territoire européen ! Un vrai casse-tête qu’a voulu simplifier la Commission, en alignant tous les pays de l’Union sur les mêmes valeurs.

« C’était une très bonne idée, car cela permettait d’assurer à tous les consommateurs européens un même niveau de protection, m’a commenté le 5 octobre 2009 Manfred Krautter, un chimiste qui a travaillé dix-huit ans à la section allemande de Greenpeace, à Hambourg. Malheureusement, au lieu de choisir le plus petit facteur commun, la Commission a retenu, généralement, les LMR les plus élevées. Pour l’Allemagne et l’Autriche, par exemple, qui avaient les normes les plus ambitieuses, l’harmonisation a entraîné une augmentation du niveau de résidus autorisé jusqu’à mille fois supérieure pour 65 % des pesticides utilisés[xiii]. »

Dans un rapport publié en mars 2008, Greenpeace et les Amis de la Terre soulignaient pourtant que « pour les pommes, les poires et le raisin de table, 10 % des taux limites fixés sont potentiellement dangereux pour les enfants », qui sont de grands consommateurs de ces fruits. En effet, comme on l’a vu (voir supra, chapitre 12), les normes toxicologiques sont exprimées en quantité de substance rapportée au poids corporel. Si un adulte consomme une quantité X de résidus de pesticides, celle-ci aura moins d’effets pour lui que pour un enfant. Dit autrement : un enfant de 12 kg qui mange deux pommes et une grappe de raisins court proportionnellement plus de risques qu’un adulte pesant 60 kg. Dans leur rapport, les organisations écologistes notent qu’un « enfant de 16,5 kg atteint les taux limites du procymidone en mangeant seulement 20 g de raisins et ceux du méthomyl (un insecticide) avec 40 g de pommes ou 50 g de prunes[xiv]. »

« Comment expliquez-vous que l’harmonisation a conduit à l’augmentation de nombreuses LMR plutôt qu’à une baisse ? »

Je dois dire que la réponse de Herman Fontier à cette question ne m’a pas vraiment convaincue : « D’abord, il faut souligner que l’EFSA a fait supprimer un certain nombre de LMR nationales qu’elle a considérées comme problématiques, a commencé le chef de l’Unité des pesticides de l’EFSA. Parfois, effectivement, il y avait des différences d’un pays à l’autre. Par exemple, dans l’État A, la LMR pour un produit agricole était, disons, de 1 mg/kg et, dans l’État B, de 2 mg/kg. Nous avons vérifié si les 2 mg/kg posaient un problème pour la santé et, si ce n’était pas le cas, nous avons décidé de prendre cette LMR comme référence, de manière à permettre au pays B de continuer à cultiver le produit avec la dose de pesticide nécessaire, car manifestement les conditions agronomiques et phytosanitaires n’étaient pas aussi favorables que dans le pays A. Mais il faut savoir que dans l’État A, on a continué à utiliser la dose minimale efficace permettant de ne pas dépasser le 1 mg/kg. Cela peut paraître paradoxal, mais l’augmentation qui est le résultat de l’harmonisation, n’entraîne pas une hausse de l’exposition des consommateurs ; en revanche, le fait qu’on a éliminé certaines LMR a permis d’augmenter leur sécurité[xv]… »

C’est ce qui s’appelle « dire tout et le contraire de tout ». Car, par le simple jeu du commerce, arrivent dans le pays A des produits du pays B qui contiennent deux fois plus de résidus que ceux cultivés sur place. Donc, prétendre qu’une augmentation des LMR n’entraîne pas de hausse du risque pour les consommateurs est au minimum une contre-vérité, d’ailleurs tout à fait contraire au principe même des taux limites. « L’augmentation d’un certain nombre de LMR permet d’embellir le tableau général en Europe, m’a expliqué Manfred Krautter, le chimiste de Greenpeace, car plus les normes sont élevées, moins il y a de chance de les dépasser ! C’est ce qu’on a vu lors de la publication du premier rapport annuel sur les résidus de pesticides de l’EFSA, où celle-ci s’est targuée de constater une baisse du pourcentage des dépassements des normes. »

Publié le 10 juin 2009, le rapport constituait une synthèse des observations réalisées dans les vingt-sept États membres de l’Union. Au total, 74 305 échantillons ont été prélevés sur 350 classes d’aliments : 354 pesticides différents ont été détectés dans les fruits et légumes et 72 sur les céréales. Les LMR étaient dépassées pour un ou plusieurs pesticides dans 3,99 % des échantillons ; et 26,2 % des échantillons contenaient des résidus d’au moins deux pesticides (et 1 % plus de huit pesticides différents). Ainsi que le soulignent les auteurs du rapport, « le pourcentage des fruits, légumes et céréales qui présentent des résidus multiples est passé de 15,4 % en 1997 à 27,7 % en 2006, avec une légère baisse en 2007[xvi] ».

Sur le papier, ces résultats semblent grosso modo rassurants, mais il faut noter qu’il s’agit d’une moyenne européenne qui cache de grandes disparités d’un pays à l’autre[4]. En effet, le nombre de pesticides recherchés varie de 709 en Allemagne, qui est de loin le meilleur élève de la classe, à… 14 en Bulgarie (265 en France et 322 en Italie). Le nombre de pesticides détectés varie donc aussi considérablement : 287 en Allemagne et 5 pour la Hongrie (122 en France et en Espagne)… Enfin, le nombre d’échantillons analysés est de plus de 16 000 en Allemagne, mais de seulement quelques centaines pour Malte ou le Luxembourg (4 000 pour la France). « Le problème, m’a expliqué Manfred Krautter, c’est que la détection de résidus de pesticides coûte très cher et de nombreux pays européens ne sont pas équipés pour mener correctement cette tâche. Si elle avait été honnête, l’EFSA aurait donc dû préciser que les chiffres qu’elle avançait étaient bien en deçà de la réalité. »

De fait, j’ai pu visiter en octobre 2009, à Stuttgart, le meilleur laboratoire allemand d’analyse de résidus de pesticides et de produits vétérinaires. Grâce à un équipement ultramoderne, utilisant la chromatographie et la spectrométrie de masse, ce centre public peut déceler plus de mille molécules (pesticides et leurs métabolites). « Nous sommes l’un des rares laboratoires européens à disposer de ce matériel, m’a expliqué Eberhard Schüle, le directeur. Et en moyenne, 5 % des aliments que nous analysons régulièrement à la demande des autorités allemandes dépassent les normes en vigueur.

Est-ce que vous mangez bio ?, ai-je demandé, provoquant la surprise de mon interlocuteur.

Je pourrais donner une réponse personnelle à cette question, mais en tant que représentant d’un établissement public, je préfère m’abstenir », m’a-t-il répondu[xvii].

En attendant, si plusieurs indices positifs (j’y reviendrai dans le dernier chapitre de ce livre) indiquent que l’Europe avance dans la bonne voie, on était toujours loin du compte en 2010. En épluchant le rapport de l’EFSA, j’ai découvert que parmi les douze pesticides qui étaient le plus souvent détectés sur les échantillons, deux étaient classés ou suspectés d’être reprotoxiques, un neurotoxique (le chlorpyriphos), cinq cancérigènes et deux perturbateurs endocriniens (dont le procymidone).

« On peut encore trouver des pesticides cancérigènes sur le marché ?, ai-je demandé à Herman Fontier.

Oui, il y en a encore quelques-uns, a concédé le directeur de l’Unité des pesticides de l’EFSA. Mais cela va changer avec le nouveau règlement européen 1107/2009 qui remplacera bientôt la directive 91/414. Car désormais, toutes les substances classées mutagènes, cancérogènes ou toxiques pour la reproduction de catégorie 1, ou suspectées de perturber le système endocrinien devront être retirées du marché[xviii]. »

C’est en effet une bonne nouvelle. Mais encore faut-il que les études sur lesquelles l’EFSA se fonde pour évaluer les produits chimiques soient de bonne qualité ou que les pressions exercées par les industriels ne biaisent pas complètement le processus, ce qui malheureusement est trop souvent le cas… Comme l’a montré de façon tristement exemplaire, dans un tout autre domaine que celui des pesticides, l’invraisemblable affaire d’un fameux édulcorant de synthèse, l’aspartame »…

 

Me voici à la fin de ma série. En conclusion, je laisserai la parole à Bernadette Ossendorp, la toxicologue hollandaise, qui présidait le panel de la FAO lors de la session du JMPR de septembre 2009 (et que l’on voit dans l’extrait de mon film que j’ai mis en ligne hier). Devant ma caméra, elle fit un aveu qui résume bien la situation inextricable dans laquelle les « magiciens des taux limites », pour reprendre l’expression du sociologue Ulrich Beck, sont empêtrés. Exténuée par mes questions, elle finit par lâcher : « Si vous voulez vraiment un risque zéro, vous avez raison, il ne faut pas utiliser de pesticides. Mais c’est une décision politique. Tant que les politiques diront qu’il faut les autoriser car les paysans en ont besoin pour avoir des récoltes abondantes, c’est le mieux que nous puissions faire[xix] »…

 

 

[1] L’expression employée par Ned Groth est un américanisme : la « méthode BOGSAT », pour bunch of guys sitting around the table (une bande de mecs assis autour de la table).

[2] C’est moi qui souligne.

[3] Une substance active peut donner lieu à de multiples formulations de pesticides différents.

[4] Par exemple, le pourcentage de petits pots pour bébés qui dépassaient les LMR variait de 0 % à 9,09 % selon les pays.

[i] Entretien de l’auteure avec Ned Groth, Washington, 17 octobre 2009.

[ii] René Truhaut, « Principles of toxicological evaluation of food additives », loc. cit. C’est moi qui souligne.

[iii] Diane Benford, « The acceptable daily intake, a tool for ensuring food safety », loc. cit. C’est moi qui souligne.

[iv] Entretien de l’auteure avec Erik Millstone, Brighton, 12 janvier 2010.

[v] Entretien de l’auteure avec James Turner, Washington, 17 octobre 2009.

[vi] House of Representatives, Problems Plague the EPA Pesticide Registration Activities, U.S. Congress, House Report 98-1147, 1984.

[vii] Office of Pesticides and Toxic Substances, Summary of the IBT Review Program, EPA, Washington, juillet 1983.

[viii] « Data validation. Memo from K. Locke, Toxicology Branch, to R. Taylor, Registration Branch », EPA, Washington, 9 août 1978.

[ix] Communications and Public Affairs, « Note to correspondents », EPA, Washington, 1er mars 1991.

[x] The New York Times, 2 mars 1991.

[xi] Entretien de l’auteure avec Herman Fontier, Parme, 19 janvier 2010.

[xii] Eurobarometer, « Risk issues. Executive summary on food safety », février 2006.

[xiii] Entretien de l’auteure avec Manfred Krautter, xxx, 5 octobre 2009.

[xiv] Lars Neumeister, « Die unsicheren Pestizid-höchstmengen in der EU. Überprüfung der harmonisierten EU-Höchstmengen hinsichtlich ihres potenziellen akuten und chronischen Gesundheitsrisikos », Greenpeace et GLOBAL 2000, Les Amis de la Terre/Autriche, mars 2008.

[xv] Entretien de l’auteure avec Herman Fontier, Parme, 19 janvier 2010.

[xvi] « 2007 annual report on pesticide residues », EFSA Scientific Report (2009), n° 305, 10 juin 2009.

[xvii] Entretien de l’auteure avec Eberhard Schüle, Stuttgart, 6 octobre 2009.

[xviii] Entretien de l’auteure avec Herman Fontier, Parme, 19 janvier 2010.

[xix] Entretien de l’auteure avec Bernadette Ossendorp, Genève, 22 septembre 2009.

3) La polémique Cash Investigation, L’industrie tire les ficelles de la réglementation

Voici la troisième partie de ma (longue) contribution à la polémique déclenchée par Cash Investigation. Progressivement le lecteur va comprendre que l’équipe de Élise Lucet a certes fait une erreur dans la lecture du Rapport de l’EFSA, mais qu’au fond le problème n’est pas là…

J’ai raconté, dans mon post d’hier, la genèse de la Dose Journalière Acceptable (ou admissible), la fameuse DJA, qui désigne la dose de poison chimique qui « peut être ingérée quotidiennement , et pendant toute une vie, sans aucun risque », pour reprendre la définition donnée par René Truhaut dans un document que j’ai consulté dans les archives de l’OMS.

Comment cette DJA est-elle calculée ? Ah ! Nous voici au cœur du problème ! Lors de mon enquête pour mon film et livre Notre poison quotidien , j’ai constaté que cette question gênait passablement les représentants des agences de réglementation (comme l’EFSA) qui ont beaucoup de mal à rentrer dans le « détail », justement !

Je mets en ligne un extrait de mon film où l’on voit clairement cette « gêne » et où l’on comprend aussi l’incroyable « bricolage » que représente le calcul de la DJA, grâce un dessin animé que j’avais réalisé avec les techniciens de l’INA (coproducteur du film).

Vous avez bien entendu les derniers mots de Diane Benford qui reconnaît que la DJA n’est pas la panacée, car elle « dépend de la qualité des études conduites sur les animaux. Si l’étude est médiocre, on risque d’être passé à côté d’effets qu’on aurait pu observer dans une étude de très bonne qualité…”

Ben oui! Le problème c’est que ce sont les fabricants de poisons chimiques qui réalisent (ou font réaliser par des laboratoires privés) les études toxicologiques et que ce sont aussi eux qui calculent la DJA à partir des données qu’ils ont produites. Soyons précis : le fait que l’on demande aux industriels de financer les études toxicologiques qui serviront à autoriser la mise sur le marché de leurs produits est tout à fait normal. En revanche, il est complètement anormal que les études qu’ils financent ne soient jamais rendues publiques ni publiées dans des revues scientifiques! Et c’est pourtant le cas ! C’est ce que j’ai pu constater lors de ma visite à l’OMS, où se tenait une réunion du JMPR, le comité (dont j’ai parlé hier) qui est chargé de déterminer la DJA des pesticides. En effet, au JMPR, tout est secret : l’identité des experts, le contenu des sessions qui se tiennent à huis clos, et les données envoyées par l’industrie, qui sont couvertes par le secret commercial !

Voici ce que je raconte dans mon livre Notre poison quotidien:

Les données de l’industrie sont « confidentielles »

« J’ai pu examiner la liste des études que vous a fournies Dow AgroSciences qui est le fabricant du chlorpyriphos-méthyl. C’est très intéressant, car elles sont toutes “non publiées” et couvertes par la “protection des données”. Est-ce toujours le cas ? »

Ma question a fait sourciller le professeur Angelo Moretto, un neurotoxicologue italien qui présidait le JMPR lors de la session de septembre 2009. Pour l’aider à formuler sa réponse, je lui ai tendu un document de soixante-six pages, publié en 2005 par l’Union européenne, qui énumère les deux cents et quelques études conduites par le fabricant américain sur son insecticide[i]. On y trouve les expériences menées sur des animaux pour mesurer la toxicité du produit, mais aussi les essais en champs destinés à évaluer le taux de résidus sur les cultures. Par exemple, l’une a mesuré « les résidus sur les tomates au moment de la récolte ainsi que sur des fractions transformées (boîtes de tomates, jus et purée) après de multiples applications de Reldan[ii] ». Une autre a évalué les « résidus sur des raisins à vin au moment de la récolte après deux applications de Reldan[iii] ». Toutes ces études sont citées avec la mention « unpublished », alors qu’un paragraphe introductif souligne que « le fabricant a demandé la protection des données ». Certaines de ces études concernent d’ailleurs le… chlorpyriphos et pas le chlorpyriphos-méthyl !

Après avoir longuement examiné le document, Angelo Moretto finit par lâcher : « Oui, c’est fort possible… Les études fournies par l’industrie au JMPR ou aux autorités nationales sont des données protégées par une clause de confidentialité. Mais si vous consultez les documents produits par le JMPR après les sessions d’évaluation ou par les autorités nationales, vous trouverez de larges résumés de ces données

Des résumés, mais pas les données brutes ?

Non, pas les données brutes, car elles appartiennent au fabricant… Vous devez donc faire confiance à la vingtaine d’experts du JMPR, qui sont venus du monde entier et ont été choisis pour leur expertise, pour l’analyse et l’interprétation correcte des données…

Et il n’y a aucune raison de ne pas vous faire confiance ?

J’espère bien que non ! », a conclu le président du JMPR, avec un sourire forcé[iv].

Nous touchons là à l’une des critiques récurrentes formulées par les organisations non gouvernementales et les représentants de la société civile à l’égard du JMPR ou du JECFA, mais aussi de l’EFSA ou de n’importe quelle agence publique chargée de l’évaluation ou de la gestion des risques chimiques. Car toutes acceptent sans broncher le diktat imposé par les industriels, qui exigent que les données de leurs études soient couvertes par le « secret commercial ».

« La pratique de maintenir les données secrètes ne sert que les intérêts commerciaux des entreprises chimiques, m’a dit Erik Millstone, le professeur britannique de “politique scientifique” (voir supra, chapitre 12). Elle est complètement contraire aux intérêts des consommateurs et de la santé publique. L’OMS et les agences de réglementation ne méritent aucunement la confiance du public, tant qu’elles ne changeront pas leur pratique. Seules les données qui concernent le processus de fabrication des produits peuvent justifier la clause de confidentialité, car, dans un contexte de concurrence, elles représentent des informations commerciales sensibles. Mais toutes les données toxicologiques qui concernent la sécurité ou la toxicité des produits devraient être dans le domaine public[v]. »

J’ai également abordé cette délicate question avec Angelika Tritscher, la secrétaire du JMPR et du JECFA, qui joue à ce titre un rôle central dans l’organisation du processus d’évaluation. C’est elle qui, un an avant les sessions des comités, annonce publiquement quelles seront les substances soumises à une (ré) évaluation, en demandant aux « gouvernements, organisations intéressées, producteurs des produits chimiques et individus de fournir toutes les données disponibles, […] qu’elles soient publiées ou non publiées ». Dans le texte qu’elle a mis en ligne en octobre 2008, en prévision de la session du JMPR de septembre 2009, elle précisait : « Les études confidentielles non publiées seront protégées et ne seront utilisées que pour les objectifs d’évaluation du JMPR[vi]. »

« Pourquoi les données brutes ne sont-elles pas publiques ?, lui ai-je demandé.

– Franchement, je ne vois pas vraiment ce que le public pourrait faire de toutes ces données : ce sont des milliers de pages…, m’a-t-elle répondu.

Je ne parle pas du public au sens large, mais, par exemple, d’une organisation de consommateurs ou environnementale qui voudrait vérifier les données toxicologiques d’un pesticide. Pourquoi celles-ci sont-elles couvertes par le secret commercial ?

– C’est à cause de la protection des droits de propriété intellectuelle… Ce sont des problèmes légaux. Les données sont privées et appartiennent à l’entreprise qui les transmet. Nous n’avons pas le droit de les communiquer à une tierce partie…

– Le fait que les données sont protégées alimente le doute quant à leur validité et sape la confiance qui est basée sur la transparence

– Bien sûr ! Je comprends tout à fait votre remarque, car on a l’impression que nous avons quelque chose à cacher, a reconnu Angelika Tritscher, avec une surprenante franchise.

Si on prend l’exemple du tabac, les études fournies par les fabricants de cigarettes étaient défectueuses, et même manipulées ou falsifiées, et l’OMS a été trompée pendant des années par l’industrie…

– Je n’ai pas de commentaire à faire…

– Mais c’est vrai ?

Je n’ai pas de commentaire à faire, d’autant plus que cela s’est passé avant mon arrivée à l’organisation. Je ne connais pas tous les détails…

– Je sais que c’est une histoire douloureuse ici, qui a conduit à une sérieuse mise au point en 2000[vii]

– Oui, c’est clairement une histoire douloureuse. Mais je ne suis pas sûre que ce soit comparable avec la situation des pesticides. Reste que la protection des données est bien l’objet d’un intense débat ici et nous verrons bien où cela nous mènera… Vous devriez demander à l’industrie pourquoi elle tient tant à la confidentialité des données[viii]… »

Edifiant, non ?

Mais ce n’est pas tout !

Comme on l’a vu, la DJA d’un poison désigne la quantité maximale que les consommateurs sont censés pouvoir ingurgiter quotidiennement, pendant toute leur vie, sans tomber malades. Le problème, c’est que le dit poison peut être utilisé pour traiter une multitude de fruits, légumes ou céréales. C’est notamment le cas du chlorpyriphos-méthyl, insecticide utilisé dans le traitement des agrumes (citrons, mandarines, oranges, bergamotes), toutes sortes de noix (pécan, pistaches, coco, etc.) et des fruits (pommes, poires, abricots, pêches, prunes, fruits rouges, raisins, etc.)[1]. La question qui se pose à ceux qu’on appelle les «  gestionnaires du risque » est donc la suivante : comment empêcher qu’un consommateur atteigne sa dose journalière de chlorpyriphos-méthyl, tout simplement parce qu’il a l’habitude de manger de manière inconsidérée (!) quelques-uns des aliments traités par le pesticide ?

Pour éviter ce scénario catastrophe, les fondateurs du JMPR ont  décidé qu’il fallait calculer pour chaque produit agricole susceptible d’être arrosé par des pesticides ce qu’ils appellent des « limites maximales de résidus ». Les « LMR », qui sont exprimées en milligramme de pesticide par kilo de denrée alimentaire, sont fixées au terme d’un processus dont la complexité n’est guère rassurante. Pour bien comprendre comment marche cette énorme machine à produire des chiffres, je vous propose de regarder un autre extrait de mon film.

Les Limites Maximales de Résidus (sous-entendu « autorisées) ou « LMR » sont donc les « limites légales » citées dans le rapport de l’EFSA, qui, je le rappelle, se félicite que «plus de 97 % des aliments » testés en 2013 dans 27 pays de l’Union Européenne, « contiennent des résidus de pesticides dans les limites légales ». Le lecteur aura compris que les « limites légales » sont établies dans des conditions pour le moins inquiétantes. Demain, je raconterai comment les échantillons prélevés sont testés et vous verrez que n’est pas non plus très rassurant…

[1] Voir le site de l’Union européenne qui présente les normes de tous les pesticides utilisés en Europe : EU Pesticides Database, <http://ec.europa.eu/sanco_pesticides/public/index.cfm#>. On y trouvera la liste de tous les produits agricoles arrosés de chlorpyriphos-méthyl.

[i] Health & Consumer Protection Directorate-General, « Review report for the active substance chlorpyrifos-methyl », European Commission, 3 juin 2005.

[ii] R. Teasdale, « Residues of chlorpyrifos-methyl in tomatoes at harvest and processed fractions (canned tomatoes, juice and puree) following multiple applications of RELDAN 22 (EF-1066), Italy 1999 », R99-106/GHE-P-8661, 2000, Dow GLP (unpublished).

[iii] A. Doran et A. B Clements, « Residues of chlorpyrifos-methyl in wine grapes at harvest following two applications of EF-1066 (RELDAN 22) or GF-71, Southern Europe 2000 », (N137) 19952/GHE-P-9441, 2002, Dow GLP (unpublished).

[iv] Entretien de l’auteure avec Angelo Moretto, Genève, 21 septembre 2009.

[v] Entretien de l’auteure avec Erik Millstone, Brighton, 12 janvier 2010.

[vi] Joint FAO/WHO Meeting on Pesticide Residues 2009, « List of substances scheduled for evaluation and request for data. Meeting Geneva, 16-25 September 2009 », octobre 2008.

[vii] Voir Thomas Zeltner et alii, « Tobacco companies strategies to undermine tobacco control activities at the World Health Organization », Report of the Committee of Experts on Tobacco Industry Documents, OMS, juillet 2000. Voir aussi : Sheldon Krimsky, « The funding effect in science and its implications for the judiciary », Journal of Law and Policy, 16 décembre 2005.

[viii] Entretien de l’auteure avec Angelika Tritscher, Genève, 21 septembre 2009.

2) La polémique Cash Investigation: De l’art d’empoisonner à petites doses

Je continue, comme promis, ma plongée dans la mécanique tordue du processus d’ « évaluation des risques » qui est censé nous protéger, nous les consommateurs, en nous permettant de manger des pommes ou salades présentant des résidus de poisons chimiques « dans les limites légales autorisées » ou sans « trace détectable », comme l’écrit le rapport de l’EFSA. Ah ! La belle affaire ! Vous allez voir que c’est tout sauf rassurant…

Hier, j’ai raconté que c’était René Truhaut, un toxicologue français (1909_1994) qui a eu l’idée d’inventer la fameuse DJA, la Dose Journalière Acceptable laquelle désigne la dose de poison que nous sommes « autorisés » à ingérer chaque jour sans tomber malades ou … raides morts. Dans les années 1950, l’initiative de Truhaut était carrément révolutionnaire et partait d’un souci réel de protéger les consommateurs. A l’époque, en effet, des milliers de produits chimiques – pesticides, additifs alimentaires, emballages plastiques- avaient envahi la chaîne alimentaire, sans aucune évaluation préalable ! En d’autres termes : n’importe quel industriel pouvait mettre n’importe quel produit toxique sur le marché (comme un colorant pour rendre le jambon tout rose) sans qu’il n’ait besoin de fournir aucun dossier toxicologique préliminaire !

C’est bien ce qui inquiétait René Truhaut, ainsi qu’on l’a vu dans la vidéo que j’ai mise en ligne sur mon post d’hier: « Un consommateur qui absorbe par exemple une petite quantité de colorant pendant deux semaines, pendant deux mois, pendant un ou deux ans, peut n’avoir aucun effet nocif, déclarait-il ainsi de sa voix haut perchée. Mais il faut prévoir que ces petites doses longtemps répétées, jour après jour, pendant toute une vie, peuvent parfois comporter des risques extrêmement insidieux et même parfois des risques irréversibles, car il y a certains colorants, par exemple, qui au moins chez l’animal se sont avérés capables de provoquer des proliférations malignes, c’est-à-dire des cancers[i].

Dans mon film Notre poison quotidien, j’ai aussi utilisé l’autre (unique) interview télévisée qu’il a donnée en 1964, où il faisait preuve d’une franchise qui est tout à son honneur : « Si vous me permettez de faire une comparaison, expliquait-il avec un souci pédagogique évident, au siècle dernier, lorsque ce citoyen du monde que fut Pasteur a découvert le danger des bactéries, eh bien dans le domaine alimentaire spécifiquement, on a accordé une très grande importance au contrôle microbiologique des aliments et on a fondé toute une série de laboratoires pour effectuer ce contrôle. Eh bien, il faudrait qu’il en soit de même dans le cadre du contrôle des agents chimiques ajoutés aux aliments, parce que leurs dangers, pour être plus insidieux, moins spectaculaires, si vous voulez, n’en sont à mon avis certainement pas moins graves[ii]. »

Donc, Truhaut eut une bonne intuition : les produits chimiques sont dangereux et il faut les réglementer. Pour cela, il proposa de  s’inspirer de celui qui était considéré comme le père de la toxicologie, le médecin suisse …Paracelse.

Voici la présentation que j’en fais dans mon livre Notre poison quotidien :

 

L’utilisation perverse du principe de Paracelse : « Seule la dose fait le poison »

« Né Philippus Theophrastus Aureolus Bombastus von Hohenheim (1493-1541), celui qui est entré dans l’histoire sous le nom de Paracelse était un alchimiste, astrologue et médecin suisse, à la fois rebelle et mystique, qui a dû maintes fois se retourner dans sa tombe en voyant comment les toxicologues du xxe siècle ont abusé de son nom pour justifier la vente massive de poisons. Parmi les coups de gueule légendaires du « médecin maudit[iii] », l’un mérite d’être médité par tous ceux qui sont chargés de la protection de notre santé : « Qui donc ignore que la plupart des médecins de notre temps ont failli à leur mission de la manière la plus honteuse, en faisant courir les plus grands risques à leurs malades[iv] ? », s’emporte en 1527 le professeur de médecine, alors qu’il vient de brûler les manuels classiques de sa discipline devant l’université de Bâle, ce qui, on s’en doute, lui valut quelques solides inimitiés.

« Allergique à tout argument d’autorité[v] » – ce que semblent aussi avoir oublié ceux qui appliquent les yeux fermés le principe qui porte son nom –, Paracelse est considéré comme le père à la fois de l’homéopathie et de la toxicologie, deux disciplines qui, aujourd’hui, ne s’apprécient guère. La première revendique l’une de ses maximes les plus célèbres, dont s’est aussi inspiré Pasteur lorsqu’il inventa le premier vaccin : « Ce qui guérit l’homme peut également le blesser et ce qui l’a blessé peut le guérir. » La seconde en préfère une autre, somme toute complémentaire : « Rien n’est poison, tout est poison : seule la dose fait le poison[1]. »

L’idée que « seule la dose fait le poison » remonte en fait à l’Antiquité. Dans leur livre Environnement et santé publique, Michel Gérin et ses coauteurs rappellent que « le roi Mithridate consommait régulièrement des décoctions contenant plusieurs dizaines de poisons afin de se protéger d’un attentat de ses ennemis. Il aurait si bien réussi que, fait prisonnier, il échoua dans sa tentative de se suicider à l’aide de poison[vi] ». C’est au roi grec que l’on doit donc le mot « mithridatisation », qui désigne « l’accoutumance ou l’immunité acquise à l’égard de poisons par exposition à des doses croissantes ». S’appuyant sur ses propres observations, Paracelse considère que des substances toxiques peuvent être bénéfiques à petites doses et que, inversement, une substance a priori inoffensive comme l’eau peut se révéler mortelle si elle est ingérée en trop grande quantité. Nous verrons ultérieurement que le principe « seule la dose fait le poison » – dogme intangible de l’évaluation toxicologique des poisons modernes – n’est pas valide pour de nombreuses substances, mais nous n’en sommes pas encore là… »

 

Adepte inconditionnel de Paracelse, René Truhaut était titulaire de la chaire de toxicologie de la faculté de Paris et était considéré comme l’un des pionniers de la cancérologie française. Membre des académies françaises de médecine et des sciences, il avait son entrée dans toutes les grandes instances internationales, dont l’Organisation Mondiale de la Santé (OMS) qu’il fréquenta assidûment pendant plus de trente ans. C’est dans le cadre de l’institution onusienne qu’il développa le principe de la DJA, ainsi qu’il l’a revendiqué dans un (rare) article publié en 1991 : « Je crois avoir vraiment été l’initiateur du concept de la dose journalière acceptable (DJA), comme cela a d’ailleurs été reconnu dans plusieurs articles écrits par des experts qui ont vécu avec moi, pendant la période des années 1950 à 1962, écrit-il alors avec une certaine retenue dont on ne sait si c’est de la prudence ou de la modestie. Malheureusement et paradoxalement, je n’ai, à l’époque, rien publié dans des périodiques scientifiques[vii]. »

C’est bien dommage, en effet, car l’enquête que j’ai menée pour Notre poison quotidien montre que la belle idée de René Truhaut n’a jamais été validée scientifiquement par aucune étude qui permette de confirmer la pertinence de la DJA… Mais n’allons pas trop vite, car, comme vous le savez, « le diable est dans le détail »… À ce stade de mon récit, il convient de savoir que c’est René Truhaut qui est à l’origine (avec d’autres) de la création de deux organismes onusiens très importants pour la suite de notre histoire : le JECFA (Le Comité d’experts FAO/OMS sur les additifs alimentaires)  et le JMPR ((Le Comité d’experts FAO/OMS sur les résidus de pesticides), chargés de l’ « évaluation du risque chimique » et d’établir les « normes alimentaires internationales » dans le cadre du « Codex Alimentarius ». Ouah !

Voici ce que j’écris dans Notre poison quotidien :

« L’initiative conduira à la création du Joint FAO/WHO Expert Meeting Committee on Food Additives (JECFA), dont la première session s’est tenue à Rome, en décembre 1956. Nommés par la FAO et l’OMS, les experts, dont faisait partie René Truhaut, adoptèrent le principe dit des « listes positives », selon lequel « l’emploi de toute substance, non autorisée sur des bases toxicologiques adéquates, est interdit[viii] ». Concrètement, cette recommandation signifie qu’aucun nouvel additif alimentaire ne peut être utilisé par l’industrie agroalimentaire sans avoir subi au préalable des tests toxicologiques qui doivent être soumis pour évaluation au JECFA (ou à une agence nationale). Sur le fond, c’était une avancée spectaculaire, allant clairement dans le sens de la protection des consommateurs. Mais nous verrons avec l’exemple de l’aspartame (voir infra, chapitres 14 et 15) comment ce système d’évaluation sera régulièrement détourné par l’industrie à son seul et unique profit.

Les experts soulignaient aussi la nécessité d’accorder une « importance primordiale à l’utilité technologique de l’additif soumis à l’évaluation toxicologique[ix] ». Cette remarque est intéressante, car elle permet de comprendre le contexte idéologique dans lequel s’inscrivait la démarche de René Truhaut et de ses collègues. À aucun moment, ils ne questionnent la nécessité sociale d’utiliser des substances chimiques pour la production d’aliments, même si celles-ci sont a priori toxiques. À l’évidence sincèrement soucieux des risques pour la santé publique liés à la présence d’adjuvants chimiques dans les aliments, René Truhaut exprime ainsi une préoccupation, pas si fréquente à l’époque, sur les « risques du progrès ». Pour autant, il n’entend aucunement remettre en cause l’idée que ces innovations auraient une « utilité technologique » : il ne s’agit pas pour lui de demander l’interdiction pure et simple de substances cancérigènes « ajoutées intentionnellement à la nourriture » dans le seul intérêt économique des fabricants, mais de gérer au mieux le risque qu’elles engendrent pour le consommateur, en essayant de le réduire au minimum. C’est ainsi que lors de la deuxième session du JECFA, qui s’est tenue à Genève en juin 1957, les experts ont longuement disserté sur le type d’études toxicologiques qu’il fallait exiger des industriels pour déterminer la dose de poison qu’on pouvait tolérer dans les aliments. Je dis bien « poison », car si la substance concernée n’était pas suspectée d’en être un, le JECFA n’aurait aucune raison d’exister, ni d’ailleurs la fameuse DJA.

Pour bien comprendre le caractère pour le moins approximatif de la démarche, il faut citer le récit qu’en a fait postérieurement René Truhaut, en 1991 : « J’ai contribué à introduire, dans le rapport final un nouveau chapitre “Évaluation des concentrations probablement inoffensives pour l’homme” avec les phrases suivantes : “En s’appuyant sur ces diverses études, on peut fixer dans chaque cas la dose maximale qui ne provoque, chez les animaux employés, aucun effet décelable (ci-après appelés pour plus de brièveté “dose maximum sans effet décelable”, en anglais, maximum ineffective dose). Lorsqu’on extrapole cette dose à l’homme, il est opportun de prévoir une certaine marge de sécurité”. » Et d’ajouter, avec une étonnante franchise : « C’était un peu flou[x]. »

C’est effectivement le moins que l’on puisse dire, mais cela n’empêcha pas le JECFA d’adopter le principe de la dose journalière acceptable lors de sa sixième session de juin 1961, où les experts décidèrent d’exprimer la « dose ne provoquant, dans l’expérimentation, aucun effet ayant une signification toxicologique en mg/kg de poids corporel/jour ». Avant d’expliquer plus en détail ce que signifie précisément cette unité de mesure cabalistique, il convient de souligner, une fois de plus, la lucidité du « père de la DJA », qui avoue dans un même élan les limites de sa création : « Lorsqu’on parle de doses sans effet dans l’expérimentation toxicologique, il faut savoir que seule la dose zéro doit être ainsi considérée, toute autre dose comportant un effet, si minime soit-il[xi]. » En d’autres termes : la DJA n’est pas la panacée, mais elle permet de limiter les dégâts que causeront immanquablement les substances chimiques ingérées, comme les additifs alimentaires, mais aussi les résidus de pesticides.

En effet, en 1959, alors qu’ont lieu les premières sessions du JECFA, la FAO propose la création d’un comité similaire, chargé d’étudier les « dangers posés aux consommateurs par les résidus de pesticides que l’on trouve sur et dans les aliments et fourrages[xii] ». Cette nouvelle initiative est la preuve, s’il en était besoin, qu’avant cette date personne ne s’était sérieusement préoccupé des effets que pouvaient avoir les pesticides sur la santé humaine, alors que les poisons agricoles avaient déjà largement conquis les champs des paysans. Trois ans plus tard, au moment où Le Printemps silencieux de Rachel Carson défraye la chronique internationale, la FAO réunit une conférence pour « formuler et recommander un programme d’action future concernant les aspects scientifiques, législatifs et réglementaires de l’usage des pesticides dans l’agriculture », ainsi que le rapportera en 1981 René Truhaut, qui fut l’un des principaux protagonistes de ces rencontres[xiii].

Il raconte notamment qu’il a participé à un groupe de travail « sur la lutte contre la mouche de l’olive, culture fort importante, comme chacun sait, dans le bassin méditerranéen ». Et de préciser : « J’ai été confronté au problème de la fixation, dans l’huile d’olive livrée à la consommation humaine, de limites maximales de résidus de divers insecticides organophosphorés et notamment du parathion[2]. La limite de concentration généralement adoptée dans les divers pays du monde était alors de 1 mg/kg d’huile. Mais, sur le plan toxicologique, tout dépend de la quantité d’huile consommée par jour. Le pâtre grec qui a des olives à sa disposition plonge son pain dans l’huile et peut en absorber jusqu’à 60 g par jour. Il absorbe donc beaucoup plus de parathion que des consommateurs qui n’ingèrent de l’huile d’olive qu’avec la salade. Et, raisonnant sur cet exemple, j’ai été conforté dans mon idée qu’il fallait inverser le problème et fixer une dose à partir de laquelle on pourrait calculer les tolérances à fixer pour tel ou tel aliment en fonction de la quantité moyenne consommée dans telle ou telle région[xiv]. » Ce que décrivait là le toxicologue français en 1991 correspond exactement à la tâche assignée au Joint FAO/WHO Meeting on Pesticides Residues (JMPR), le comité d’experts institué par l’OMS et la FAO en octobre 1963, pour établir la DJA des pesticides, mais aussi ce que l’on appelle les « limites maximales de résidus » (LMR), à savoir la quantité de résidus de pesticides autorisée sur chaque produit agricole traité (voir chapitre suivant). »

Demain je raconterai en « détail » (ben oui !!) comment le processus d’évaluation des risques chimiques est verrouillé par les industriels, et, en fait, ne sert que leurs intérêts. Vous comprendrez alors pourquoi j’ai écrit hier que  le rapport de l’EFSA était de « l’enfumage ». Au passage je souligne l’incroyable prouesse des experts qui ont contribué à la rédaction de ce rapport, car il n’est pas aisé de rendre un semblant de cohérence à un incroyable bricolage (et je pèse mes mots…)

Et finalement, je ne peux pas résister à vous transmettre un autre extrait de mon livre où je rends hommage au sociologue allemand Ulrich Beck qui dans son ouvrage La Société du risque dresse un réquisitoire implacable du rôle joué par les scientifiques dans le désastre sanitaire qui caractérise la « modernité avancée » :

« Les sciences telles qu’elles ont été conçues – avec leur répartition du travail ultraspécialisée, leur appréhension des méthodes et de la théorie, leur absence totale de rapport avec la praxis – se révèlent totalement incapables de réagir de façon adéquate aux risques liés à la civilisation, pour la bonne raison qu’elles participent activement à leur naissance et à leur développement, écrit Ulrich Beck. Elles se muent bien plutôt – que ce soit avec la bonne conscience de la “scientificité pure” ou avec des scrupules croissants – en protecteurs et légitimateurs d’une pollution industrielle planétaire de l’air, de l’eau, de l’alimentation, etc., et du déclin et du dépérissement des plantes, des animaux et des hommes qui en résultent[xv]. »

Ulrich Beck consacre ainsi de longues pages aux « scientifiques spécialistes du risque », qu’il appelle les « magiciens » ou les « acrobates des taux limites » : « Comme les scientifiques ne sont jamais totalement inconscients, ils ont inventé bien des mots, des méthodes et des chiffres pour masquer leur inconscience. Le mot “taux limite” est l’une des façons les plus répandues de dire que l’on ne sait rien. […] Les taux limites de présence “acceptable” de substances polluantes et toxiques dans l’air, l’eau et l’alimentation réussissent le tour de force d’autoriser les émissions polluantes tout en légitimant leur existence, tant qu’elle se cantonne en deçà de valeurs établies. En limitant la pollution, on fait le jeu de la pollution. […] Il est possible que les taux limites permettent d’éviter le pire, mais ils servent aussi à “blanchir” les responsables : ils peuvent se permettre d’empoisonner un peu la nature et les hommes. […] Les taux limites sont les lignes de repli d’une civilisation qui s’entoure elle-même de substances polluantes et toxiques en surabondance. L’exigence de non-intoxication, qui paraît pourtant le fait du bon sens le plus élémentaire, est donc rejetée parce qu’utopique. […] Les taux limites ouvrent la voie à une ration durable d’intoxication collective normale. […] Ils assurent une fonction de désintoxication symbolique. Ils font office d’anxiolytiques symboliques contre l’accumulation d’informations catastrophiques sur la pollution. Ils indiquent qu’il y a des gens qui se donnent du mal et qui restent vigilants[xvi]. » Et Ulrich Beck de conclure par un commentaire acerbe sur les « constructeurs de taux limites », qui sont à ses yeux des « chimistes magiciens de l’ère postindustrielle », doués de « talents de voyance extralucide » et d’un « troisième œil » : « En fin de compte, il s’agit de déterminer jusqu’où on peut aller sans que l’intoxication soit une intoxication, et à partir de quand une intoxication est une intoxication. […] Il est difficile de voir dans tout cela autre chose qu’une façon très élégante et très chiffrée de déclarer : nous non plus, nous ne savons pas[xvii]. »

 

[1] Rebelle invétéré, Paracelse n’écrivait pas en latin, mais en allemand. Pour les germanistes, la phrase originale est : « Alle Ding sind Gift, und nichts ohne Gift ; allein die Dosis macht, das ein Ding kein Gift ist ». Mot à mot : tout est poison et rien n’est sans poison. Seule la dose fait qu’une chose n’est pas un poison.

[2] Le parathion a été interdit en Europe en 2003, en raison de sa haute toxicité. Il fait partie des insecticides qui ont rejoint la liste de la « sale douzaine » des polluants persistants, à bannir à tout prix. Jusqu’à son interdiction, il avait une DJA de 0,004 mg par kg de poids corporel…

[i] Interview diffusée dans le journal télévisé de l’ORTF le 3 juin 1974.

[ii] Jean Lallier, Le Pain et le Vin de l’an 2000, documentaire diffusé sur l’ORTF le 17 décembre 1964. Ce film fait partie des bonus du DVD de mon film Notre poison quotidien.

[iii] René Allendy, Paracelse. Le médecin maudit, Dervy-Livres, Paris, 1987.

[iv] Paracelsus, « Liber paragraphorum », Sämtliche Werke, Éditions K. Sudhoff, tome 4, p. 1-4.

[v] Andrée Mathieu, « Le 500e anniversaire de Paracelse », L’Agora, vol. 1, n° 4, décembre 1993-janvier 1994.

[vi] Michel Gérin et alii, Environnement et santé publique, op. cit., p. 120. On soupçonne que les poisons utilisés par le malheureux roi – qui sera finalement tué par un mercenaire – étaient en fait éventés…

[vii] René Truhaut, « Le concept de la dose journalière acceptable », Microbiologie et Hygiène alimentaire, vol. 3, n° 6, février 1991, p. 13-20.

[viii] René Truhaut, « Le concept de la dose journalière acceptable », loc. cit.

[ix] Ibid.

[x] René Truhaut, « Le concept de la dose journalière acceptable », loc. cit. C’est moi qui souligne.

[xi] Ibid. C’est moi qui souligne.

[xii] René Truhaut, « 25 years of JECFA achievements », loc. cit.

[xiii] Ibid.

[xiv] René Truhaut, « Le concept de la dose journalière acceptable », loc. cit.

[xv] Ulrich Beck, La Société du risque, op. cit, p. 107.

[xvi] Ibid., p. 116, 117, 125 et 126. C’est Ulrich Beck qui souligne.

[xvii] Ibid., p. 118 et 124.

La polémique autour de Cash Investigation : le diable est dans le détail… 1) La « formidable imposture de la Dose Journalière Admissible de poisons »

Le diable est dans le détail… Telle est ma devise, surtout lorsqu’il s’agit de réaliser un documentaire et d’écrire un livre portant sur les pesticides. Cela veut dire qu’avant de lancer un film à la télé ou un livre dans les librairies, il m’a fallu en moyenne deux ans d’enquête et un tour du monde, avec la lecture de centaines d’études scientifiques, de rapports et livres spécialisés, et plusieurs dizaines d’entretiens filmés de grands témoins (chercheurs indépendants, experts des agences de réglementation, victimes, avocats, etc). C’est ce que j’ai fait pour Le monde selon Monsanto et Notre poison quotidien, deux films et deux livres qui ont été traduits dans plus de vingt langues. C’est précisément cette obsession du « détail » qui m’a permis d’échapper aux poursuites judiciaires ou diffamatoires des fabricants de « poisons agricoles » et de leurs (très actifs) lobbyistes.

Le diable est dans le détail… Cette devise s’applique parfaitement à la polémique qui a suivi la diffusion du Cash Investigation sur les pesticides et qu’a entretenue Libération dans sa rubrique « Désintox ». Or, je dois dire que dans les deux cas mes confrères ont péché soit par l’approximation de leurs affirmations (Cash) ou par leur candeur (Libé). D’abord, à la décharge des journalistes de Premières Lignes qui ont préparé l’émission, il faut dire que la formulation du rapport de l’Autorité européenne de la sécurité des aliments (EFSA) est un peu tordue: «Plus de 97 % des aliments contiennent des résidus de pesticides dans les limites légales », titre, en effet, le résumé du rapport annuel publié par l’agence sur son site en mars 2015.

Bon, c’est vrai, ainsi que le souligne Libération, l’équipe de Cash aurait été bien avisée de citer le titre en entier, en n’omettant pas la fin: « dans les limites légales ». Mais il n’empêche : le titre dit clairement que  «Plus de 97 % des aliments contiennent des résidus de pesticides », le fait que ce soit « dans les limites légales » ne change rien au résultat ! Certes, juste en dessous, on apprend que sur les 97%, « presque 55% » ne présentaient « aucune trace détectable » de produits chimiques. On comprend le raisonnement (encore une fois compliqué) des experts de l’EFSA : les 55% sont inclus dans les 97%, car si un aliment ne contient aucun résidu de pesticides détectable, il respecte, bien sûr, les « limites légales autorisées »…

Quand on lit le rapport lui-même (et non plus le seul résumé) on découvre que ce sont exactement 97,4% des aliments testés (81000 au total prélevés dans 27 pays de l’Union Européenne) qui « contiennent des résidus de pesticides dans les limites légales », et que les 2,6% restant dépassent les « Limites Maximales de Résidus autorisées », les fameuses « LMR » (sur lesquelles je reviendrai). Ici, très clairement, le journaliste de Cash s’est trompé quand il a répondu à un téléspectateur que les « 3% restant » sont des « produits bio ou à faible teneur en pesticides », car ce sont «  au contraire les produits dont la teneur en pesticides dépasse les normes », ainsi que l’écrit Désintox. Jusque là, on est d’accord : Cash s’est planté deux fois, parce que ses journalistes ont mal lu le rapport de l’EFSA. Ok ! Mais, ce n’est pas pour autant que mes collègues de France 2 ont tort sur le fond, ni que la critique de Désintox est parole d’évangile ! Je dirais même que ma consoeur de Libé, en voulant faire la leçon (Ah ! la vieille guéguerre entre les journalistes de télé et de presse écrite !), finalement fait preuve d’une grande naïveté, quand elle explique la rédaction tordue (j’insiste !) du rapport en ces termes : « En fait, l’agence européenne se réjouit de voir que les limites autorisées sont largement respectées, d’où cet accent mis sur le chiffre de 97 % ». Ben voyons !

Encore une fois, « le diable est dans le détail ». Si les experts de l’EFSA sont gênés aux entournures, en écrivant des propos alambiqués, c’est parce qu’ils savent que les données sur lesquelles se fondent leur rapport sont – passez moi l’expression – de l’enfumage, une entourloupe, du bricolage. Bref, c’est pipeau ! Et si l’auteure de Désintox avait bien fait son boulot, elle se serait attardée sur les deux seules expressions qui comptent dans le rapport européen (ceux que j’ai mis en gras dans mon texte) : « limites légales autorisées » et « résidu détectable ». Relisons le résumé : « Plus de 97 % des échantillons alimentaires évalués par l’Agence européenne de sécurité des aliments (EFSA) contiennent des concentrations de résidus de pesticides qui se situent dans les limites légales autorisées, dont presque 55 % sans aucune trace détectable de ces produits chimiques ». D’abord, avec ce genre de « littérature », il faut savoir lire entre les lignes : la précision « aucune trace détectable » signe, en fait, un bel aveu des auteurs de l’EFSA qui, à leur insu, insinuent qu’il y a peut-être des résidus, mais qu’ils n’ont pas été détectés. Pourquoi ? Ah ! Nous voici au cœur du problème ! Ensuite, il n’y a pas lieu de se réjouir des chiffres fournis par l’EFSA, car ils s’appuient sur des montagnes de chiffres hautement contestables qui sont tout, sauf rassurants. Pourquoi ?

C’est ce que je vais expliquer maintenant en m’appuyant sur des extraits de mon livre Notre poison quotidien. J’ai toujours dit que « savoir c’est pouvoir », mais pour « savoir » il faut accepter de plonger dans la mécanique tordue (ben oui, je me répète, mais à « mécanique tordue », « rapport tordu » !) de ce que les agences de réglementation appellent « l’évaluation des risques ». Ce beau concept désigne le processus par lequel les « experts » sont censés comparer les « bénéfices » que tirent les entreprises de l’utilisation d’un poison chimique et les « risques » que ce poison fait courir aux consommateurs qui y sont exposés. Je dis bien » poison », car si le produit « évalué » n’en était pas un, il n’y aurait aucune raison de faire tout ce que je vais décrire !

La première étape du processus consiste à établir la fameuse « Dose Journalière Acceptable », dans le jargon la « DJA », à laquelle j’ai consacré un chapitre entier de mon livre, intitulé « La formidable imposture de la ‘dose journalière admissible’ de poisons ». En exergue de ce chapitre, j’ai placé une citation du sociologue allemand Ulrich Beck, auteur de La société du risque : « La science s’est transformée en administratrice d’une contamination mondiale de l’homme et de la nature. »

 

Voici le début du chapitre :

 

« Le système réglementaire qui est censé protéger la santé publique contre les effets des produits cancérigènes ne fonctionne pas. S’il était efficace, le taux d’incidence du cancer aurait dû diminuer, mais cela n’est pas le cas. Je pense que le principe de la dose journalière acceptable, qui représente l’outil principal de la réglementation des produits toxiques contaminant la chaîne alimentaire, protège davantage l’industrie que la santé des consommateurs. » Physicien, reconverti dans la philosophie et l’histoire des sciences, le Britannique Erik Millstone est professeur de « politique scientifique » (science policy), une chaire qui n’a pas d’équivalent dans le reste de l’Europe. Concrètement, il s’intéresse à la manière dont les autorités publiques établissent leur politique dans le domaine de la santé et de l’environnement et, tout particulièrement, au rôle joué par la science dans le processus décisionnel. Il m’a reçue un jour enneigé de janvier 2010 dans son bureau de l’université du Sussex, à Brighton dans le sud de l’Angleterre, au milieu de ses livres et documents soigneusement étiquetés d’après les recherches auxquelles il a consacré les trente dernières années de sa carrière : « Pollution au plomb », « Encéphalopathie spongiforme bovine », « Organismes génétiquement modifiés », « Pesticides », « Additifs alimentaires », « Aspartame », « Obésité », « Dose journalière acceptable ».

La « boîte noire » de l’invention de la « DJA »

Connu pour son franc-parler et son art de décortiquer les dossiers les plus complexes, Erik Millstone est l’un des meilleurs spécialistes européens du système de réglementation qui régit la sécurité des aliments, mais aussi l’un de ses critiques les plus redoutés. « Je vous mets au défi de trouver une quelconque étude scientifique qui justifie le principe de la dose journalière acceptable, car il n’y en a pas, m’a-t-il expliqué avec conviction. La sécurité des consommateurs repose sur l’utilisation d’un concept qui a été imaginé à la fin des années 1950 et est devenu un dogme intangible, alors qu’il est complètement dépassé et que personne ne peut en expliquer la légitimité scientifique[i]. »

De fait, j’ai passé des semaines à essayer de reconstituer la genèse de la « dose journalière acceptable » (ou « admissible ») – dans le jargon « DJA », traduction de l’anglais acceptable daily intake (ADI) –, notion utilisée pour fixer les normes d’exposition aux produits chimiques qui entrent en contact avec nos aliments : pesticides, additifs et plastiques alimentaires. Quand on fait une recherche sur le Web, on trouve certes une définition affirmant en substance : « La DJA est la quantité de substance chimique que l’on peut ingérer quotidiennement et pendant toute une vie sans qu’il n’y ait de risque pour la santé. » Mais cette définition ne s’accompagne d’aucune référence scientifique qui permette de comprendre comment le concept a été élaboré. Et quand on interroge ceux qui, chaque jour, se servent de cet outil pour déterminer, par exemple, quelle quantité de pesticide peut être tolérée dans notre alimentation, on obtient en général des réponses évasives et quelque peu embarrassées, comme par exemple celle d’Herman Fontier, le chef de l’Unité des pesticides à l’Autorité européenne de sécurité des aliments, à qui j’ai posé la question quand je l’ai rencontré à Parme en janvier 2010 : « Cela fait vingt-trois ans que je m’occupe de l’autorisation des produits phytosanitaires et j’ai toujours connu le concept de la dose journalière acceptable, mais je dois avouer que je ne me suis jamais demandé comment avait été conçu cet instrument qui réglemente l’ingestion des substances chimiques. Ce qui est sûr, c’est qu’il y a un consensus dans le monde scientifique qu’il y a lieu de fixer une DJA pour protéger les consommateurs[ii]. »

En écoutant la très courte explication de l’expert européen, j’ai repensé à mon enquête sur Monsanto, où j’avais de la même manière essayé de remonter à l’origine du « principe d’équivalence en substance », qui faisait lui aussi consensus pour la réglementation des OGM. J’avais découvert que ce concept – consacré en 1992 par la FDA –, qui affirme qu’une plante transgénique est « similaire en substance » à la plante conventionnelle dont elle est issue, ne reposait sur aucune donnée scientifique : elle découlait d’une décision politique, fortement téléguidée par les intérêts commerciaux du leader mondial des biotechnologies. Pourtant, ce principe s’est imposé depuis auprès des agences de réglementation internationales, au point qu’elles continuent de l’invoquer pour justifier l’absence d’évaluation scientifique sérieuse des plantes transgéniques mises sur le marché.

Tout indique qu’il en est de même pour la « dose journalière acceptable », qui ressemble fort à ce que le sociologue et philosophe des sciences Bruno Latour appelle une « boîte noire », pour désigner l’oubli des modalités de reconnaissance des acquis scientifiques ou techniques admis ensuite comme des évidences, le plus souvent après de vives controverses. Dans son passionnant ouvrage La Science en action[iii], celui-ci explique comment une découverte originale – comme la double hélice de l’ADN ou l’ordinateur Eclipse M V/8000 –, fruit d’un long processus de recherche expérimentale et théorique, devient un « objet stable froid » ou un « fait établi », dont plus personne – y compris les scientifiques qui s’en servent comme d’un outil – n’est en mesure de comprendre les « rouages internes » ni de « défaire les liens innombrables » qui ont présidé à sa création. De manière similaire, le principe de la dose journalière acceptable, auquel les toxicologues et les gestionnaires du risque chimique font sans cesse référence, est devenu une « connaissance tacite profondément encapsulée » dans la « pratique silencieuse de la science », qui « aurait pu être connue depuis des siècles ou donnée par Dieu dans les Dix commandements », tant son histoire se perd dans la nuit des temps.

« Le problème, a souligné Erik Millstone, c’est que la DJA est une boîte noire très différente de celles que Bruno Latour prend pour exemples. En effet, si la double hélice de l’ADN est une réalité scientifique établie sur laquelle se sont appuyés d’autres chercheurs pour faire progresser la connaissance, par exemple, sur le génome humain, il est toujours possible, pour qui en a la capacité et le temps, de reconstituer les multiples étapes qui ont conduit James Watson et Francis Crick à faire cette découverte. Mais pour la DJA, il n’y a rien de semblable, car elle est le résultat d’une décision arbitraire érigée en concept pseudo-scientifique pour couvrir les industriels et protéger les politiciens qui ont besoin de se cacher derrière des experts pour justifier leur action. La dose journalière acceptable est un artefact indispensable pour ceux qui ont décidé qu’on avait le droit d’utiliser des produits chimiques toxiques, y compris dans le processus de la production agroalimentaire.

Et on ne sait vraiment pas qui a inventé ce concept ?, ai-je insisté.

– D’après l’Organisation mondiale de la santé, la paternité en revient à un toxicologue français du nom de René Truhaut, m’a répondu Erik Millstone  ».

FIN DE L’EXTRAIT

Je reviendrai dans mon prochain post sur la genèse de la fameuse DJA, qui constitue le pilier de la réglementation des poisons chimiques qui contaminent notre alimentation. Mais dès lors, j’invite le lecteur à écouter René Truhaut (1909-1994), un toxicologue français de renommée internationale qui explique dans cette archive rare pourquoi il a eu l’idée d’inventer la DJA. Cette interview a été diffusée par l’ORTF, en 1974. Elle fait partie de mon film Notre poison quotidien.


Notes du chapitre 12

[i] Entretien de l’auteure avec Erik Millstone, Brighton, 12 janvier 2010.

[ii] Entretien de l’auteure avec Herman Fontier, Parme, 19 janvier 2010. C’est moi qui souligne.

[iii] Bruno Latour, La Science en action. Introduction à la sociologie des sciences, La Découverte, Paris, 1989. Toutes les citations qui suivent sont extraites des pages 59, 64 et 107.