Overblog Suivre ce blog
Administration Créer mon blog
14 février 2014 5 14 /02 /février /2014 18:19

14 Février 2014

Comme il fallait s’y attendre, le développement de la voiture tout électrique se heurte au problème de la recharge de la batterie. Le problème est simple: Malgré les grands progrès technologiques intégrés dans les batteries au Lithium, leur poids demeure encore assez considérable.

Il a donc été nécessaire de trouver un compromis entre la capacité énergétique embarquée et le poids de la batterie. Après de nombreux essais les constructeurs ont adopté pour la voiture moyenne le compromis 20 kWh / 300 kg.

Ce poids de batterie correspond à celui de quatre adultes, et se trouve en partie compensé par une motorisation électrique en principe plus légère que la version thermique, et par l’économie du réservoir de carburant liquide.

La réserve d’énergie de 20 kWh permet une autonomie de 80 à 150 kms selon la façon de conduire, le poids total du véhicule, et le profil de la route.

Pour « faire de la route » il est donc impératif de pouvoir recharger fréquemment la batterie, et si possible sans attendre des heures, ce qui n’est pas possible aujourd’hui.

En dehors des voitures de location, des taxis et des flottes captives d’entreprises ou de l’Administration (et encore sous certaines réserves), le marché se limite donc à quelques particuliers à deux conditions: Avoir la possibilité de recharger la batterie au domicile la nuit au tarif public actuel du kWh, et disposer d’un second véhicule, à moteur thermique, pour les déplacements longues distances.Mais dans cas l’usager « conscient » achètera de préférence un véhicule hybride, qui permet à la fois de circuler en ville sans polluer et de prendre la route pour un long déplacement.

Le marché du tout électrique en dehors des domaines cités plus haut, se réduit donc comme peau de chagrin, au grand dam des constructeurs qui peinent à convaincre les clients, lesquels sont plutôt attirés par les hybrides.

La voie pour sortir de l’impasse est bien connue, c’est une affaire qui traîne depuis les premiers balbutiements sérieux de la bagnole électrique (1973 ?); il faut non seulement un réseau public dense de recharge des batteries, mais aussi que ces installations autorisent une recharge rapide.

Rappelons qu’aujourd’hui un tel réseau n’existe pas, et que les rares points disponibles ne permettent que des recharges lentes.

L’ouverture des déplacements de quelques centaines de kms aux voitures tout électriques exige de réduire les temps de charge à quelques minutes avec une densité de points suffisante.

Une batterie de 20 kWh peut être rechargée à la maison sur une installation domestique standard avec un abonnement de 15 KVA. L’opération dure 8 à 10 heures, guère plus que pour un gros chauffe-eau électrique. Evidemment il faudra choisir entre le chauffe-eau ou la batterie, ou alors prendre un abonnement supérieur, surtout si, en plus, on veut laver son linge et/ou alimenter deux ou trois radiateurs électriques ! Après avoir vérifié bien sûr que tout cela est bien autorisé par la RT 2012, et surtout la future RT 2020 ( ce qui est loin d’être évident).

Mais sur la route il n’est plus question d’attendre huit heures, ni même deux, pour pouvoir poursuivre son voyage. Un temps de recharge d’une dizaine de minutes est un maximum compatible avec une immobilisation non pénalisante, et avec une fluidité suffisante pour éviter l’encombrement des stations services électriques aux jours de pointe.

Pour recharger une batterie de 20 kWh en dix minutes, il faut une puissance de 120 kW . Le courant fourni est alors de 300 Ampères pour une batterie de 400 Volts. Les prises développées par la profession sont prévues pour ce régime de fonctionnement, et même au-delà pour certaines.

Une station service électrique disposant de dix postes de rechargement devra donc être raccordée au réseau de distribution pour une puissance disponible de 1,5 MW pour tenir compte des rendements de transformation. Une telle puissance correspond à l’alimentation de 125 logements disposant d’un abonnement de 12 KVA !

Il s’agit donc d’une véritable sous-station électrique et non d’un bricolage dans un coin d’une station-service existante.

Il y a en France environ 10 000 stations services distribuant des carburants liquides. Cette densité s’est adaptée au parc actuel de véhicules dont l’autonomie est supérieure à 500 kms (et bien plus avec les diesels modernes). L’autonomie des tout électriques étant de l’ordre de 80 à 150 kms, la densité de stations de rechargement devrait être logiquement quatre fois supérieure à parc équivalent en nombre.

Si donc aujourd’hui le parc automobile était entièrement électrifié, la puissance électrique disponible installée totale atteindrait 60 000 MW, soit la puissance totale que peut fournir le parc nucléaire existant !

Ce qui est évidemment absurde.

Bien sûr cette puissance ne serait pas « appelée » en permanence, de même qu’aujourd’hui la demande de carburant à un moment donné fluctue selon la période, et les cuves des stations services se vident plus ou moins vite. Il n’en demeure pas moins que la puissance électrique qui devra être disponible et installée pour la recharge des voitures sera tout à fait considérable.

Aujourd’hui ce problème n’est pas perçu puisque les voitures électriques n’ont pas encore quitté les pages des magazines, mais demain il faudra faire face à cette accroissement de consommation électrique.

En 2012 la consommation de carburant liquide par les voitures particulières en France s’est élevée à 23 Millions de mètres cubes.

( Source «Livraisons à la consommation » , CPDP, document de l’Inspection Générale des Finances N° 2012-M-065-04).

Ces 23 x 10 (Exp 9) litres représentent environ 230 TWh d’énergie primaire.

Convertis à l’électricité, les mêmes véhicules consommeraient « seulement » le tiers de cette énergie, soit environ 80 TWh en raison du rendement nettement supérieur des moteurs électriques.

Cette énergie est égale à celle de 13 réacteurs nucléaires de 900 MWe.

Mais cette énergie ne sera pas consommée à puissance constante, la demande fluctuera comme elle le fait pour la consommation domestique. Faudra-t-il alors faire appel à des centrales à gaz ou à fuel pour répondre à la demande lors des pics de consommation ?

Et qui peut encore croire qu’un distributeur qui aura investi dans une chaîne de rechargement se contentera de vendre le kWh à 10 centimes ?

Et que l’Etat nous fera généreusement cadeau de la TICPE qui plombe les carburants, et des autres taxes qui agrémentent aujourd’hui nos factures EDF ?

On voit que l’essor de la voiture tout électrique ne dépend pas seulement de la mise au point des batteries et du véhicule, mais qu’il est également conditionné par d’énormes investissements dans les installations de rechargement et dans la gestion du réseau intelligent seul capable de maîtriser les fluctuations de la demande de puissance en harmonie avec l’intermittence des énergies renouvelables, qui fourniront demain l’essentiel de nos besoins.

L’avenir à moyen terme de la mobilité routière reste donc aux solutions hybrides qui peuvent assurer longtemps encore la compatibilité avec les infrastructures existantes d’une part, et la montée progressive des énergies nouvelles d’autre part, elle-même conditionnée par l’évolution du marché de l’énergie, de la situation économique, et de la politique nucléaire de l’Etat.

La passage du bidon à la prise ne se fera pas sans heurts…

Repost 0
12 février 2014 3 12 /02 /février /2014 20:33

L’écotoxicité de la civilisation technologique.

12 Février 2014

Depuis un siècle et demi les sociétés humaines ont entrepris de rechercher l’amélioration de leur condition en empruntant la voie du développement technologique.

Cette nouvelle route a pu être ouverte grâce d’une part à l’explosion des sciences, et d’autre part à l’exploitation des sources fossiles d’énergie, l’une ayant d’ailleurs suscité l’autre.

Il est juste d’ajouter que cette frénésie scientifico-mécanique doit autant à la Science qu’à la perspective de profits financiers colossaux, tant il est vrai que depuis la nuit des temps c’est l’argent qui mène le monde.

Cette fièvre a d’abord touché une partie des peuples de l’Hémisphère Nord, mieux préparés à aborder cette nouvelle étape grâce dit-on au bagage hérité des civilisations gréco-latines, mais ceci est une autre histoire.

Comme toute épidémie celle-ci tend à se propager à toute la planète, les peuples du Sud étant très demandeurs d’un mode de vie qui leur semble prometteur d’un avenir meilleur. Mais ceci est encore une autre histoire.

Cette profusion de technologie et de consommation d’énergie s’accompagne de la dissémination de déchets et de pollutions dont la variété dépasse l’imagination. Il serait vain de tenter d’en établir la liste, certains ont essayé, qui se sont enlisés dans des nomenclatures dépourvues de sens et n’aboutissant à aucune démarche opérationnelle.

Pour faire simple on peut dire que la plupart des éléments atomiques présents dans la nature, et même quelques autres fabriqués par l’Homme, se retrouvent présents dans notre environnement à l’état de déchets ou volontairement inclus dans des produits de consommation et/ou d’usage courant à seule fin d’en améliorer les propriétés.

Ils sont présents dans l’atmosphère à l’état de particules, dans les eaux terrestres, souterraines et aériennes, dans les océans, dans les sols, dans les produits alimentaires, les produits corporels, les médicaments, les textiles, les sprays, les peintures, en bref l’espèce humaine baigne dans un environnement imbibé de ces nouveaux éléments avec lesquels il nous faut désormais tenter de vivre.

Certains sont médiatisés, eu égard à l’évidence de leurs effets toxiques.

Qui n’a jamais entendu parler des particules émises par la combustion des énergies fossiles, des nanoparticules, du dioxyde de Titane, de l’Oxyde de Zinc, des polymères organiques, du nanoArgent, du Phosphogypse, du nanoCarbone, des Oxydes d’Azote, des radioéléments comme le Radon, le Tritium, l’Iode, qui sont les plus « populaires » ?

Et tous les autres, plus discrets mais tout autant actifs...

Lorsque l’un de ces éléments pénètre dans l’organisme humain, sa taille moléculaire lui permet de se répandre et d’atteindre n’importe quel organe, y compris le cerveau. Il peut franchir la barrière cellulaire et causer des perturbations à l’intérieur des cellules, l’ADN n’est pas à l’abri de leurs attaques.

La toxicité de certains de ces produits a été établie et des mesures de protection ont été jugées nécessaires.

Mais la grande diversité des espèces potentiellement toxiques et leurs effets rarement spécifiques ne permettent pas de définir une prophylaxie générique, d’autant plus que des effets croisés sont souvent constatés.

Il est donc nécessaire d’étudier les interactions spécifiques de chaque produits suspect avec l’organisme humain.

Le travail est d’autant plus difficile qu’il n’existe pas d’organisme humain de référence qui serait dépourvu de toute contamination puisque celle-ci est d’ores et déjà généralisée.

On ne va tout de même pas élever des groupes d’humains en salle blanche comme des animaux de laboratoire afin de les utiliser pour tester les effets de tel nano élément en particulier à l’exclusion de tous les autres!

Il est pourtant indispensable de caractériser la toxicité de chaque élément suspecté afin de déterminer des doses maximales acceptables et/ou des seuils de concentration qui permettront d’établir une règlementation.

En présence d’un individu atteint de cancer du poumon, comment incriminer le Radon plutôt que la fumée de tabac, les émanations de gaz d’échappement, ou l’eau exagérément tritiée par les rejets de centrales nucléaires ?

Face aux juges, le « c’est pas moi c’est l’autre » aura vite fait d’instiller le doute quant à l’identification du vrai coupable.

Les atermoiements autour de la possible prise en compte d’une contamination par le fameux nuage de Tchernobyl montrent bien les limites de nos moyens d’action.

Quant à décréter l’interdiction de ces émissions polluantes, il n’y faut même pas penser.

Alors, il nous faudra vivre avec.

Pour la première fois de son Histoire connue l’espèce humaine se trouve confrontée à une modification majeure de son environnement.

Majeure car l’influence sur la fonction de reproduction a été démontrée et de possibles modifications de l’ADN fortement soupçonnées.

( La mutagénicité a déjà été démontrée sur des microorganismes ).

Pendant ce temps Homo Sapiens sapiens étudie les problèmes de sa future survie sur la Planète Mars.

Peut-être serait-il plus avisé de s’occuper de sa survie sur Terre…

Repost 0
9 février 2014 7 09 /02 /février /2014 19:31

Fessenheim, la vieille dame a des fuites.

9 Février 2014

Pour ceux qui auraient encore des doutes sur le sérieux et le haut niveau de compétence des services de sécurité de nos centrales nucléaires, il n’est pas inutile de prendre connaissance des faits relatés ci-après:

Rappelons que la centrale nucléaire de Fessenheim est établie sur la nappe phréatique d’Alsace, l’une des plus importantes d’Europe par son étendue géographique et par la population concernée.

Une pollution de ce réservoir aurait des conséquences incalculables sur l’activité de la vallée du Rhin.

Il est donc primordial de prendre des mesures particulières matérielles et humaines afin d’éviter et/ou de contrôler toute contamination par des rejets ou fuites radioactives.

Le risque majeur, mis en avant dans toutes les études de sécurité, est la fusion du cœur d’un des réacteurs avec rupture de cuve et écoulement de corium dans les soubassements vers la nappe phréatique.

Rappelons également que le corium est un amalgame fondu à plusieurs milliers de degrés constitué du combustible nucléaire ( plusieurs dizaines de tonnes) mélangé au Zirconium et aux autres matériaux des structures internes. Cette pâte fluide et de densité très élevée agit comme un chalumeau capable de traverser le béton et de fondre l’acier avant de s’enfoncer dans le sol pour y causer les dégâts que l’on peut imaginer.

Les conséquences de la rupture de cuve peuvent être limitées:

- Si l’installation dispose d’un récupérateur de corium.

- Si le radier sur lequel repose le réacteur est suffisamment épais et résistant.

On peut alors espérer refroidir suffisamment le corium et le solidifier avant qu’il ne traverse le radier.

Au pire, les dégâts à l’environnement peuvent être contenus:

- Si la centrale est construite sur une zone peu vulnérable à la contamination radioactive.

Aucune de ces trois conditions n’est remplie à Fessenheim:

Pas de récupérateur de corium, il n’y en a d’ailleurs dans aucune de nos vieilles centrales.

L’épaisseur du radier n’est que de un mètre cinquante, alors qu’il faudrait au moins cinq mètres.

La proximité de la nappe phréatique crée un risque immédiat de contamination. Le niveau des nappes phréatiques est mesuré en temps réel par des piézomètres. Le piézomètre N08 de la centrale de Fessenheim nous indique que le niveau piézométrique varie entre -8,5 m en période de sécheresse, et -6,5m en période humide. Le risque de contamination est donc évident en cas d’accident majeur.

L’accident majeur est heureusement rarissime ( Tchernobyl et Fukushima nous ont rappelé que rarissime ne signifie pas nul).

La fusion d’un cœur de réacteur peut être l’arbre qui cache la forêt. En effet il existe d’autres causes de contamination dont les conséquences sont moins spectaculaires, mais l’occurrence beaucoup plus probable.

Un rapport d’inspection de l’ASN ( Autorité de Sureté Nucléaire) du 31 Mars 2011, Ref: CODEP-STR-2011-019080, faisant suite à une déclaration d’EIE ( Evènement Intéressant l’Environnement) du site de Fessenheim, relève des anomalies dans la mise en œuvre et la gestion des risques de pollution environnementale:

Une analyse de l’eau au niveau du piézomètre N08 a révélé un niveau de radioactivité anormal ( Tritium) de 500 Bq/L. Il s’agit bien de l’eau de la nappe phréatique sous la centrale, qui est contaminée.

Après inspection il a été constaté que cette contamination provenait du débordement d’un réservoir TEU dans un bac de rétention non étanche.

Des réservoirs TEU (Traitement des Effluents Usés) sont disposés pour stocker les effluents contaminés en attente de leur traitement décontaminant avant rejet. Ces réservoirs sont équipés de déversoirs vers des bacs de rétention également étanches ( puisards).

A Fessenheim le puisard coupable est situé à une profondeur de -9,5m, soit en plein dans la nappe phréatique, au contact de l’eau !

L’étanchéité est « assurée » par un revêtement sur lequel des fissures ont été constatées. Durant l’enquête de l’ASN il a été déclaré que ces fissures étaient connues depuis 2008 !

La liste des anomalies constatées est édifiante:

- Disposition d’un puisard dans la nappe phréatique, précisément là où toute contamination doit être exclue.

- Disfonctionnement du système de détection de débordement du TEU.

- Faiblesse du revêtement d’étanchéité du puisard.

- Négligence dans la chaîne de décision responsable de la protection de l’environnement ( fissures constatées en 2008 et non encore réparées en 2011).

- Absence d’un système automatique de détection de contamination radioactive au sein de la nappe phréatique.

Cette fuite de Tritium est sans conséquence sur la qualité de l’eau de la nappe d’Alsace, mais elle est révélatrice de certaines lacunes dans la chaîne de décision responsable de la protection de l’environnement.

On frémit à l’idée qu’un tel laxisme pourrait exister au sein des équipes chargées de la conduite des réacteurs et donc de la prise en charge des « incidents » de fonctionnement, et de la détection préventive des risques de pannes.

Repost 0
6 février 2014 4 06 /02 /février /2014 19:22

Quel prix pour le carburant électrique ?

6 Février 2014

Le marché de la voiture électrique particulière peine à émerger au-delà de l’usage local pour automobiliste peu rouleur et disposant d’une possibilité de recharge au domicile.

Précisons que nous parlons ici du véhicule tout électrique qui ne dispose que de sa batterie pour avancer.

La faible autonomie (faible est un euphémisme) jointe à l’extrême rareté des points de recharge publics sont généralement cités comme les principaux freins à l’adoption de l’engin électrique par monsieur tout le monde sans restriction d’usage.

( Hors sociétés de location de véhicules, ou flottes captives d’entreprises, qui occupent un marché différent et qui connaissent un certain succès).

Il existe une troisième raison à la réticence de l’usager particulier, c’est l’incertitude sur le prix du carburant électrique.

Dans le domaine du marketing il ne viendrait à l’idée de personne de lancer un nouveau produit sans annoncer en même temps son prix !

Qu’il s’agisse d’un lave-vaisselle, d’une ampoule basse consommation ou d’une voiture, le client « normal » exige de connaître non seulement le prix d’achat mais aussi les éléments du coût de fonctionnement.

Le client qui accepte d’investir une somme importante dans un outil pour lequel il ignore tout des frais de fonctionnement reste un oiseau rare sur lequel il est hasardeux de compter bâtir un marché de masse.

Or, pour la voiture électrique, les éléments du coût d’usage sont tout simplement inconnus !

Quel sera le coût du KWh , en charge lente et en charge rapide, quel seront les taxes supportées par ce « nouveau » carburant, ce marché sera-t-il concurrentiel, qui seront les distributeurs, y aura-t-il un « tarif public » du carburant électrique ? toutes choses qui doivent être connues pour évaluer le budget de fonctionnement.

Il faudrait être tombé de la dernière pluie pour croire que la recharge d’une batterie de 20 KWh sur un réseau public de rechargement ne coûtera que 2,5 euros comme ont peut le lire dans certaines revues.

C’est le coût aujourd’hui ( mais demain cela va changer) pour une recharge au domicile, mais il n’en sera plus de même sur des stations publiques du marché libre ayant à financer des infrastructures lourdes, des places de parking, l’achat des KWh, les installations de transformation du courant moyenne tension, tout en gagnant un peut d’argent pour rétribuer les actionnaires, le personnel, et pour payer impôts et taxes.

Il est fort probable que le KWh à 12 centimes au compteur EDF du domicile aura monté à 25 ou 30 centimes sur le réseau routier, auxquels il faudra ajouter la TICPE et la CSPE.

( Oui, il ne faut pas les oublier ).

Pour faire cent kilomètres il faut environ 6 litres de carburant classique ou 10 KWh d’électricité.

Dans le premier cas l’Etat encaisse 5 euros de taxes; qui peut croire qu’il y renoncera pour l’électricité ?

A ce compte-là l’écart entre l’essence ou le gazole et l’électricité se réduit comme peau de chagrin.

D’autant plus que les perspectives de revente d’un véhicule électrique sont soumises aux aléas de la durée de vie des batteries qui sont un élément important du coût du véhicule, et à l’obsolescence d’une technologie nouvelle qui évoluera beaucoup dans les prochaines années.

Pour toutes ces raisons les usagers gardent leurs distances vis-à-vis de la voiture tout électrique et privilégient largement le véhicule hybride, de préférence équipé d’un prolongateur d’autonomie.

Ce qui n’est pas pour favoriser le développement d’un réseau public de recharge en dehors des agglomérations, puisque sur route ces véhicules utilisent leur moteur thermique.

L’engin tout électrique semble donc condamné pour longtemps à un usage local et/ou urbain, où les stations de recharge commencent à se mettre en place sur les emplacements de stationnement des voies publiques, dans les parkings publics ou d’entreprises, de centres commerciaux, et de bâtiments de services publics, en utilisant un espace déjà disponible et dédié depuis longtemps à la voiture.

Reste à connaître la suite de l’histoire de la poule et de l’œuf, avec dans le rôle de la poule l’Etat, qui pourrait fédérer un vaste programme de développement de réseau public urbain de rechargement ( il existe déjà une règlementation partielle, qui pourrait être étendue), et dans le rôle de l’œuf quelques automobilistes fortunés prêts à casser leur tirelire pour acquérir une seconde voiture qui serait électrique, à condition d’y voir plus clair dans la future politique de tarification.

Certes, après l’échec des ZAPA et de la tentative d’alignement des taxes sur les carburants, on se prend à douter de la possibilité d’une réforme du monde de l’Automobile.

Et ce n’est pas la menace de l’introduction de la tarification progressive de l’électricité (car la Loi Brottes reviendra) qui va inciter l’usager à remplacer un pétrole dont le cours est à la baisse ( - 5% par an sur 2012-2013 en euro sur le baril de Brent), par un kilowattheure dont le cours a plutôt tendance à s’envoler (+9% sur deux ans, et + 30% prévus d’ici 2017).

Et puis est-il bien raisonnable, à l’heure où l’on parle de réduire le nucléaire pour le remplacer par des renouvelables intermittentes, de songer à rajouter une couche de consommation électrique en branchant nos autos sur un réseau qui sera vite à genoux ?

Décidément, seule Madame Soleil est aujourd’hui en mesure de nous prédire notre avenir automobile…

Repost 0
1 février 2014 6 01 /02 /février /2014 18:40

1er Février 2014

La Commission Européenne a cru bon d’annoncer à la Cantonade qu’elle ne se fâcherait pas si quelqu’un s’avisait d’extraire le fameux gaz, à condition toutefois que toutes les précautions soient prises pour ne pas empoisonner l’environnement.

Les exégètes ont bien sûr tenté d’interpréter cette annonce en termes de stratégie énergétique, voire d’encouragement au vice. On peut y voir au minimum la levée d’une excommunication que certain auraient bien voulu au contraire voir confirmée.

En somme, on peut y aller mais en faisant attention.

Le feu vert vient certes un peu tard puisque, à part la France et la Bulgarie, tout le monde y a déjà trempé plus ou moins ses bottes, la Pologne ayant même lancé l’exploitation pour 2015.

( Voir Institut Thomas More: « Gaz de schiste en Europe, Analyse comparative dans 14 pays européens » , Décembre 2012).

Seule la France fait chambre à part, avec la Bulgarie.

Il est vrai que de subtiles précautions sémantiques furent prises lors de l’énoncé de l’interdiction:

Ce n’est pas l’exploitation des gaz de schiste qui est prohibée, c’est l’usage de la fracturation hydraulique.

Dans l’hypothèse, de plus en plus probable, où toute l’Europe exploiterait les gaz de schiste, la situation de la France deviendrait évidemment intenable. Pour éviter de perdre la face il nous faut donc trouver une autre méthode que la fracturation hydraulique pour extraire le produit convoité.

Car il est bien sûr convoité.

A l’heure ou la dette publique s’ accroit de un million d’euros toutes les six minutes (Voir le compteur dans le Figaro) et où 98% de notre gaz naturel est importé au coût de 23 euro le MWh, pour un total de 500 TWh annuels, quel est le Chef d’Etat qui ne souhaiterait pas creuser un peu dans son jardin pour y chercher des ressources gazeuses ?

Même du charbon serait le bienvenu.

Diverses méthodes sont étudiées pour trouver un succédané acceptable (ou faut-il dire succès damné ?) , le remplacement de l’eau par du fluoropropane semble avoir retenu l’attention de quelques membres du Gouvernement, surtout parce qu’il permettrait de contourner l’interdiction.

Le procédé est évidemment loin d’être au point, et surtout son coût sera très élevé comparé à celui de l’eau. Quant aux inconvénients, ils restent à découvrir en installant un ou deux démonstrateurs, à condition que les associations de défense de l’environnement n’en prennent pas ombrage.

Repost 0
1 février 2014 6 01 /02 /février /2014 15:33

1er Février 2014

Le nano Argent est donc dans le collimateur de la Commission Européenne, qui a expressément demandé au corps des spécialistes de la spécialité de se prononcer clairement sur l’éventuelle toxicité de ce produit et d’indiquer les mesures à prendre pour en limiter la portée. Leurs réponses sont attendues avant le 14 Février.

Le nano Argent est aujourd’hui présent partout, depuis vos chaussettes pour juguler les mauvaises odeurs jusqu’aux pansements où il agit comme biocide, en passant par les sprays désodorisants et une multitude de produits de consommation courante, ainsi que dans l’Industrie.

L’efficacité du nano Argent manufacturé n’est pas mise en doute dans les applications qui exploitent ses caractéristiques biocides. Il fait des merveilles non seulement dans les applications courantes domestiques antibactériennes et anti-odeurs, mais aussi et surtout dans le domaine médical et chirurgical où il est largement présent ( pansements, traitement des brûlures, textiles médicaux, revêtements, etc…).

Mais il y a un revers à toute médaille. Dans son utilisation directe le nano Argent est soupçonné de provoquer une augmentation des résistances microbiennes aux antibiotiques, et d’être potentiellement à l’origine d’une augmentation des maladies nosocomiales. Quant à son action à long terme à l’intérieur des tissus, elle a été prouvée sur des expérimentations animales mais pas encore sur l’être humain.

En tant que résidu présent dans les boues de stations d’épuration et dans les eaux « épurées » il se révèle toxique pour la faune et la flore, il est considéré comme le deuxième toxique après le mercure. Les produits de consommation et les textiles qui en sont pourvus les relâchent dans la nature sans aucun contrôle, notamment par les eaux de toilette, les lave-linges et les lave-vaisselles.

Le principe de précaution devrait conduire à un moratoire sur sa commercialisation tant que des études et des tests n’auront pas apporté la preuve de son innocuité. Mais ce principe, si souvent évoqué dans les gazettes, est malheureusement devenu obsolète chez nos décideurs, qui lui préfèrent désormais une analyse bénéfices-risques pour décider du sort d’un produit ou d’une application nouvelle.

C’est la méthode déjà utilisée pour la délivrance des AMM ( Autorisation de Mise sur le marché) pour les nouveaux médicaments.

La réalité nous oblige à dire que cette fameuse évaluation bénéfices-risques est souvent effectuée à postériori, par les consommateurs eux-mêmes, à l’insu de leur plein gré. C’est le cas pour les nanoparticules comme ce fut le cas pour l’amiante, et comme çà l’est encore pour le Nucléaire.

On n’est pas que des cobayes ? Mais si, parfois…

Le nano Argent n’est que l’un des protagonistes de l’invasion qui nous menace. Pour prendre la mesure de cette invasion le lecteur pourra consulter le rapport suivant: http://www.developpement-durable.gouv.fr/IMG/pdf/Rapport_public_format_final_20131125.pdf

Repost 0
29 janvier 2014 3 29 /01 /janvier /2014 19:38

29 Janvier 2014

Dans les deux articles précédents nous avons évoqué le problème posé par la dissémination sur une large échelle de nanoparticules manufacturées et utilisées par l’industrie pour procurer à de nombreux produits de consommation certaines propriétés nouvelles.

De par leurs dimensions nanométriques ces particules possèdent une grande surface spécifique de réaction qui leur confère une réactivité électrochimique particulière. Cette hyperréactivité entraîne des propriétés chimiques nouvelles différentes de celles du produit à l’état classique, et notamment dans les interactions physiologiques.

Les études de toxicologie effectuées sur les produits chimiques dans le cadre des programmes de recherche sur les risques de santé publique doivent dont être entièrement reprises pour caractériser ces mêmes produits lorsqu’ils se présentent à l’état de nanoparticules.

Il s’agit d’une tâche immense car les produits « Nano » sont extrêmement variés dans leur nature, leur forme, leurs dimensions, leur composition, la façon dont-ils sont utilisés, ce qui entraîne dans chaque cas la nécessité de procéder à des tests spécifiques.

Les recherches et les tests effectués jusqu’à présent n’ont pas permis d’aboutir à des conclusions utiles concernant un éventuel plan de prévention contre les risques de santé publique liés à l’utilisation des nanoparticules.

Il s’avère qu’il n’existe pas d’approche générique du problème, les études de toxicologie doivent être menées produit par produit et application par application.

Dans cet esprit, la Commission Européenne a demandé au SCENIHR (Scientific Committee on Emerging and Newly Identified Health Risks) un rapport ciblé sur les nanoparticules d’Argent ( Nanosilver) :

« Leurs effets sur la santé, l’environnement, la sécurité, et leur rôle dans la résistance antimicrobienne ».

Les éléments de ce rapport doivent être réunis pour le 2 Février 2014.

Le Nano Argent est d’ores et déjà très largement utilisé dans de nombreuses applications: Industrie pharmaceutique, pesticides, agro-alimentaire, textiles, sprays, cosmétiques, emballages, films alimentaires, pansements, etc… Cette généralisation d’un produit dont la toxicité potentielle est fortement soupçonnée, n’a pas manqué de soulever une polémique au centre de laquelle se trouve le fameux principe de précaution.

La Commission Européenne ne pouvait pas rester indifférente à ce qui commence à ressembler à un problème de santé publique.

Mais il existe bien d’autres nano produits également déjà largement répandus dans les produits de consommation et/ou dans l’industrie:

Nano à base de Carbone: Fullerènes, nanotubes, nanofibres, nanofeuillets, nanomousses. Oxydes métalliques: Titane, Or, Zinc, Fer, Nickel, et bien d’autres.

Silice, Polymères organiques, nanos intermédiaires transporteurs biologiques. Etc…

La chasse aux nanos est donc ouverte.

Il existe trois catégories de nanos:

- Les nanoparticules naturelles, présentes dans l’atmosphère ( aérosols) et résultant de l’activité volcanique, de l’érosion, du transport de poussières par le vent, de l’activité végétale ( pollens), des feux de forêts.

- les nanos produits manufacturés en vue d’une utilisation dans l’Industrie, l’Agroalimentaire, le textile, la pharmacie, etc..

- Les nanos comme résidus indésirables de processus industriels et/ou de combustion (Biomasse, combustibles fossiles, tabac ) et de réactions nucléaires.

Seules les deux dernières catégories seront visées par une éventuelle règlementation, les aérosols d’origine naturelle ne sont pas négligés pour autant, mais avec d’autres moyens et pour d’autres objectifs.

Nous aurons donc l’occasion d’en reparler.

Repost 0
28 janvier 2014 2 28 /01 /janvier /2014 10:11

27 Janvier 2014

La France s’est dotée, depuis plus de vingt ans, de moyens d’analyse et de surveillance de la qualité de l’air ambiant. La « loi sur l’air et l’utilisation rationnelle de l’énergie » a été adoptée le 30 Décembre 1996, suite à la directive européenne du 27 Septembre 1996 sur l’évaluation et la gestion de la qualité de l’air ambiant.

La mise en place des outils et des moyens d’analyse a été prise en charge par le LCSQA ( Laboratoire Central de Surveillance de la Qualité de l’Air) créé en 1995, en collaboration avec EMD ( Laboratoire de l’Ecole des Mines de Douai, INERIS ( Institut National de l’Environnement et ses RISques ) et le LNE (Laboratoire National de métrologie et d’Essais ), en liaison avec les AASQA ( Associations Agréées de Surveillance de la Qualité de l’Air), regroupés en 2005 au sein du Groupement d’Intérêt Scientifique GIS LCSQA . AIRPARIF contribue à l’activité du GIS, sous la coordination technique de l’ADEME ( Agence De l’Environnement et de la Maîtrise de l’Energie).

Tout ce beau monde s’occupe entre autres d’identifier, de répertorier, de mesurer, et de surveiller toutes les saletés présentes dans l’atmosphère et qui n’ont rien à y faire. Les études s’effectuent bien sûr en liaison avec les organismes correspondants des différents pays de la Communauté Européenne. Les résultats servent entre autres à établir des normes et à vérifier leur respect.

Cette accumulation de compétences scientifiques a permis des avancées notables dans la lutte contre la pollution mais, grâce au (ou à cause du ) progrès technique pas toujours bien contrôlé, la pollution possède toujours une longueur d’avance sur les moyens de lutte pour un air respirable.

On connaît les PM10 et les PM 2.5, contre lesquelles luttent les règlementations européennes en imposant des dispositifs de filtrage passifs ou actifs. Les PM 1.0 sont également visées par les nouvelles normes. Il faut maintenant s’attaquer à une nouvelle catégorie d’objets, les nanoparticules, qui sont les PM 0.1 dont le diamètre est inférieur à 100 nanomètres.

On les connaît depuis longtemps, le GIS LCSQA les a identifiées, répertoriées et mesurées, des études toxicologiques mondiales ont montré leurs modes de pénétration dans les organismes, leur mode de dissémination dans les organes, et certains de leurs effets à court et moyen terme ont été prouvés. Les effets à long terme sont évidemment plus longs à mettre en évidence mais certains d’entre eux ne font plus guère de doute, notamment les cancers du poumons.

Le site de Gennevilliers a collecté les résultats de mesures de plusieurs campagnes et a permis d’établir une base de données évolutive. Bien sûr l’analyse des particules atmosphériques est une de leur activité principale. Les nanoparticules sont particulièrement difficiles à caractériser car ce n’est pas leur masse qui compte, mais leur nombre et leur nature.

La data base de Gennevilliers nous indique pour les nanoparticules des taux atmosphériques variant entre 10 000 et 60 000 particules par cm3 avec une moyenne de 30 000 p/cm3. Ces données sont une image de la situation sur cinq années, à des moments différents bien entendu.

La valeur de 30 000 p/cm3 peut donc être regardée comme représentative de l’environnement d’une grande ville.

Un individu moyen utilise pour sa respiration environ 15 000 m3 d’air par an. Il inhale donc une quantité considérable de « saletés », dont un grand nombre de nanoparticules, environ 4,5 x 10 E14, soit 450 000 000 000 000 nanoparticules chaque année.

( Quatre cent cinquante mille Milliards )

. Ce nombre est un défi à l’imagination, et échappe à toute représentation compréhensible. Il est, au sens propre du terme, incroyable.

De par leur taille ces particules peuvent atteindre les alvéoles pulmonaires et s’y déposer. Heureusement l’appareil respiratoire comporte un système de filtrage très efficace, qui s’est adapté au cours de l’évolution pour une bonne élimination des particules naturellement présentes dans l’atmosphère. Mais les nanoparticules artificielles sont si ténues que notre filtrage bronchique n’est plus assez efficace et en laisse passer une partie qui se logent dans les alvéoles. Et là le système ultime de défense intervient pour évacuer les intrus, ce sont les macrophages, cellules présentes dans chaque alvéole pulmonaire pour constituer une sorte de garde rapprochée qui se sacrifie pour défendre la fine membrane qui sépare le monde extérieur de l’intérieur des vaisseaux capillaires assurant les échanges gazeux avec l’atmosphère. Chaque macrophage est une espèce de poubelle ambulante ( il se déplace sur des pseudopodes) qui saisit les détritus ( microbes, bactéries, virus, germes divers, nanoparticules ) et les détruit avant d’expulser les restes. Dans les poumons ils sont présents en embuscade aux endroits stratégiques : dans les alvéoles, dans la zone interstitielle, dans la zone intra vasculaire, prêts à intervenir. Chaque macrophage est capable de détruire un certain nombre d’agresseurs avant de succomber lui-même et d’être évacué par d’autres macrophages. Leur durée de vie est d’environ 50 jours dans les poumons. Ils sont présents également dans tout le corps.

Ce système de défense est efficace à trois conditions: La première condition est que le mécanisme immunitaire chargé de la gestion entre autres de l’activation des macrophages soit en bon état, la seconde est que le flux des éléments parasites entrants ne dépasse pas un certain seuil, et la troisième suppose que les particules parasites ne soient pas porteuses d’une signature pouvant être confondue avec celle d’un élément admis à traverser la membrane.

Les enfants sont comme toujours les plus fragiles.

Sachant que 450 000 Milliards de nanoparticules de toutes natures vont être inhalées par un individu au cours d’une année dans une grande ville, on imagine aisément qu’un grand nombre d’entre elles vont passer la barrière de protection physiologique.

Dans le communiqué de Presse du Mercredi 28 Juillet 2010, émanant du Secrétariat d’Etat chargé de l’Ecologie, on peut lire ceci:

« Les dépassements de particules seraient, selon les travaux de l’OMS, la cause de 400 000 morts prématurées par an en Europe, dont environ 42000 en France. »

Il n’est donc plus nécessaire de demander à Tonton pourquoi il tousse, nous savons désormais pourquoi.

La saga continue, l’histoire se répète: Nos anciens ont connu la Silicose (qui sévit encore), certains d’entre nous souffrent de l’Asbestose, vous autres avez reçu en cadeau les nanoparticules avec lesquelles il vous faudra composer.

A chaque génération son paquet cadeau. Tout progrès technique serait donc accompagné d’une malédiction.

On connaît, certains ont payé le prix fort pour cela, les dégâts causés par l’introduction de corps étrangers dans l’appareil respiratoire. La Silicose et l’Asbestose sont encore présentes à nos mémoires. On connaît moins les ravages causés par le Radon qui, selon l’OMS, est la deuxième cause de mortalité par cancer du poumon, la première cause restant le tabagisme.

Les effets à long terme de l’inhalation des nanoparticules ne sont pas prouvés, leur généralisation étant encore trop récente, mais des études de toxicologie ont montré leur influence certaine dans différents processus physiologiques.

Tout est dit, ou presque, dans l’ouvrage suivant: « les nanoparticules, un enjeu majeur pour la santé au travail ? » ISBN : 978-2-86883-995-4

Pour le moment la seule parade connue contre les nanoparticules est la fuite vers des sites naturels encore épargnés, à condition toutefois de ne pas s’y rendre en 4 x4, de jeter son paquet de cigarettes, et d’éviter certaines zones où le taux de Radon naturel est dissuasif…

Repost 0
25 janvier 2014 6 25 /01 /janvier /2014 11:37

25 Janvier 2014

Le Woodrow Wilson Institute a mené à bien le projet portant sur l’inventaire des produits de consommation contenant des nanoparticules.1 628 produits ont ainsi été identifiés sur le marché mondial, dont 440 sur le marché européen.

On connaît depuis plusieurs décennies les dangers liés à la dissémination de ces particules, dont il est largement prouvé qu’elles pénètrent dans l’organisme par les voies aérienne, digestive ou intradermique. On sait leur grande réactivité chimique liée à leur très faibles dimensions et leur très grande surface de réaction.

(Nous rappelons quelques-unes de ces caractéristiques sur ce blog dans la catégorie « Nanoparticules »).

Malgré les innombrables études ayant démontré les processus de pénétration de ces corps dans l’organisme et leur dissémination dans les organes les plus divers y compris le cerveau, aucune alarme n’a jamais été officiellement lancée sur leur éventuelle toxicité. Une telle indifférence des pouvoirs publics vis-à-vis d’un problème qui ressemble de plus en plus à celui de l’Amiante commençait à devenir sérieusement suspecte. Il a donc fallu faire quelque chose, montrer au moins que les innombrables comités et instituts Théodule officiellement en charge de notre santé se penchent sur le problème.

La France a récemment mis en place un système de déclaration nationale des nanoparticules fabriquées, importées, et/ou distribuées sur le territoire. La première année de déclaration a été 2012 (documents remis avant le 30 Juin 2013).

Pour 2012, 3 400 déclarations ont été émises, émanant de 930 industriels. Ce type de document/enquête est censé servir dans un premier temps à faire un état des lieux (enfin !) pour ensuite établir un système de traçabilité pour, plus tard ( quand ?) effectuer des études de toxicologie. Peut-être alors sera-t-il procédé à l’émission de recommandations dans un but de santé publique.

Mais il sera probablement trop tard pour les malheureux ( vous, moi, les enfants surtout) qui auront inhalé à plein poumons ces ignobles produits.

Car dès aujourd’hui les nanoparticules sont très largement utilisées dans les produits de consommation comme les cosmétiques, les vêtements, les soins de la peau, les crèmes solaires et bien d’autres dont nos automobiles équipées de filtres à particules qui n’arrêtent que les particules inoffensives ! A vrai dire il serait plus facile de dresser la liste des produits qui n’en contiennent pas ou qui n’en émettent pas.

En 2012, en France, plus de 500 000 tonnes de substances à l’état nanoparticulaire ont été mises sur le marché:

282 014 tonnes produites en France.

222 090 tonnes importées.

( Chiffres extrait du rapport ANSES de Novembre 2013).

On notera l’énormité de la quantité, qui donne le vertige, s’agissant de produits dont on ignore à peu près tout de leur pouvoir de nuisance ! En fait, on feint de l’ignorer, car il faudrait être faible d’esprit pour ne pas réaliser le potentiel hautement toxique de particules de dimensions moléculaires inhalées en nombre incommensurable par les poumons de nos concitoyens, et constituées d’à peu près n’importe quel élément du tableau de Mendeleev.

On invoque souvent, a propos de projets contestés, le principe de précaution censé prévenir les catastrophes en suspendant l’exécution d’un programme dont l’innocuité n’aurait pas été démontrée.

Si ce principe était autre chose qu’une farce opportuniste, l’introduction des nanoparticules dans les produits de consommation aurait dû faire l’objet d’un moratoire.

Or il n’en a rien été comme chacun peut le constater. Tout au plus, éventuellement en 2015, les autorités exigerons que la mention « Nano » accompagne le nom de l’additif porté sur l’étiquette des produits alimentaires. Si toutefois les lobbies du même nom ne s’y opposent pas…

Cet exemple du mépris des autorités responsables de la santé publique, n’est hélas pas unique. Nous voilà donc prévenus, ce n’est pas le principe de précaution qui contribuera au retrait du Nucléaire, et pour les Gaz de schiste il vaudra mieux trouver d’autres arguments pour tenter d’empêcher leur exploitation…

Repost 0
20 janvier 2014 1 20 /01 /janvier /2014 19:26

20 Janvier 2014

Les normes Européennes deviennent de plus en plus sévères en matière de rejets polluants des moteurs thermiques.

Les éditions Euro 6, versions a, b, c, et leurs suites inévitables s’attaquent aux particules fines, indépendamment du CO2 qui, il a au moins cette qualité, n’est pas nocif pour la santé sauf à très fortes doses. On ne peut bien sûr que se féliciter de cette croisade, encore faut-il examiner de près l’efficacité de ces nouvelles exigences.

Jusqu’à présent les normes fixaient une limite d’émission de particules en terme de masse par kilomètre parcouru durant l’essai NEDC. Pour suivre l’évolution de la technique des motoristes, ce sont d’abord les PM10 (particules supérieures à 10 microns) qui ont été visées, puis les PM2,5 Inférieures à 2,5 microns) , exigence qui a imposé l’usage du FAP ( Filtre A Particules) sur les Diesels. Ceci a permis de supprimer les fumées noires formées par les particules les plus grosses, mais n’a pas éliminé les particules ultrafines (nanoparticules) qui sont les plus nocives pour la santé.

Les moteurs Diesel furent donc les premiers visés, mais les nouveaux moteurs à essence à injection directe émettent également des particules et sont soumis désormais aux mêmes contraintes de dépollution que les diésel.

Les nouvelles normes applicables à partir de 2015 et 2017 s’attaquent aux nanoparticules ( Inférieures à 100 nanomètres) non pas en limitant leur masse (très faible) mais en limitant leur nombre. Désormais la limite sera de 6 x 10 E11 particules par kilomètre parcouru selon la norme NEDC, à partir de 2017.

6 x 10 E11 = 600 000 000 000 = 600 Milliards tout de même !

La même limite est imposée aux moteurs Diesel et Essence, ce qui met provisoirement fin à la querelle médiatique.

Les nouveaux modèles à essence seront maintenant équipés de filtres à particules comme leurs confrères.

Certes on pourra toujours ergoter sur la nature et la nocivité comparée des poisons émis par l’essence ou le diesel, mais il faudra laisser la conclusion aux seuls spécialistes.

Compter les nanoparticules qui sortent de nos bolides devient désormais un travail à plein temps qui va donner du fil à retordre aux centres de contrôle technique. Vous imaginez aisément qu’il n’est pas simple de mesurer un tel paramètre; il est plus facile de compter des moutons que des « objets » invisibles à l’œil nu. Le matériel de mesure nécessaire est hors de prix et doit être manipulé par du personnel hautement qualifié.

Il est vraisemblable que de telles mesures ne seront faites qu’au cours des procédures d’homologation d’un nouveau modèle, les contrôles techniques périodiques se contentant d’appliquer une procédure sommaire. Pour la vérification actuelle de la conformité aux normes anti-pollution on pourra se reporter à l’article du 12 Octobre 2012: « Contrôle technique et pollution Diesel ». On y verra les méthodes très approximatives mises en service pour le contrôle technique des véhicules.

L’important pour la population est de connaître la nocivité des nanopolluants répandus dans l’atmosphère.

Pour brûler 1 g de carburant il faut environ 15 g d’air sec. Un véhicule dont le moteur consomme 7 L aux 100 km, soit 50 g par km, utilisera donc 750 g d’air, qui se retrouveront à la sortie avec une composition et une température différentes, l’oxygène ayant été utilisé pour la combustion.

A chaque kilomètre le moteur respectant la norme Euro 6c rejette donc en moyenne l’équivalent de 0,5 m3 d’air susceptible de contenir 600 Milliards de nanoparticules, soit environ 1 200 000 par centimètre cube.

Les nanoparticules sont présentes à l’état naturel en provenance de diverses sources comme le volcanisme ou la végétation ( pollens). Les activités humaines en ajoutent des quantités considérables appelées à croître avec le développement des nanotechnologies. Selon l’Ineris on mesure actuellement des concentrations en nombre de nanoparticules de 1 500 par cm3 en zone naturelle, et jusqu’à 80 000 par cm3 en zone exposée urbaine.

Selon la norme Euro 6c, les gaz d’échappement peuvent rejeter à chaque kilomètre 1 200 000 nanoparticules par cm3 , soit 15 fois plus que le taux déjà existant dans les zones les plus exposées. Et il faut savoir que cette valeur n’est respectée que lors de l’homologation d’un nouveau modèle et selon le cycle NEDC qui n’est pas représentatif de l’usage réel d’un véhicule, surtout en circulation urbaine.

Peut-on réellement parler d’élimination des nanoparticules dans de telles conditions ?

On ne voit pas très bien comment améliorer significativement les choses sans recourir à des procédés très lourds et onéreux incompatibles avec un usage grand public. Ces procédés seront réservés aux poids lourds. Pour les véhicules légers il apparaît que la seule méthode radicale permettant de régler le problème des nanoparticules émises par les moteurs thermiques, c’est le recours au moteur électrique, au moins en circulation urbaine.

Ceci apporte de l’eau au moulin du véhicule hybride à prolongateur d’autonomie, qui conviendra aux usages ville et route, sans écarter la solution tout électrique plus économique et convenant à une catégorie d’utilisateurs.

Mais un tel basculement ne pourrait avoir lieu qu’au rythme du renouvellement naturel du parc automobile et à condition de traiter les autres sources d’émissions polluantes provenant de l’industrie, des systèmes de chauffage, et des nombreux produits contenant par nature des nanoparticules.

Les nanoparticules étant invisibles, leur nocivité n’est pas aisément démontrable aux yeux des populations. L’expérience publicitaire du mouchoir blanc présenté à la sortie de l’échappement et qui reste blanc grâce au filtre à particules, en dit long sur la facilité avec laquelle le public peut être berné.

L’adhésion du public aux mesures de protection onéreuses et contraignantes sera donc difficile à obtenir, d’autant plus que d’autres sources peuvent être à l’origine de problèmes de santé publique similaires sans être pour autant soumises aux même contraintes.

Voilà donc une affaire dont nous n’avons pas fini d’entendre parler…

Repost 0