Overblog Suivre ce blog
Administration Créer mon blog
9 février 2014 7 09 /02 /février /2014 19:31

Fessenheim, la vieille dame a des fuites.

9 Février 2014

Pour ceux qui auraient encore des doutes sur le sérieux et le haut niveau de compétence des services de sécurité de nos centrales nucléaires, il n’est pas inutile de prendre connaissance des faits relatés ci-après:

Rappelons que la centrale nucléaire de Fessenheim est établie sur la nappe phréatique d’Alsace, l’une des plus importantes d’Europe par son étendue géographique et par la population concernée.

Une pollution de ce réservoir aurait des conséquences incalculables sur l’activité de la vallée du Rhin.

Il est donc primordial de prendre des mesures particulières matérielles et humaines afin d’éviter et/ou de contrôler toute contamination par des rejets ou fuites radioactives.

Le risque majeur, mis en avant dans toutes les études de sécurité, est la fusion du cœur d’un des réacteurs avec rupture de cuve et écoulement de corium dans les soubassements vers la nappe phréatique.

Rappelons également que le corium est un amalgame fondu à plusieurs milliers de degrés constitué du combustible nucléaire ( plusieurs dizaines de tonnes) mélangé au Zirconium et aux autres matériaux des structures internes. Cette pâte fluide et de densité très élevée agit comme un chalumeau capable de traverser le béton et de fondre l’acier avant de s’enfoncer dans le sol pour y causer les dégâts que l’on peut imaginer.

Les conséquences de la rupture de cuve peuvent être limitées:

- Si l’installation dispose d’un récupérateur de corium.

- Si le radier sur lequel repose le réacteur est suffisamment épais et résistant.

On peut alors espérer refroidir suffisamment le corium et le solidifier avant qu’il ne traverse le radier.

Au pire, les dégâts à l’environnement peuvent être contenus:

- Si la centrale est construite sur une zone peu vulnérable à la contamination radioactive.

Aucune de ces trois conditions n’est remplie à Fessenheim:

Pas de récupérateur de corium, il n’y en a d’ailleurs dans aucune de nos vieilles centrales.

L’épaisseur du radier n’est que de un mètre cinquante, alors qu’il faudrait au moins cinq mètres.

La proximité de la nappe phréatique crée un risque immédiat de contamination. Le niveau des nappes phréatiques est mesuré en temps réel par des piézomètres. Le piézomètre N08 de la centrale de Fessenheim nous indique que le niveau piézométrique varie entre -8,5 m en période de sécheresse, et -6,5m en période humide. Le risque de contamination est donc évident en cas d’accident majeur.

L’accident majeur est heureusement rarissime ( Tchernobyl et Fukushima nous ont rappelé que rarissime ne signifie pas nul).

La fusion d’un cœur de réacteur peut être l’arbre qui cache la forêt. En effet il existe d’autres causes de contamination dont les conséquences sont moins spectaculaires, mais l’occurrence beaucoup plus probable.

Un rapport d’inspection de l’ASN ( Autorité de Sureté Nucléaire) du 31 Mars 2011, Ref: CODEP-STR-2011-019080, faisant suite à une déclaration d’EIE ( Evènement Intéressant l’Environnement) du site de Fessenheim, relève des anomalies dans la mise en œuvre et la gestion des risques de pollution environnementale:

Une analyse de l’eau au niveau du piézomètre N08 a révélé un niveau de radioactivité anormal ( Tritium) de 500 Bq/L. Il s’agit bien de l’eau de la nappe phréatique sous la centrale, qui est contaminée.

Après inspection il a été constaté que cette contamination provenait du débordement d’un réservoir TEU dans un bac de rétention non étanche.

Des réservoirs TEU (Traitement des Effluents Usés) sont disposés pour stocker les effluents contaminés en attente de leur traitement décontaminant avant rejet. Ces réservoirs sont équipés de déversoirs vers des bacs de rétention également étanches ( puisards).

A Fessenheim le puisard coupable est situé à une profondeur de -9,5m, soit en plein dans la nappe phréatique, au contact de l’eau !

L’étanchéité est « assurée » par un revêtement sur lequel des fissures ont été constatées. Durant l’enquête de l’ASN il a été déclaré que ces fissures étaient connues depuis 2008 !

La liste des anomalies constatées est édifiante:

- Disposition d’un puisard dans la nappe phréatique, précisément là où toute contamination doit être exclue.

- Disfonctionnement du système de détection de débordement du TEU.

- Faiblesse du revêtement d’étanchéité du puisard.

- Négligence dans la chaîne de décision responsable de la protection de l’environnement ( fissures constatées en 2008 et non encore réparées en 2011).

- Absence d’un système automatique de détection de contamination radioactive au sein de la nappe phréatique.

Cette fuite de Tritium est sans conséquence sur la qualité de l’eau de la nappe d’Alsace, mais elle est révélatrice de certaines lacunes dans la chaîne de décision responsable de la protection de l’environnement.

On frémit à l’idée qu’un tel laxisme pourrait exister au sein des équipes chargées de la conduite des réacteurs et donc de la prise en charge des « incidents » de fonctionnement, et de la détection préventive des risques de pannes.

Repost 0
6 février 2014 4 06 /02 /février /2014 19:22

Quel prix pour le carburant électrique ?

6 Février 2014

Le marché de la voiture électrique particulière peine à émerger au-delà de l’usage local pour automobiliste peu rouleur et disposant d’une possibilité de recharge au domicile.

Précisons que nous parlons ici du véhicule tout électrique qui ne dispose que de sa batterie pour avancer.

La faible autonomie (faible est un euphémisme) jointe à l’extrême rareté des points de recharge publics sont généralement cités comme les principaux freins à l’adoption de l’engin électrique par monsieur tout le monde sans restriction d’usage.

( Hors sociétés de location de véhicules, ou flottes captives d’entreprises, qui occupent un marché différent et qui connaissent un certain succès).

Il existe une troisième raison à la réticence de l’usager particulier, c’est l’incertitude sur le prix du carburant électrique.

Dans le domaine du marketing il ne viendrait à l’idée de personne de lancer un nouveau produit sans annoncer en même temps son prix !

Qu’il s’agisse d’un lave-vaisselle, d’une ampoule basse consommation ou d’une voiture, le client « normal » exige de connaître non seulement le prix d’achat mais aussi les éléments du coût de fonctionnement.

Le client qui accepte d’investir une somme importante dans un outil pour lequel il ignore tout des frais de fonctionnement reste un oiseau rare sur lequel il est hasardeux de compter bâtir un marché de masse.

Or, pour la voiture électrique, les éléments du coût d’usage sont tout simplement inconnus !

Quel sera le coût du KWh , en charge lente et en charge rapide, quel seront les taxes supportées par ce « nouveau » carburant, ce marché sera-t-il concurrentiel, qui seront les distributeurs, y aura-t-il un « tarif public » du carburant électrique ? toutes choses qui doivent être connues pour évaluer le budget de fonctionnement.

Il faudrait être tombé de la dernière pluie pour croire que la recharge d’une batterie de 20 KWh sur un réseau public de rechargement ne coûtera que 2,5 euros comme ont peut le lire dans certaines revues.

C’est le coût aujourd’hui ( mais demain cela va changer) pour une recharge au domicile, mais il n’en sera plus de même sur des stations publiques du marché libre ayant à financer des infrastructures lourdes, des places de parking, l’achat des KWh, les installations de transformation du courant moyenne tension, tout en gagnant un peut d’argent pour rétribuer les actionnaires, le personnel, et pour payer impôts et taxes.

Il est fort probable que le KWh à 12 centimes au compteur EDF du domicile aura monté à 25 ou 30 centimes sur le réseau routier, auxquels il faudra ajouter la TICPE et la CSPE.

( Oui, il ne faut pas les oublier ).

Pour faire cent kilomètres il faut environ 6 litres de carburant classique ou 10 KWh d’électricité.

Dans le premier cas l’Etat encaisse 5 euros de taxes; qui peut croire qu’il y renoncera pour l’électricité ?

A ce compte-là l’écart entre l’essence ou le gazole et l’électricité se réduit comme peau de chagrin.

D’autant plus que les perspectives de revente d’un véhicule électrique sont soumises aux aléas de la durée de vie des batteries qui sont un élément important du coût du véhicule, et à l’obsolescence d’une technologie nouvelle qui évoluera beaucoup dans les prochaines années.

Pour toutes ces raisons les usagers gardent leurs distances vis-à-vis de la voiture tout électrique et privilégient largement le véhicule hybride, de préférence équipé d’un prolongateur d’autonomie.

Ce qui n’est pas pour favoriser le développement d’un réseau public de recharge en dehors des agglomérations, puisque sur route ces véhicules utilisent leur moteur thermique.

L’engin tout électrique semble donc condamné pour longtemps à un usage local et/ou urbain, où les stations de recharge commencent à se mettre en place sur les emplacements de stationnement des voies publiques, dans les parkings publics ou d’entreprises, de centres commerciaux, et de bâtiments de services publics, en utilisant un espace déjà disponible et dédié depuis longtemps à la voiture.

Reste à connaître la suite de l’histoire de la poule et de l’œuf, avec dans le rôle de la poule l’Etat, qui pourrait fédérer un vaste programme de développement de réseau public urbain de rechargement ( il existe déjà une règlementation partielle, qui pourrait être étendue), et dans le rôle de l’œuf quelques automobilistes fortunés prêts à casser leur tirelire pour acquérir une seconde voiture qui serait électrique, à condition d’y voir plus clair dans la future politique de tarification.

Certes, après l’échec des ZAPA et de la tentative d’alignement des taxes sur les carburants, on se prend à douter de la possibilité d’une réforme du monde de l’Automobile.

Et ce n’est pas la menace de l’introduction de la tarification progressive de l’électricité (car la Loi Brottes reviendra) qui va inciter l’usager à remplacer un pétrole dont le cours est à la baisse ( - 5% par an sur 2012-2013 en euro sur le baril de Brent), par un kilowattheure dont le cours a plutôt tendance à s’envoler (+9% sur deux ans, et + 30% prévus d’ici 2017).

Et puis est-il bien raisonnable, à l’heure où l’on parle de réduire le nucléaire pour le remplacer par des renouvelables intermittentes, de songer à rajouter une couche de consommation électrique en branchant nos autos sur un réseau qui sera vite à genoux ?

Décidément, seule Madame Soleil est aujourd’hui en mesure de nous prédire notre avenir automobile…

Repost 0
1 février 2014 6 01 /02 /février /2014 18:40

1er Février 2014

La Commission Européenne a cru bon d’annoncer à la Cantonade qu’elle ne se fâcherait pas si quelqu’un s’avisait d’extraire le fameux gaz, à condition toutefois que toutes les précautions soient prises pour ne pas empoisonner l’environnement.

Les exégètes ont bien sûr tenté d’interpréter cette annonce en termes de stratégie énergétique, voire d’encouragement au vice. On peut y voir au minimum la levée d’une excommunication que certain auraient bien voulu au contraire voir confirmée.

En somme, on peut y aller mais en faisant attention.

Le feu vert vient certes un peu tard puisque, à part la France et la Bulgarie, tout le monde y a déjà trempé plus ou moins ses bottes, la Pologne ayant même lancé l’exploitation pour 2015.

( Voir Institut Thomas More: « Gaz de schiste en Europe, Analyse comparative dans 14 pays européens » , Décembre 2012).

Seule la France fait chambre à part, avec la Bulgarie.

Il est vrai que de subtiles précautions sémantiques furent prises lors de l’énoncé de l’interdiction:

Ce n’est pas l’exploitation des gaz de schiste qui est prohibée, c’est l’usage de la fracturation hydraulique.

Dans l’hypothèse, de plus en plus probable, où toute l’Europe exploiterait les gaz de schiste, la situation de la France deviendrait évidemment intenable. Pour éviter de perdre la face il nous faut donc trouver une autre méthode que la fracturation hydraulique pour extraire le produit convoité.

Car il est bien sûr convoité.

A l’heure ou la dette publique s’ accroit de un million d’euros toutes les six minutes (Voir le compteur dans le Figaro) et où 98% de notre gaz naturel est importé au coût de 23 euro le MWh, pour un total de 500 TWh annuels, quel est le Chef d’Etat qui ne souhaiterait pas creuser un peu dans son jardin pour y chercher des ressources gazeuses ?

Même du charbon serait le bienvenu.

Diverses méthodes sont étudiées pour trouver un succédané acceptable (ou faut-il dire succès damné ?) , le remplacement de l’eau par du fluoropropane semble avoir retenu l’attention de quelques membres du Gouvernement, surtout parce qu’il permettrait de contourner l’interdiction.

Le procédé est évidemment loin d’être au point, et surtout son coût sera très élevé comparé à celui de l’eau. Quant aux inconvénients, ils restent à découvrir en installant un ou deux démonstrateurs, à condition que les associations de défense de l’environnement n’en prennent pas ombrage.

Repost 0
1 février 2014 6 01 /02 /février /2014 15:33

1er Février 2014

Le nano Argent est donc dans le collimateur de la Commission Européenne, qui a expressément demandé au corps des spécialistes de la spécialité de se prononcer clairement sur l’éventuelle toxicité de ce produit et d’indiquer les mesures à prendre pour en limiter la portée. Leurs réponses sont attendues avant le 14 Février.

Le nano Argent est aujourd’hui présent partout, depuis vos chaussettes pour juguler les mauvaises odeurs jusqu’aux pansements où il agit comme biocide, en passant par les sprays désodorisants et une multitude de produits de consommation courante, ainsi que dans l’Industrie.

L’efficacité du nano Argent manufacturé n’est pas mise en doute dans les applications qui exploitent ses caractéristiques biocides. Il fait des merveilles non seulement dans les applications courantes domestiques antibactériennes et anti-odeurs, mais aussi et surtout dans le domaine médical et chirurgical où il est largement présent ( pansements, traitement des brûlures, textiles médicaux, revêtements, etc…).

Mais il y a un revers à toute médaille. Dans son utilisation directe le nano Argent est soupçonné de provoquer une augmentation des résistances microbiennes aux antibiotiques, et d’être potentiellement à l’origine d’une augmentation des maladies nosocomiales. Quant à son action à long terme à l’intérieur des tissus, elle a été prouvée sur des expérimentations animales mais pas encore sur l’être humain.

En tant que résidu présent dans les boues de stations d’épuration et dans les eaux « épurées » il se révèle toxique pour la faune et la flore, il est considéré comme le deuxième toxique après le mercure. Les produits de consommation et les textiles qui en sont pourvus les relâchent dans la nature sans aucun contrôle, notamment par les eaux de toilette, les lave-linges et les lave-vaisselles.

Le principe de précaution devrait conduire à un moratoire sur sa commercialisation tant que des études et des tests n’auront pas apporté la preuve de son innocuité. Mais ce principe, si souvent évoqué dans les gazettes, est malheureusement devenu obsolète chez nos décideurs, qui lui préfèrent désormais une analyse bénéfices-risques pour décider du sort d’un produit ou d’une application nouvelle.

C’est la méthode déjà utilisée pour la délivrance des AMM ( Autorisation de Mise sur le marché) pour les nouveaux médicaments.

La réalité nous oblige à dire que cette fameuse évaluation bénéfices-risques est souvent effectuée à postériori, par les consommateurs eux-mêmes, à l’insu de leur plein gré. C’est le cas pour les nanoparticules comme ce fut le cas pour l’amiante, et comme çà l’est encore pour le Nucléaire.

On n’est pas que des cobayes ? Mais si, parfois…

Le nano Argent n’est que l’un des protagonistes de l’invasion qui nous menace. Pour prendre la mesure de cette invasion le lecteur pourra consulter le rapport suivant: http://www.developpement-durable.gouv.fr/IMG/pdf/Rapport_public_format_final_20131125.pdf

Repost 0
29 janvier 2014 3 29 /01 /janvier /2014 19:38

29 Janvier 2014

Dans les deux articles précédents nous avons évoqué le problème posé par la dissémination sur une large échelle de nanoparticules manufacturées et utilisées par l’industrie pour procurer à de nombreux produits de consommation certaines propriétés nouvelles.

De par leurs dimensions nanométriques ces particules possèdent une grande surface spécifique de réaction qui leur confère une réactivité électrochimique particulière. Cette hyperréactivité entraîne des propriétés chimiques nouvelles différentes de celles du produit à l’état classique, et notamment dans les interactions physiologiques.

Les études de toxicologie effectuées sur les produits chimiques dans le cadre des programmes de recherche sur les risques de santé publique doivent dont être entièrement reprises pour caractériser ces mêmes produits lorsqu’ils se présentent à l’état de nanoparticules.

Il s’agit d’une tâche immense car les produits « Nano » sont extrêmement variés dans leur nature, leur forme, leurs dimensions, leur composition, la façon dont-ils sont utilisés, ce qui entraîne dans chaque cas la nécessité de procéder à des tests spécifiques.

Les recherches et les tests effectués jusqu’à présent n’ont pas permis d’aboutir à des conclusions utiles concernant un éventuel plan de prévention contre les risques de santé publique liés à l’utilisation des nanoparticules.

Il s’avère qu’il n’existe pas d’approche générique du problème, les études de toxicologie doivent être menées produit par produit et application par application.

Dans cet esprit, la Commission Européenne a demandé au SCENIHR (Scientific Committee on Emerging and Newly Identified Health Risks) un rapport ciblé sur les nanoparticules d’Argent ( Nanosilver) :

« Leurs effets sur la santé, l’environnement, la sécurité, et leur rôle dans la résistance antimicrobienne ».

Les éléments de ce rapport doivent être réunis pour le 2 Février 2014.

Le Nano Argent est d’ores et déjà très largement utilisé dans de nombreuses applications: Industrie pharmaceutique, pesticides, agro-alimentaire, textiles, sprays, cosmétiques, emballages, films alimentaires, pansements, etc… Cette généralisation d’un produit dont la toxicité potentielle est fortement soupçonnée, n’a pas manqué de soulever une polémique au centre de laquelle se trouve le fameux principe de précaution.

La Commission Européenne ne pouvait pas rester indifférente à ce qui commence à ressembler à un problème de santé publique.

Mais il existe bien d’autres nano produits également déjà largement répandus dans les produits de consommation et/ou dans l’industrie:

Nano à base de Carbone: Fullerènes, nanotubes, nanofibres, nanofeuillets, nanomousses. Oxydes métalliques: Titane, Or, Zinc, Fer, Nickel, et bien d’autres.

Silice, Polymères organiques, nanos intermédiaires transporteurs biologiques. Etc…

La chasse aux nanos est donc ouverte.

Il existe trois catégories de nanos:

- Les nanoparticules naturelles, présentes dans l’atmosphère ( aérosols) et résultant de l’activité volcanique, de l’érosion, du transport de poussières par le vent, de l’activité végétale ( pollens), des feux de forêts.

- les nanos produits manufacturés en vue d’une utilisation dans l’Industrie, l’Agroalimentaire, le textile, la pharmacie, etc..

- Les nanos comme résidus indésirables de processus industriels et/ou de combustion (Biomasse, combustibles fossiles, tabac ) et de réactions nucléaires.

Seules les deux dernières catégories seront visées par une éventuelle règlementation, les aérosols d’origine naturelle ne sont pas négligés pour autant, mais avec d’autres moyens et pour d’autres objectifs.

Nous aurons donc l’occasion d’en reparler.

Repost 0
28 janvier 2014 2 28 /01 /janvier /2014 10:11

27 Janvier 2014

La France s’est dotée, depuis plus de vingt ans, de moyens d’analyse et de surveillance de la qualité de l’air ambiant. La « loi sur l’air et l’utilisation rationnelle de l’énergie » a été adoptée le 30 Décembre 1996, suite à la directive européenne du 27 Septembre 1996 sur l’évaluation et la gestion de la qualité de l’air ambiant.

La mise en place des outils et des moyens d’analyse a été prise en charge par le LCSQA ( Laboratoire Central de Surveillance de la Qualité de l’Air) créé en 1995, en collaboration avec EMD ( Laboratoire de l’Ecole des Mines de Douai, INERIS ( Institut National de l’Environnement et ses RISques ) et le LNE (Laboratoire National de métrologie et d’Essais ), en liaison avec les AASQA ( Associations Agréées de Surveillance de la Qualité de l’Air), regroupés en 2005 au sein du Groupement d’Intérêt Scientifique GIS LCSQA . AIRPARIF contribue à l’activité du GIS, sous la coordination technique de l’ADEME ( Agence De l’Environnement et de la Maîtrise de l’Energie).

Tout ce beau monde s’occupe entre autres d’identifier, de répertorier, de mesurer, et de surveiller toutes les saletés présentes dans l’atmosphère et qui n’ont rien à y faire. Les études s’effectuent bien sûr en liaison avec les organismes correspondants des différents pays de la Communauté Européenne. Les résultats servent entre autres à établir des normes et à vérifier leur respect.

Cette accumulation de compétences scientifiques a permis des avancées notables dans la lutte contre la pollution mais, grâce au (ou à cause du ) progrès technique pas toujours bien contrôlé, la pollution possède toujours une longueur d’avance sur les moyens de lutte pour un air respirable.

On connaît les PM10 et les PM 2.5, contre lesquelles luttent les règlementations européennes en imposant des dispositifs de filtrage passifs ou actifs. Les PM 1.0 sont également visées par les nouvelles normes. Il faut maintenant s’attaquer à une nouvelle catégorie d’objets, les nanoparticules, qui sont les PM 0.1 dont le diamètre est inférieur à 100 nanomètres.

On les connaît depuis longtemps, le GIS LCSQA les a identifiées, répertoriées et mesurées, des études toxicologiques mondiales ont montré leurs modes de pénétration dans les organismes, leur mode de dissémination dans les organes, et certains de leurs effets à court et moyen terme ont été prouvés. Les effets à long terme sont évidemment plus longs à mettre en évidence mais certains d’entre eux ne font plus guère de doute, notamment les cancers du poumons.

Le site de Gennevilliers a collecté les résultats de mesures de plusieurs campagnes et a permis d’établir une base de données évolutive. Bien sûr l’analyse des particules atmosphériques est une de leur activité principale. Les nanoparticules sont particulièrement difficiles à caractériser car ce n’est pas leur masse qui compte, mais leur nombre et leur nature.

La data base de Gennevilliers nous indique pour les nanoparticules des taux atmosphériques variant entre 10 000 et 60 000 particules par cm3 avec une moyenne de 30 000 p/cm3. Ces données sont une image de la situation sur cinq années, à des moments différents bien entendu.

La valeur de 30 000 p/cm3 peut donc être regardée comme représentative de l’environnement d’une grande ville.

Un individu moyen utilise pour sa respiration environ 15 000 m3 d’air par an. Il inhale donc une quantité considérable de « saletés », dont un grand nombre de nanoparticules, environ 4,5 x 10 E14, soit 450 000 000 000 000 nanoparticules chaque année.

( Quatre cent cinquante mille Milliards )

. Ce nombre est un défi à l’imagination, et échappe à toute représentation compréhensible. Il est, au sens propre du terme, incroyable.

De par leur taille ces particules peuvent atteindre les alvéoles pulmonaires et s’y déposer. Heureusement l’appareil respiratoire comporte un système de filtrage très efficace, qui s’est adapté au cours de l’évolution pour une bonne élimination des particules naturellement présentes dans l’atmosphère. Mais les nanoparticules artificielles sont si ténues que notre filtrage bronchique n’est plus assez efficace et en laisse passer une partie qui se logent dans les alvéoles. Et là le système ultime de défense intervient pour évacuer les intrus, ce sont les macrophages, cellules présentes dans chaque alvéole pulmonaire pour constituer une sorte de garde rapprochée qui se sacrifie pour défendre la fine membrane qui sépare le monde extérieur de l’intérieur des vaisseaux capillaires assurant les échanges gazeux avec l’atmosphère. Chaque macrophage est une espèce de poubelle ambulante ( il se déplace sur des pseudopodes) qui saisit les détritus ( microbes, bactéries, virus, germes divers, nanoparticules ) et les détruit avant d’expulser les restes. Dans les poumons ils sont présents en embuscade aux endroits stratégiques : dans les alvéoles, dans la zone interstitielle, dans la zone intra vasculaire, prêts à intervenir. Chaque macrophage est capable de détruire un certain nombre d’agresseurs avant de succomber lui-même et d’être évacué par d’autres macrophages. Leur durée de vie est d’environ 50 jours dans les poumons. Ils sont présents également dans tout le corps.

Ce système de défense est efficace à trois conditions: La première condition est que le mécanisme immunitaire chargé de la gestion entre autres de l’activation des macrophages soit en bon état, la seconde est que le flux des éléments parasites entrants ne dépasse pas un certain seuil, et la troisième suppose que les particules parasites ne soient pas porteuses d’une signature pouvant être confondue avec celle d’un élément admis à traverser la membrane.

Les enfants sont comme toujours les plus fragiles.

Sachant que 450 000 Milliards de nanoparticules de toutes natures vont être inhalées par un individu au cours d’une année dans une grande ville, on imagine aisément qu’un grand nombre d’entre elles vont passer la barrière de protection physiologique.

Dans le communiqué de Presse du Mercredi 28 Juillet 2010, émanant du Secrétariat d’Etat chargé de l’Ecologie, on peut lire ceci:

« Les dépassements de particules seraient, selon les travaux de l’OMS, la cause de 400 000 morts prématurées par an en Europe, dont environ 42000 en France. »

Il n’est donc plus nécessaire de demander à Tonton pourquoi il tousse, nous savons désormais pourquoi.

La saga continue, l’histoire se répète: Nos anciens ont connu la Silicose (qui sévit encore), certains d’entre nous souffrent de l’Asbestose, vous autres avez reçu en cadeau les nanoparticules avec lesquelles il vous faudra composer.

A chaque génération son paquet cadeau. Tout progrès technique serait donc accompagné d’une malédiction.

On connaît, certains ont payé le prix fort pour cela, les dégâts causés par l’introduction de corps étrangers dans l’appareil respiratoire. La Silicose et l’Asbestose sont encore présentes à nos mémoires. On connaît moins les ravages causés par le Radon qui, selon l’OMS, est la deuxième cause de mortalité par cancer du poumon, la première cause restant le tabagisme.

Les effets à long terme de l’inhalation des nanoparticules ne sont pas prouvés, leur généralisation étant encore trop récente, mais des études de toxicologie ont montré leur influence certaine dans différents processus physiologiques.

Tout est dit, ou presque, dans l’ouvrage suivant: « les nanoparticules, un enjeu majeur pour la santé au travail ? » ISBN : 978-2-86883-995-4

Pour le moment la seule parade connue contre les nanoparticules est la fuite vers des sites naturels encore épargnés, à condition toutefois de ne pas s’y rendre en 4 x4, de jeter son paquet de cigarettes, et d’éviter certaines zones où le taux de Radon naturel est dissuasif…

Repost 0
25 janvier 2014 6 25 /01 /janvier /2014 11:37

25 Janvier 2014

Le Woodrow Wilson Institute a mené à bien le projet portant sur l’inventaire des produits de consommation contenant des nanoparticules.1 628 produits ont ainsi été identifiés sur le marché mondial, dont 440 sur le marché européen.

On connaît depuis plusieurs décennies les dangers liés à la dissémination de ces particules, dont il est largement prouvé qu’elles pénètrent dans l’organisme par les voies aérienne, digestive ou intradermique. On sait leur grande réactivité chimique liée à leur très faibles dimensions et leur très grande surface de réaction.

(Nous rappelons quelques-unes de ces caractéristiques sur ce blog dans la catégorie « Nanoparticules »).

Malgré les innombrables études ayant démontré les processus de pénétration de ces corps dans l’organisme et leur dissémination dans les organes les plus divers y compris le cerveau, aucune alarme n’a jamais été officiellement lancée sur leur éventuelle toxicité. Une telle indifférence des pouvoirs publics vis-à-vis d’un problème qui ressemble de plus en plus à celui de l’Amiante commençait à devenir sérieusement suspecte. Il a donc fallu faire quelque chose, montrer au moins que les innombrables comités et instituts Théodule officiellement en charge de notre santé se penchent sur le problème.

La France a récemment mis en place un système de déclaration nationale des nanoparticules fabriquées, importées, et/ou distribuées sur le territoire. La première année de déclaration a été 2012 (documents remis avant le 30 Juin 2013).

Pour 2012, 3 400 déclarations ont été émises, émanant de 930 industriels. Ce type de document/enquête est censé servir dans un premier temps à faire un état des lieux (enfin !) pour ensuite établir un système de traçabilité pour, plus tard ( quand ?) effectuer des études de toxicologie. Peut-être alors sera-t-il procédé à l’émission de recommandations dans un but de santé publique.

Mais il sera probablement trop tard pour les malheureux ( vous, moi, les enfants surtout) qui auront inhalé à plein poumons ces ignobles produits.

Car dès aujourd’hui les nanoparticules sont très largement utilisées dans les produits de consommation comme les cosmétiques, les vêtements, les soins de la peau, les crèmes solaires et bien d’autres dont nos automobiles équipées de filtres à particules qui n’arrêtent que les particules inoffensives ! A vrai dire il serait plus facile de dresser la liste des produits qui n’en contiennent pas ou qui n’en émettent pas.

En 2012, en France, plus de 500 000 tonnes de substances à l’état nanoparticulaire ont été mises sur le marché:

282 014 tonnes produites en France.

222 090 tonnes importées.

( Chiffres extrait du rapport ANSES de Novembre 2013).

On notera l’énormité de la quantité, qui donne le vertige, s’agissant de produits dont on ignore à peu près tout de leur pouvoir de nuisance ! En fait, on feint de l’ignorer, car il faudrait être faible d’esprit pour ne pas réaliser le potentiel hautement toxique de particules de dimensions moléculaires inhalées en nombre incommensurable par les poumons de nos concitoyens, et constituées d’à peu près n’importe quel élément du tableau de Mendeleev.

On invoque souvent, a propos de projets contestés, le principe de précaution censé prévenir les catastrophes en suspendant l’exécution d’un programme dont l’innocuité n’aurait pas été démontrée.

Si ce principe était autre chose qu’une farce opportuniste, l’introduction des nanoparticules dans les produits de consommation aurait dû faire l’objet d’un moratoire.

Or il n’en a rien été comme chacun peut le constater. Tout au plus, éventuellement en 2015, les autorités exigerons que la mention « Nano » accompagne le nom de l’additif porté sur l’étiquette des produits alimentaires. Si toutefois les lobbies du même nom ne s’y opposent pas…

Cet exemple du mépris des autorités responsables de la santé publique, n’est hélas pas unique. Nous voilà donc prévenus, ce n’est pas le principe de précaution qui contribuera au retrait du Nucléaire, et pour les Gaz de schiste il vaudra mieux trouver d’autres arguments pour tenter d’empêcher leur exploitation…

Repost 0
20 janvier 2014 1 20 /01 /janvier /2014 19:26

20 Janvier 2014

Les normes Européennes deviennent de plus en plus sévères en matière de rejets polluants des moteurs thermiques.

Les éditions Euro 6, versions a, b, c, et leurs suites inévitables s’attaquent aux particules fines, indépendamment du CO2 qui, il a au moins cette qualité, n’est pas nocif pour la santé sauf à très fortes doses. On ne peut bien sûr que se féliciter de cette croisade, encore faut-il examiner de près l’efficacité de ces nouvelles exigences.

Jusqu’à présent les normes fixaient une limite d’émission de particules en terme de masse par kilomètre parcouru durant l’essai NEDC. Pour suivre l’évolution de la technique des motoristes, ce sont d’abord les PM10 (particules supérieures à 10 microns) qui ont été visées, puis les PM2,5 Inférieures à 2,5 microns) , exigence qui a imposé l’usage du FAP ( Filtre A Particules) sur les Diesels. Ceci a permis de supprimer les fumées noires formées par les particules les plus grosses, mais n’a pas éliminé les particules ultrafines (nanoparticules) qui sont les plus nocives pour la santé.

Les moteurs Diesel furent donc les premiers visés, mais les nouveaux moteurs à essence à injection directe émettent également des particules et sont soumis désormais aux mêmes contraintes de dépollution que les diésel.

Les nouvelles normes applicables à partir de 2015 et 2017 s’attaquent aux nanoparticules ( Inférieures à 100 nanomètres) non pas en limitant leur masse (très faible) mais en limitant leur nombre. Désormais la limite sera de 6 x 10 E11 particules par kilomètre parcouru selon la norme NEDC, à partir de 2017.

6 x 10 E11 = 600 000 000 000 = 600 Milliards tout de même !

La même limite est imposée aux moteurs Diesel et Essence, ce qui met provisoirement fin à la querelle médiatique.

Les nouveaux modèles à essence seront maintenant équipés de filtres à particules comme leurs confrères.

Certes on pourra toujours ergoter sur la nature et la nocivité comparée des poisons émis par l’essence ou le diesel, mais il faudra laisser la conclusion aux seuls spécialistes.

Compter les nanoparticules qui sortent de nos bolides devient désormais un travail à plein temps qui va donner du fil à retordre aux centres de contrôle technique. Vous imaginez aisément qu’il n’est pas simple de mesurer un tel paramètre; il est plus facile de compter des moutons que des « objets » invisibles à l’œil nu. Le matériel de mesure nécessaire est hors de prix et doit être manipulé par du personnel hautement qualifié.

Il est vraisemblable que de telles mesures ne seront faites qu’au cours des procédures d’homologation d’un nouveau modèle, les contrôles techniques périodiques se contentant d’appliquer une procédure sommaire. Pour la vérification actuelle de la conformité aux normes anti-pollution on pourra se reporter à l’article du 12 Octobre 2012: « Contrôle technique et pollution Diesel ». On y verra les méthodes très approximatives mises en service pour le contrôle technique des véhicules.

L’important pour la population est de connaître la nocivité des nanopolluants répandus dans l’atmosphère.

Pour brûler 1 g de carburant il faut environ 15 g d’air sec. Un véhicule dont le moteur consomme 7 L aux 100 km, soit 50 g par km, utilisera donc 750 g d’air, qui se retrouveront à la sortie avec une composition et une température différentes, l’oxygène ayant été utilisé pour la combustion.

A chaque kilomètre le moteur respectant la norme Euro 6c rejette donc en moyenne l’équivalent de 0,5 m3 d’air susceptible de contenir 600 Milliards de nanoparticules, soit environ 1 200 000 par centimètre cube.

Les nanoparticules sont présentes à l’état naturel en provenance de diverses sources comme le volcanisme ou la végétation ( pollens). Les activités humaines en ajoutent des quantités considérables appelées à croître avec le développement des nanotechnologies. Selon l’Ineris on mesure actuellement des concentrations en nombre de nanoparticules de 1 500 par cm3 en zone naturelle, et jusqu’à 80 000 par cm3 en zone exposée urbaine.

Selon la norme Euro 6c, les gaz d’échappement peuvent rejeter à chaque kilomètre 1 200 000 nanoparticules par cm3 , soit 15 fois plus que le taux déjà existant dans les zones les plus exposées. Et il faut savoir que cette valeur n’est respectée que lors de l’homologation d’un nouveau modèle et selon le cycle NEDC qui n’est pas représentatif de l’usage réel d’un véhicule, surtout en circulation urbaine.

Peut-on réellement parler d’élimination des nanoparticules dans de telles conditions ?

On ne voit pas très bien comment améliorer significativement les choses sans recourir à des procédés très lourds et onéreux incompatibles avec un usage grand public. Ces procédés seront réservés aux poids lourds. Pour les véhicules légers il apparaît que la seule méthode radicale permettant de régler le problème des nanoparticules émises par les moteurs thermiques, c’est le recours au moteur électrique, au moins en circulation urbaine.

Ceci apporte de l’eau au moulin du véhicule hybride à prolongateur d’autonomie, qui conviendra aux usages ville et route, sans écarter la solution tout électrique plus économique et convenant à une catégorie d’utilisateurs.

Mais un tel basculement ne pourrait avoir lieu qu’au rythme du renouvellement naturel du parc automobile et à condition de traiter les autres sources d’émissions polluantes provenant de l’industrie, des systèmes de chauffage, et des nombreux produits contenant par nature des nanoparticules.

Les nanoparticules étant invisibles, leur nocivité n’est pas aisément démontrable aux yeux des populations. L’expérience publicitaire du mouchoir blanc présenté à la sortie de l’échappement et qui reste blanc grâce au filtre à particules, en dit long sur la facilité avec laquelle le public peut être berné.

L’adhésion du public aux mesures de protection onéreuses et contraignantes sera donc difficile à obtenir, d’autant plus que d’autres sources peuvent être à l’origine de problèmes de santé publique similaires sans être pour autant soumises aux même contraintes.

Voilà donc une affaire dont nous n’avons pas fini d’entendre parler…

Repost 0
18 janvier 2014 6 18 /01 /janvier /2014 17:38

18 Janvier 2014

L’obscure clarté dans laquelle jusqu’à présent a baigné la stratégie de transition énergétique n’a pas permis de distinguer des objectifs précis susceptibles d’orienter un tant soit peu les choix techniques des industriels et surtout des PME.

Seules les grandes compagnies, dont le « terrain de jeux » dépasse largement les frontières de l’Hexagone, sont capables d’une stratégie planétaire autonome et même parfois à l’opposé des choix nationaux. C’est ainsi que l’on peut voir TOTAL investir à l’étranger dans les gaz de schiste alors que le Gouvernement français réitère son opposition à leur exploitation sur le sol national ( en tout cas jusqu’à aujourd’hui…), et le couple EDF et AREVA innover avec ardeur dans le secteur nucléaire sur le territoire malgré l’engagement de retrait progressif de la puissance publique ( Il est vrai que le terme « retrait » n’a jamais été formellement utilisé).

Les « petits » industriels, qui n’ont pas encore le poids financier suffisant pour jouer dans la cour des grands, ne peuvent qu’attendre l’arme au pied de problématiques décisions de l’Etat sur les axes qu’il a l’intention de soutenir par une politique d’incitation, voire de subvention, et en espérant un minimum de continuité dans la stratégie du Château.

Il s’ensuit que le développement des énergies durables doit davantage aux politiques de rachat de l’énergie produite qu’à une réelle stratégie de long terme. Une affaire d’aubaines plus qu’un choix d’avenir raisonné, pas de quoi construire une industrie porteuse d’emplois pérennes.

Côté pratique la transition énergétique est généralement vue comme une affaire d’éoliennes, de panneaux solaires, d’usines de méthanisation des déchets, de centrales à bois énergie, de géothermie, d’hydroélectricité et de biocarburants, ou de poêle flamme verte.

Toute cette quincaillerie est l’arbre qui cache la forêt. La réalité est différente.

Les outils pour extraire de l’énergie des sources renouvelables et décarbonées ou à Carbone recyclable existent déjà et leur technologie ne pose plus problème, la « quincaillerie » est disponible. Pour quelques millions d’euros il est possible d’acquérir des éoliennes de puissances variées jusqu’à 6 MW, d’installer un parc photovoltaïque, de construire une centrale hélio thermodynamique, une unité de méthanisation, une installation de chauffage collectif à bois ou une pompe à chaleur, une unité de production de biocarburant, voire même une petite centrale hydroélectrique ou un simple poêle à bois performant. Tout cela figure dans les catalogues de différents constructeurs.

Alors, pourquoi n’assistons-nous pas à un boom des énergies nouvelles ?

Un examen impartial de la situation permet de mettre en évidence deux problèmes importants encore non résolus à ce jour, il s’agit de la réduction drastique des émissions de CO2, et du stockage de masse de l’électricité.

Faute de solutions satisfaisantes à ces deux problèmes la transition énergétique n’atteindra pas les buts recherchés et restera une affaire de « bricolage » local, voire même un business de chasseurs de prime.

En effet, de quelle utilité serait le développement massif des énergies nouvelles si le taux de CO2 atmosphérique continuait d’augmenter au rythme actuel, et si l’électricité produite par nos belles machines devait être coupée faute de pouvoir être stockée pour compenser l’intermittence ?

Malgré les mises en garde du GIEC suivies des accords internationaux sur les réductions des émissions de GES, il est désormais évident que les sources fossiles d’énergie seront utilisées jusqu’à leur complet épuisement.

Selon les experts du GIEC, si les émissions de CO2 ne sont pas maîtrisées, le réchauffement de la troposphère pourrait atteindre 4 à 6 °C à la fin de ce siècle, avec les conséquences catastrophiques que l’on peut imaginer.

Les instances internationales n’ont pas le pouvoir d’imposer au monde une diète énergétique sur les fossiles, la seule voie de salut reste donc l’élimination du CO2 émis ou son enfouissement pour une durée de plusieurs siècles au moins.

De nombreux programmes d’études ont été lancés pour valider diverses solutions et construire des démonstrateurs autour de la solution privilégiée, l’enfouissement du CO2 après captation à la source.

Les sites d’enfouissement envisagés sont les aquifères salins, les gisements de gaz naturel ou de pétrole épuisés, ou certaines mines de Charbon ( Les mines déjà exploitées ne conviennent pas à cause des nombreuses fuites).

On retrouve les mêmes inconvénients que pour l’exploitation des gaz de schiste, avec en plus deux ou trois petites choses qui aggravent la situation:

- Le coût de la séparation du CO2 des gaz de combustion est important, en proportion de la pureté nécessaire notamment l’élimination des métaux lourds qui pourraient polluer les sols et les nappes aquifères.

- Les fuites sont rédhibitoires, sous peine d’annuler à long terme l’effet de l’enfouissement.

- Les fuites accidentelles massives sont létales par asphyxie pour les populations environnantes.

- Le transport du CO2 vers les sites d’enfouissement ( Gazoduc, ou transport par bateau ) représente un coût important supplémentaire.

- Le procédé n’est applicable qu’aux installations fixes importantes. Les secteurs des transports et des applications domestiques ne pourront en bénéficier.

- Le captage, les traitements, le transport, l’enfouissement, sont eux-mêmes gros consommateurs d’énergie.

- les sites d’enfouissement doivent faire l’objet d’une gestion et d’une surveillance sur plusieurs centaines d’années, ce qui représente des problèmes géologiques, juridiques, et de coût élevé, non encore résolus.

- L’enfouissement sous pression dans des gisements d’hydrocarbures épuisés fera ressurgir du pétrole commercialisable qui permettra de financer le surcoût mais sera générateur à son tour de CO2 supplémentaire, annulant ainsi en partie le bénéfice écologique de l’opération.

L’opération CSC ( Capture et Séquestration du Carbone) est donc loin d’être validée et encore plus loin d’être opérationnelle, sûre et financièrement supportable, sans parler des problèmes d’acceptabilité par les populations.

Peu d’espoir donc de voir avant longtemps des pompes à CO2 agir significativement sur le taux atmosphérique.

Le second problème non résolu de la transition énergétique est l’absence d’une technologie permettant le stockage de masse de l’électricité pour compenser l’intermittence de la production solaire et éolienne.

Ce problème est aujourd’hui masqué par le recours aux centrales thermiques en relève de la production éolienne ou solaire, qui sont encore très minoritaires.

Il existe certes sur le papier des solutions de rechange comme les installations de pompage-turbinage ou la filière Hydrogène, mais le passage à la réalité est plus que problématique.

Or, dans un avenir sans Charbon et sans Hydrocarbures la relève sera impossible si l’électricité ne peut être stockée. A moins de recourir au nucléaire…

On ne peut que constater ces problèmes de fond, dont la prise de conscience permet de comprendre, tout en le déplorant, que les énergies fossiles ont encore de beaux jours devant elles.

Alors, la transition énergétique, rendez-vous en 2050 ?

Repost 0
13 janvier 2014 1 13 /01 /janvier /2014 18:52

13 Janvier 2014

Les société dites « occidentales » se sont édifiées sur le concept de progrès technique lui-même fondé sur le développement des sciences. Le mode de vie résultant est, à tort ou à raison, devenu un modèle pour les peuples laissés pour compte qui ambitionnent d’y accéder et frappent à la porte de la société de consommation.

Cette revendication se heurte à un obstacle majeur potentiellement générateur de conflits destructeurs. Le progrès technologique tant convoité exploite et épuise les ressources minières et énergétiques de la planète. Les experts s’accordent à considérer que ces ressources sont déjà exploitées au-delà du raisonnable, et que les réserves ne permettent pas d’étendre le bénéfice du progrès technique actuel à l’ensemble des peuples, et qu’elles sont même en voie d’épuisement au rythme actuel du pillage, avant même d’envisager de les partager.

L’Humanité est donc confrontée à l’exigence d’un transfert de technologie pour lequel les connaissances et les outils existent, mais les ressources minières et énergétiques sont absentes.

Pour la première fois de son histoire l’Homme occidental doit assumer les conséquences de ses actes vis-à-vis des autres peuples, apprendre à partager des ressources qui ne sont pas inépuisables, et se préparer à développer un nouveau mode de vie qui ne soit pas fondé sur le pillage des richesses de la planète et la destruction de son environnement.

C’est la survie de la civilisation technologique qui est en jeu.

( Certes l’Humanité survivra, mais dans un état que l’on préfère ne pas avoir à imaginer).

La prise de conscience de cette situation inédite n’est pas spontanée chez les peuples nantis. La société de consommation qui submerge l’individu de produits et de services gros consommateurs d’énergie et de matières ne prépare pas les esprits à se remettre en question et encore moins à se serrer la ceinture.

Deux évènements planétaires sont en passe de bousculer cette inertie et de créer les conditions d’un changement de modes de vie. Le premier est le changement climatique dû à l’effet de serre amplifié par les activités humaines, le second est la relative imminence de l’épuisement des sources fossiles d’énergie.

La révélation, ou la prise de conscience, de ces deux menaces a suscité de grands espoirs de voir enfin s’amender les comportements excessifs des pays développés. Si l’idée de la nécessité d’un changement radical de nos modes de vie est effectivement partagée par une majorité, la mise en pratique des réformes indispensables se heurte à de nombreux obstacles dont le moindre n’est pas le montant colossal des investissements nécessaires.

La tentation est donc grande d’attendre pour entreprendre cette révolution que surviennent des circonstances extrêmes ne laissant aucun doute sur la matérialité des menaces climatique et énergétique. Et il faut bien reconnaître qu’aujourd’hui les échéances des catastrophes annoncées sont très incertaines, comme nous tentons de le montrer ci-après.

Durant la dernière décennie la température moyenne de la troposphère s’est refusée à manifester une quelconque tendance au réchauffement. Pire, une petite tendance à la baisse a pu même être constatée. Bien sûr il n’est pas « fair play » de juger d’une évolution de ce paramètre sur une période aussi courte, et les relevés des temps passés montrent bien de semblables fluctuations assimilables à du bruit de fond tel qu’on peut s’attendre à le constater sur un servomécanisme constitué par le système Terre-Atmosphère-Soleil- Zoosphère.

Après tout, des fluctuations de +/- 0,3 K sur une moyenne de 288 K, cela représente à peine un pour mille, ce qui satisferait pleinement un ingénieur responsable d’un tel système, pour autant qu’un tel personnage puisse intervenir en l’occurrence !

(En fait, un certain Lovelock n’est pas loin de ce concept puisqu’il postule l’existence d’une entité vivante dénommée GAIA, qui ne serait autre que notre mère la Terre, mais ne nous égarons pas…).

Cette apparente stabilité de la température est susceptible de jeter le trouble dans certains esprits simples. Et ceci malgré la ruse qui consiste à rapporter les variations de température observées non pas à la valeur réelle moyenne de 288 K, mais à la valeur de 15 °C, ce qui ramène les fluctuations de +/- trois pour mille à +/- 2 pour cent, chiffre mieux à même d’alerter les foules peu préoccupées de savoir si l’on doit se référer au zéro thermodynamique ou à la température de la glace fondante, pourquoi pas à celle de l’anisette de cinq heures !

Un certain Boltzmann doit se retourner dans sa tombe…

D’autant plus que la cohorte des sceptiques du NIPCC ne se prive pas de brandir des évaluations contradictoires fondées sur une utilisation plus nuancée de la relation de Myhre, assortie d’une prise en compte différente des rétroactions, qui conduit à un tableau beaucoup moins alarmiste des augmentations de températures prévues.

En bref, il y a un certain mou dans le consensus, ce qui au demeurant n’est pas contradictoire avec le débat démocratique, qui doit éviter tout dogmatisme.

Il n’est pas de notre compétence d’arbitrer ce débat politico-scientifique, mais nous devions signaler qu’il existe.

Hélas, ce n’est pas tout.

La deuxième raison invoquée pour justifier une prise de distance vis-à-vis des énergies fossiles est la menace d’une pénurie de pétrole ( le fameux « peak oil »).

Or que voyons-nous ?

La crise financière de 2008 s’est traduite entre autres par une multiplication par trois du prix du baril. ( Certains mauvais esprits avancent même que la crise, provoquée, n’avait pas d’autre but, encore la théorie du complot !). La barre des 100 dollars étant atteinte, il est devenu rentable d’exploiter tout ce qui, de près ou de loin, ressemble à du pétrole ou à du gaz. Le pétrole des grands fonds, les sables bitumineux et les gaz et huiles de schiste sont venus soutenir la production conventionnelle, et l’on retrouve même intérêt à fabriquer du carburant liquide à partir du Charbon dont les réserves sont immenses !

La pénurie est donc reportée à une date ultérieure. Sans parler bien sûr des empêcheurs de tourner en rond qui évoquent la possibilité d’un pétrole abiotique, mais ceci est une autre histoire.

Ce faisant on a pu voir le baril plafonner à $120, puis se mettre doucement à redescendre, le Brent est aujourd’hui à $107. Et le Gaz de schiste se porte bien, merci. Ce n’est pas la Compagnie française TOTAL qui dira le contraire, si l’on en juge d’après ses récents engagements financiers.

La perspective du réchauffement climatique n’est certes pas niée, non plus que l’inéluctabilité de l’épuisement des sources fossiles d’énergie, mais de nombreux décideurs sont naturellement portés à considérer que la catastrophe énergétique annoncée n’est probablement pas pour demain matin, et que l’échéance de l’apocalypse climatique n’est pas davantage imminente.

Le franchissement de la barre des 100 Dollars pour le baril n’a donc pas suffit à calmer les appétits énergétiques, et de plus l’effet pervers de cette hausse sur l’augmentation des réserves exploitables enlève un peu du caractère dramatiquement urgent de la menace de pénurie.

La ruée attendue vers les énergies nouvelles a donc pris le caractère d’une réorientation stratégique sur le long terme plutôt qu’une mobilisation pour un sauve-qui-peut tous azimuts probablement contre-productif. Plutôt qu’imposer au malade une saignée qui aurait toutes chances de conduire à une issue dramatique, en tous cas incertaine, il semble que l’on s’achemine vers un traitement homéopathique assorti d’une hygiène de vie fondée sur la sobriété.

Dans le domaine de l’Energie, comme ailleurs hélas, les décisions sont prises par les grands groupes industriels et financiers, pour qui les péripéties climatiques ne sont que des variables d’ajustement des marchés et les énergies nouvelles des opportunités à analyser pour en évaluer l’éventuelle rentabilité financière.

On a pu ainsi constater que la fonte des glaces polaires, considérée par les écologistes comme dramatiquement démonstrative de la catastrophe climatique, est au contraire saluée par les grandes compagnies comme favorable aux échanges commerciaux raccourcis et à l’exploitation de nouveaux gisements d’hydrocarbures devenus soudain accessibles !

Il se confirme donc de plus en plus que non seulement les ressources d’hydrocarbures seront bien consommées jusqu’à la dernière goutte, mais que le Charbon lui-même n’échappera pas à la curée puisque c’est de lui que nous tirerons les carburants liquides lorsque le pétrole sera asséché.

Il faudra donc nous accommoder du CO2 associé à cette orgie énergétique, en espérant que les augures du GIEC ont forcé sur le pessimisme et que le forçage radiatif du CO2 sera moindre que prévu.

Dans le cas contraire il y aurait lieu de considérer très sérieusement les stratégies de capture et séquestration du Carbone.

Mais qui s’en soucie réellement ?

Repost 0