Overblog Suivre ce blog
Administration Créer mon blog
7 décembre 2012 5 07 /12 /décembre /2012 09:55

 

7 Décembre 2012

Le Jackpot a encore augmenté à Flamanville. La cagnotte, que le consommateur devra alimenter un jour ou l’autre, s’élève maintenant à 8,5 Milliards d’euros. On a tout lieu de penser qu’elle atteindra les 10 milliards en cinquième semaine.

Mon voisin financier a cherché à me rassurer en me démontrant qu’il n’y a pas le feu au lac, attendu que cette somme ne représente que 26,3 euros par an pendant dix ans pour chacun des 38 Millions d’abonnés, qu’au bout de dix ans la bécane sera amortie et fournira alors du courant à prix d’ami.

Mathématiquement il a raison mais je lui fais part de mes inquiétudes sur l’origine des fonds qui serviront à payer les travaux à la fin du chantier. Là aussi il tente de calmer mes angoisses en m’assurant qu’un bon emprunt obligataire y pourvoira. Un coupon de 4,5% sera versé, qui se traduira par une dette annuelle de 450 Millions, soit 11,8 euros par an et par abonné, toujours sur dix ans, ce qui porte la note annuelle à 38,1 euros par abonné jusqu’au terme de l’emprunt.

Cette somme modeste pourra être soit imputée à égalité sur tous les abonnés en bas de leur facture, soit payée au prorata par une petite augmentation du prix du KWh, de l’ordre de 0,11 centime, sur la base d’une consommation globale de 400 TWh.

Mon voisin m’a expliqué que ce miracle est rendu possible grâce à l’économie d’échelle.

La finance est vraiment un art remarquable…

Il m’a cependant un peu refroidi en ajoutant que, sur la base d’une consommation nationale de 400 TWh, ce n’est pas 1 réacteur EPR qu’il faudrait construire, mais 40, ce qui change la donne financière ( Pour délivrer 400 TWh annuellement, il faut une puissance installée de 60 GWe). Les 10 Milliards d’investissement deviennent 400, et le surcoût du KWh passe à 4,4 centimes.

Ce qui, de manière surprenante, demeure encore très acceptable, d’autant plus que ces réalisations seraient étalées dans le temps.

Toujours l’économie d’échelle.

Mon autre voisin, grand amateur d

énergies nouvelles, sest alors étonné que lon ne fasse pas la même chose avec, par exemple, des éoliennes, puisque ce nest pas une question dargent.

Je lui ai alors expliqué que le problème des éoliennes nest effectivement pas une question dargent, mais quil se trouve ailleurs, dans lacceptabilité par les populations, et dans leur caractère intermittent.

En effet, les éoliennes off shore ( les autres ne sont pas dans le coup) ont une efficacité moyenne de 30% car le vent ne souffle pas toujours à sa valeur optimale. De plus cette efficacité est modulée par lintermittence (quand le vent souffle fort à Dieppe, ce nest pas forcément le cas à Noirmoutiers). Pour disposer de 1 MWe moyen, il faut en installer au moins trois fois plus, ce qui correspond à un nombre vertigineux de grosses éoliennes off shore de 5 MW.

Et de plus pour compenser lintermittence il faut des capacités de stockage délectricité que personne ne sait mettre en œuvre aujourdhui.

Et l’on voit assez mal les populations accepter de voir leur littoral encombré par plusieurs dizaines de milliers de machines, chacune aussi haute quune demi tour Eiffel !

Pour achever de saper le moral de mon voisin écologiste, mon ami financier, qui ne se sépare jamais de sa calculette, effectue un rapide calcul du coût dun parc éolien offshore capable de fournir autant dénergie que LE réacteur de Flamanville.

Un réacteur de 1 500 MWe peut fournir environ 11 TWh dénergie par an.

Pour obtenir le même service en éolien off shore il faut installer 850 machines de 5 MW, sur la base dun facteur de charge de 35% et un coefficient de disponibilité de 85% ( maintenance). A ces machines il faut ajouter les structures adéquates de stockage dénergie pour compenser lintermittence.

Linvestissement en éolien offshore est denviron 3 M euros / MW installé, ce qui conduit à environ 13 Milliards deuros pour 850 machines de 5 MW. Auxquels il faut ajouter les moyens de stockage dénergie, impossibles à chiffrer aujourdhui faute dune solution disponible.

( Rappelons que le projet éolien offshore 2015-2020 de la côte atlantique porte sur la construction de 1 200 éoliennes de 5 MW, pour un coût de 20 Milliards deuros, donc loin devant le budget de Flamanville qui fait figure de projet mesquin. Et rien nest prévu pour le stockage de lénergie !).

Voici donc renvoyés dos à dos le Nucléaire et lEolien, sur le plan des investissements.

Comment protester dun côté contre un projet à 8,5 Milliards, et accepter sans sourciller de dépenser 20 Milliards de lautre côté pour faire quasiment la même chose avec du vent ?

Ce nest donc pas sur le plan financier que le Nucléaire et les ENR peuvent être départagées, mais strictement sur le plan de la protection de lenvironnement et les risques daccidents majeurs.

Il y a suffisamment darguments contre le nucléaire sans quil soit besoin de recourir à des analyses financières approximatives qui peuvent s’avérer contre-productives.

Il ne faut pas se tromper de combat.

 

 

 

 

 

 

 

 

Repost 0
5 décembre 2012 3 05 /12 /décembre /2012 15:35

 

5 Décembre 2012

La tragédie de Florange se déroule sous nos yeux, les épisodes sont dans tous les médias. Au-delà du drame humain, qui peut concerner chacun de nous demain, se profile en raccourci le schéma de ce qui pourrait être dans l’avenir le modèle de l’affrontement du pouvoir politique et des acteurs économiques dans une économie libérale.

ARCELORMITTAL est un groupe international ayant son siège au Luxembourg, employant 260 000 personnes dans 60 pays.

Le Groupe produit plus de 100 millions de tonnes d’acier par an, représentant 10 % de la production mondiale.

Le site de Florange, qui emploie environ 630 salariés, est une infime partie de ce gigantesque consortium. Sa capacité de production est d’environ 2,5 millions de tonnes par an, dans deux hauts fourneaux.

Pour des raisons que nous ne commenterons pas ici le Groupe a décidé l’arrêt de ces hauts fourneaux, menaçant de fait les emplois du site.

Au cours des négociations entre le Gouvernement et la Direction du Groupe pour le sauvetage de Florange, un certain projet ULCOS a été cité comme solution possible permettant de pérenniser une activité sur place.

Le projet ULCOS, comme son nom l’indique, est un projet. Il s’inscrit dans la longue liste des travaux qui, de par le monde, s’efforcent de démontrer la faisabilité du concept de capture et séquestration du Carbone ( CSC), et plus généralement de réduire les émissions de gaz à effet de serre ( GES).

Le concept de CSC est déjà ancien, il est abondamment évoqué dans les différents rapports du GIEC, comme une méthode permettant de continuer à utiliser les combustibles fossiles tout en atténuant fortement les émissions de GES.

Dans ce domaine, passer de la théorie à la pratique n’est pas chose aisée. de nombreux problèmes sont à résoudre avant de pouvoir affirmer la faisabilité.

Ces problèmes sont spécifiques des trois étapes du procédé:

- D’abord la capture du CO2.

Plusieurs procédés de captage sont envisageables:

Postcombustion.

Oxycombustion.

Précombustion.

Qu’il est nécessaire d’expérimenter afin d’en évaluer la pertinence pour les différentes applications ( Sidérurgie, Pétrochimie, Cimenterie, centrales thermiques), les difficultés de réalisation, l’impact sur les coûts, et l’efficacité.

- Ensuite le conditionnement et le transport du CO2.

Transport sous quelles formes ( Gazeux sous pression à température moyenne, liquide à basse température), quels moyens d’acheminement vers les sites de stockage, quels réseaux, etc…

- Enfin le stockage lui-même.

Probablement l’aspect qui génère le plus de problèmes.

Caractérisation des sites de stockage, méthodes d’enfouissement, repérage des sites, surveillance des sites, acceptabilité par les populations, etc…

Aucun de ces trois types de problèmes n’a encore reçu de solution satisfaisante et définitive.

Les différents projets en cours ont pour but l’avancement des connaissances dans l’un ou l’autre domaine.

Selon Schlumberger, il existait en 2011 pas moins de 234 projets CSC de par le monde. ULCOS est l’un d’eux.

ULCOS ( Ultra Low CO2 emission Stelmaking) est un projet soutenu par la Communauté Européenne, auquel participent 15 pays européens et 48 entreprises ou organisations, dont ARCELORMITTAL, mais aussi THYSSEN KRUPP.

La phase 2011-2015 prévoit la réalisation de prototypes d’implantation d’une installation de CSC.

Florange a été cité comme possible support de cette réalisation pilote, portant sur l’un des deux hauts fourneaux pour la capture du CO2, et les salines de Lorraine pour le stockage.

L’affaire coûterait environ 600 Millions d’euros, avec la répartition suivante ( en cas d’élection du site évidemment):

-Etat français et collectivités territoriales: 180 M

- Commission Européenne: 250 M

- ARCELORMITTAL: 170 M

Ce qui permettrait de maintenir des emplois, mais pas forcément ceux qui existent déjà sur place.

D’autre part, il s’agit d’un projet et non d’une réalisation industrielle, or aujourd’hui Florange n’a pas cette vocation, ni le personnel nécessaire.

Le planning du projet ( échéance 2015) n’est pas compatible avec le maintien d’emplois de production à court terme.

D’autres problèmes doivent être considérés:

Le stockage par enfouissement dans un site Lorrain soulève de nombreuses critiques:

- Risques à long terme de voir le CO2 s’échapper par des fissures et de repartir dans l’atmosphère .

- Risque de perte de contrôle de la diffusion du CO2 dans le sous-sol, et de fragilisation des terrains.

- Connaissances insuffisantes des capacités réelles de stockage.

- Risques de fuites majeures avec problèmes de santé publique.

Etc…

Par ailleurs on peut se demander quel est l’intérêt d’une telle installation dans un site dont la fermeture était déjà programmée depuis plusieurs années, alors que les sites productifs récents sont en bord de mer ( Fos-sur-Mer et Dunkerque).

Le projet UCLOS est en attente d’élection par la CE. Il est en concurrence avec trois autres projets:

BELCHATOV, en Pologne, pour équiper une centrale au lignite .

GREEN HYDROGEN, aux Pays-bas, capture et liquéfaction du CO2 résultant de la fabrication d’Hydrogène.

PORTO TOLLE, en Italie, équipement d’une centrale électrique.

Le choix de la CE est attendu pour le 20 Décembre 2012.

Ces projets ( et les 231 autres de par le monde) , s’inscrivent dans une stratégie globale de réduction des émissions de GES.

Le moteur de cette stratégie est alimenté en grande partie par les perspectives financières ouvertes par le marché des quotas d’émission.

La deuxième phase du protocole de KYOTO, qui se termine en Décembre 2012, a vu la mise en place des quotas d’émission, avec plus ou moins de succès.

La dix-huitième réunion, qui se déroule actuellement au QATAR ( à Doha) est censée discuter entre autres de la suite à donner à cette histoire de quotas.

De ses décisions vont dépendre l’empressement avec lequel les industriels vont investir dans les programmes CSC.

Après tout, peut-être l’arlésienne de Florange reviendra-t-elle sur le devant de la scène…

 

 

 

 

 

Repost 0
28 novembre 2012 3 28 /11 /novembre /2012 14:12

 

28 Novembre 2012

Le débat inauguré cette semaine était attendu par tous ceux qui se posent des questions sur notre avenir énergétique.

Rappelons la situation française:

La France ne produit que 20% environ de l’énergie qu’elle consomme (Nucléaire, Hydraulique, Biomasse), le reste est acheté sur le marché libre sous forme d’énergie fossile. Nous sommes donc, pour 80% de nos besoins, dépendants de sources extérieures, ce qui engendre deux problèmes:

L’insécurité des approvisionnements, qui nous met à la merci d’évènements géopolitiques sur lesquels nous n’avons aucun contrôle.

Un déséquilibre de la balance du commerce extérieur, dont le contrôle nous échappe également puisque les prix sont fixés par le marché.

D’autre part, 80% de notre énergie est d’origine fossile carbonée (Charbon, pétrole, gaz naturel). Ces produits présentent trois inconvénients:

La France doit les acheter en totalité, avec les problèmes décrits plus haut.

Leur usage génère des émissions de gaz à effet de serre, et ne respecte pas les résolutions du Grenelle de l’environnement.

Les réserves sont en voie d’épuisement avec donc une perspective de pénurie et de flambée des prix.

La situation actuelle est donc appelée à devenir intenable à moyen terme. Il est donc important de définir une autre stratégie énergétique, capable de nous donner une indépendance suffisante et de prendre des distances vis-à-vis des énergies fossiles importées.

Certes la catastrophe n’est pas pour demain matin. L’échéance ne peut être déterminée avec précision puisque le phénomène de pénurie sera progressif et ne touchera pas toutes les énergies en même temps. Mais il est souhaitable que d’ici 2020 les grandes lignes de la stratégie de transition soient définies et que les éléments de réalisation soient en place.

Par ailleurs le problème de l’énergie est mondial. La stratégie française devra s’intégrer à une stratégie au moins européenne pour bénéficier de l’économie d’échelle et rechercher ensemble les meilleures solutions.

La transitions énergétique fait évidemment référence aux énergies nouvelles, essentiellement solaire et éolien, avec un volet constitué par les économies d’énergie.

Au centre du débat se trouve l’électricité nucléaire, dont le maintien ou l’abandon conditionnera le reste du dossier.

Les débats vont donc porter sur des décisions à prendre au sujet de questions connues:

Des questions d’ordre général:

- En quoi consiste exactement la transition énergétique ?

- Quels sont les objectifs stratégiques ?

- Quels sont les plannings souhaitables ?

- Comment assurer la transition sans créer de rupture ?

- Quelle politique européenne de l’énergie ?

- Quelle transition énergétique mondiale ?

- Quels sont les ordres d’urgence ?

- Quels sont les éléments constitutifs de la transition ?

Des questions de stratégie nationale:

- Quel mix énergétique pour 2030 et 2050 ?

- Quelle position adopter vis-à-vis du nucléaire ?

- Même question pour les gaz et huiles de schiste.

- Même question pour l’exploitation du pétrole et du gaz off shore.

- Quels objectifs pour l’éolien et le solaire ?

- Quels objectifs de développement de l’hydraulique ?

- Quels objectifs de développement de la biomasse ?

- Quel programme pour le stockage de l’énergie ?

- Même question pour la géothermie.

- Quel programme pour la capture et la séquestration du carbone ?

- Quels objectifs pour les économies d’énergie ?

- Quels seront les impacts de la transition énergétique sur l’activité économique ?

- Même question à propos des modes de vie ?

- Même question à propos de l’habitat, des transports.

- Même question à propos des infrastructures.

- Quels seront les coûts prévisionnels des différents scénarii ?

- Comment les coûts de développement seront-ils répartis entre l’Etat et le privé ?

- Quelles seront les sources de financement ?

- Quelles structures mettre en place pour supporter ces travaux ?

- Quel sera le cadre règlementaire, législatif, fiscal, d’accompagnement de la transition ?

Il s’agit donc de mener une réflexion approfondie non seulement sur l’évolution du mix énergétique souhaitable, mais aussi sur l’impact de cette évolution sur la société, son acceptabilité, et son coût.

Le scénario résultant ne pourra être qu’évolutif, tout en fixant une ligne directrice pour limiter les risques de dispersion des moyens.

L’un des risques qui guettent le bon déroulement des programmes est l’exposition aux influences externes liées à l’instabilité politique des Etats.

Les grandes décisions stratégiques sont en dernier ressort politiques, et les méandres de la politique auront un impact sur une affaire aussi importante que la transition énergétique.

Il se peut que cette révolution soit l’affaire du siècle, eu égard à son impact sur tous les aspects de l’économie. Les Etats qui la mèneront à bien en tireront un avantage certain, qui leur garantira un développement durable.

Affaire à suivre…

Repost 0
25 novembre 2012 7 25 /11 /novembre /2012 18:49

 

25 Novembre 2012

Dans les articles des 13, 16, et 20 Novembre, nous avons tenté de mettre en lumière le problème majeur des énergies Solaire et Eolienne ( ENR), lié à leur caractère intermittent. Il apparaît que ces énergies ne pourront se développer significativement qu’à la condition de disposer de structures de stockage de masse de l’électricité.

Le challenge des ENR n’est donc plus vraiment le développement des moyens de capture ( Panneaux solaires, éoliennes, centrales solaires thermiques à concentration, etc…). Ces moyens existent, il faut les perfectionner évidemment comme pour toutes les applications nouvelles, mais les technologies de base sont disponibles.

Cependant, le challenge environnemental demeure. Il ne sera pas facile de faire accepter par les populations l’envahissement du paysage par les éoliennes, et/ou par les champs de panneaux solaires.

Mais souvent nécessité fait loi.

Le nouveau challenge est maintenant le stockage de l’électricité pour compenser l’intermittence de la production.

Il existe un système de stockage déjà utilisé depuis très longtemps, c’est le pompage/turbinage mis en œuvre partout dans le monde, mais dont la capacité installée est très faible, très inférieure aux besoins créés par les ENR.

Tout naturellement le pompage/turbinage est donc apparu comme le premier candidat au stockage de masse de l’énergie.

Les pays gros consommateurs d’énergie se sont donc engagés dans de vastes programmes de construction de stations de ce type. Là aussi les technologies existent, mais le déploiement des structures se heurte aux obstacles déjà rencontrés par les éoliennes et les panneaux solaires, c’est-à-dire l’emprise foncière et/ou les atteintes à l’environnement.

Ces obstacles apporteront une limite naturelle à l’expansion du procédé, au moins dans les régions fortement peuplées et ayant mis en place un plan de protection des sites naturels et de la biodiversité.

Le pompage/turbinage ne pourra donc résoudre qu’une partie du problème.

Plusieurs procédés complémentaires ont été mis au point, que nous avons déjà cité. On connaît les batteries au Lithium, développées pour l’automobile, mais pouvant également être utilisées pour du stockage à poste fixe. D’autres types de batteries existent, utilisant d’autres combinaisons chimiques, et pouvant constituer des solutions intéressantes. Moins populaires, mais très efficaces, sont les MCP (Matériaux à Changement de Phase), qui permettent de stocker l’énergie sous forme de chaleur réutilisable directement ou à travers une PAC ( Pompe A Chaleur). D’autres dispositifs encore peuvent prendre en charge une partie du stockage: L’air comprimé, les volants à inertie, etc…

Mais un procédé semble appelé à un grand avenir, c’est celui qui utilise l’Hydrogène comme vecteur d’énergie.

Le gaz Hydrogène est déjà largement utilisé dans l’Industrie pour une multitude de besoins. Pour ces utilisations il est produit majoritairement par reformage du Méthane.

Il est habituellement stocké dans des bouteilles soit à très haute pression (700 kg), soit à moindre pression sous forme liquide, mais à très basse température ( - 250 °C) .

Il existe d’autres façons de produire de l’Hydrogène, notamment le craquage de l’eau et l’électrolyse.

Le craquage de l’eau exige de très hautes températures, on envisage de l’utiliser dans les centrales nucléaires pour récupérer une partie de la chaleur perdue. L’hydrogène ainsi produit serait utilisé dans une turbine ad-Hoc.

L’électrolyse de l’eau est un procédé ne nécessitant ni hautes températures, ni hautes pressions. C’est donc un candidat idéal pour obtenir de l’Hydrogène à partir de l’électricité sans faire appel à des technologies sophistiquées.

Cet Hydrogène peut, après stockage, être utilisé soit directement comme combustible propre ( sans CO2), soit retransformé en électricité dans une pile à Hydrogène dont la technologie est maintenant bien maîtrisée.

Cette association de l’électrolyse et de la pile à combustible permet de considérer l’Hydrogène comme un vecteur d’énergie très prometteur.

A condition de savoir stocker ce gaz.

Nous avons déjà évoqué le projet de stockage dans les infrastructures utilisées actuellement pour le gaz naturel. Il est en cours d’expérimentation avec de bonne perspectives d’efficacité.

L’autre procédé qui a le vent en poupe est le stockage dans un matériau solide, comme l’hydrure de magnésium. Par couplage avec une pile à Hydrogène, on réalise une batterie utilisable sur les véhicules ou à poste fixe.

Le Magnésium est un matériau abondant dont les réserves sont considérables. Il existe à l’état d’oxyde ( Magnésie) à hauteur de 4,36% de la masse de la croute terrestre, donc plus abondant que le fer. L’eau de Mer en contient 1,3 kg par tonne.

Ce métal est déjà largement utilisé par l’Industrie, qui en consomme plus de 500 000 tonnes annuellement.

Il existe de nombreux matériaux susceptibles d’adsorber de l’Hydrogène et de le restituer ensuite, mais le Magnésium est l’un des plus intéressants car il est abondant et il permet de travailler dans des conditions de température et de pression raisonnables, compatibles avec des usages grand-public.

Le Magnésium est donc peut-être appelé à jouer un rôle important dans le développement des ENR, au même titre que le Lithium déjà plébiscité pour les batteries de voitures.

Les ressources sont assez bien réparties, mais la Chine reste le principal producteur.

Les produits utilisés dans les installations de stockage seront recyclables puisqu’ils ne sont pas consommés.

Les outils de la révolution énergétique permettront de remplacer les énergies fossiles et de réduire considérablement les émission de CO2, mais ils seront accompagnés de contraintes nouvelles qui devront être acceptées par les populations.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
20 novembre 2012 2 20 /11 /novembre /2012 12:35

 

20 Novembre 2012

Nous avons rappelé dans l’article du 16 Novembre que le stockage de l’énergie est un passage obligé que les industriels devront franchir pour prétendre au basculement vers les énergies nouvelles.

Nos amis allemands, toujours en avance d’une guerre, fut-elle économique, nous ont devancés dans la course au solaire et à l’éolien.

Cet empressement a été dû à des raisons écologiques ( réduire les émissions de CO2), à des raisons politico-écologiques ( sortir du Nucléaire), et à des raisons économiques sous tendues par la recherche de l’indépendance énergétique.

Ces raisons existent également chez nous, mais demeurent à l’état théorique et s’expriment sous forme de programmes d’études non ( ou peu) suivis de réalisations industrielles.

Par contre, l’enthousiasme industriel coutumier Outre-Rhin s’est vite concrétisé par une abondance d’installations productrices d’énergies nouvelles. Et tout aussi rapidement le secteur de l’énergie s’est trouvé confronté au mur du stockage créé par le caractère intermittent de la nouvelle production électrique.

C’est ainsi que l’on a vu des parcs éoliens arrêtés pour éviter une saturation du réseau en période de basse consommation mais de fort vent, ou des centrales à charbon appelées en renfort dans la situation inverse !

Cette situation ne saurait être acceptée dans un pays soucieux de cohérence et qui fonde de très grands espoirs sur le Solaire et l’Eolien.

Le stockage de l’énergie est ainsi devenu le problème numéro un, autour duquel se mobilisent tous les acteurs de l’énergie.

En premier lieu, et pour des raisons historiques, il a été fait appel à l’hydraulique qui permet, par le pompage/turbinage, de stocker des quantités importantes d’énergie avec un rendement intéressant ( 70 à 80%).

Cette technique est utilisée depuis longtemps, mais sur une échelle réduite.

Elle était jusqu’à présent utilisée surtout pour stocker de l’énergie lorsqu’elle peut être produite à bas coût afin d’échapper aux fluctuations des cours du MWh en période de forte demande.

L’Europe possède ainsi un parc de pompage/turbinage de 45 GW de puissance installée, en 170 sites. D’ici 2020, 60 nouvelles installations apporteront une capacité supplémentaire de 27 GW.

La France possède ses propres sites de pompage/turbinage permettant de fournir plus de 5 GW , dédiés au stockage de l’électricité nucléaire produite en période de basse consommation.

La consommation annuelle Européenne d’électricité est de l’ordre de

3 000 Twh.

Ce montant déjà considérable ne doit pas faire oublier que la consommation d’énergie finale est beaucoup plus élevée, environ 15 000 TWh ( incluant toutes les énergies ).

La stratégie de retrait des énergies fossiles, aidée par le simple bon sens, suppose que la plupart des applications qui y recourent aujourd’hui se convertissent aux énergies nouvelles, c’est-à-dire essentiellement à l’électricité.

Donc, pour les énergies nouvelles le challenge est de fournir non seulement les 3000 TWh de la consommation électrique actuelle, mais aussi au moins 50% du reste à moyen terme, ce qui conduit à un objectif voisin de 9 000 TWh.

Encore cet objectif ne pourra-t-il être maintenu que grâce à un programme drastique d’économies d’énergie.

La puissance moyenne correspondant à cette quantité d’énergie est de l’ordre de 1 000 GW , qui ne pourra être fournie par les énergies nouvelles que si les moyens de stockage nécessaires existent.

Rappelons qu’il est prévu 70 GW de moyens de stockage pour 2020, ce qui donne la mesure de l’effort à fournir.

Effort d’autant plus considérable que le besoin de stockage porte sur des durées beaucoup plus importantes qu’actuellement.

Aujourd’hui le stockage/turbinage est appelé pour intervenir durant quelques heures seulement, pour répondre à un besoin de courte durée.

Demain il faudra relayer le Soleil et/ou le vent sur des période non plus de quelques heures, mais de quelques jours, voire même quelques semaines !

Les capacités de stockage devront donc être augmentées en conséquence, ce qui implique des retenues d’eau absolument colossales.

Il faudra donc mettre en œuvre d’autres procédés de stockage capables de compléter la ressource nécessaire.

Parmi les candidats, l’électrolyse de l’eau avec stockage de l’Hydrogène semble prometteur grâce à des capacités potentielles très importantes constituées par les infrastructures du réseau de distribution du gaz.

L’idée de mélanger de l’Hydrogène au gaz naturel n’est pas nouvelle et a déjà été mise en pratique par le passé. Notre ancien gaz de ville était déjà un mélange d’hydrogène, de Méthane et d’oxyde de Carbone.

Les expérimentations en cours montrent que les infrastructures actuelles pourraient tolérer un apport de 15% d’Hydrogène dans le réseau de distribution, ce qui réduirait d’autant les émissions de CO2 .

L’utilisation de l’Hydrogène comme vecteur d’énergie entre d’une part les installations solaires et éoliennes, et d’autre part les sites de stockage ou de consommation, est une idée qui fait son chemin.

Ce gaz peut également être stocké dans des matériaux solides, comme l’Hydrure de Magnésium, avec une efficacité très améliorée grâce aux nanotechnologies. Il peut ainsi être utilisé dans une pile à combustible ou dans une turbine pour équiper des véhicules, sans les inconvénients et les risques associés à un stockage sous forte pression.

La filière Hydrogène semble donc appelée à un brillant avenir.

Mais l’Hydrogène et le pompage/turbinage ne suffiront pas à absorber les fluctuations liées à la production intermittente du solaire et de l’éolien.

D’autres procédés devront être mis en œuvre pour s’accommoder de la situation nouvelle:

Par exemple, stockage distribué sous forme de chaleur dans des matériaux à changement de phase, sous forme d’énergie cinétique dans des volants à inertie, ou sous forme chimique dans des batteries.

Côté distribution, il sera nécessaire d’adapter la consommation à la production afin de minimiser les capacités de stockage nécessaires. Chaque logement devra comporter une capacité de stockage tampon à la mesure de la puissance souscrite, et sera équipé pour laisser au fournisseur d’énergie le contrôle de la gestion des équipements de puissance dans le cadre d’un contrat négocié.

Le passage aux énergies nouvelles ne se fera pas sans de profonds changements de mentalités et d’habitudes de consommation.

Une ou deux générations seront nécessaires pour que notre société s’adapte à cette petite révolution.

Les esprits doivent y être préparés dès maintenant…

 

Repost 0
16 novembre 2012 5 16 /11 /novembre /2012 11:08

 

16 Novembre 2012

« Un phénomène stochastique est un phénomène qui ne se prête qu'à une analyse statistique, par opposition à un phénomène déterministe » .

Jusqu’à présent, nous disposions d’une énergie électrique stable, dont l’origine et le volume étaient parfaitement identifiés: Un nombre connu de centrales opérationnelles, de puissances déterminées, le produit des deux donnant une quantité connue, déterminée, de MWh dans lesquels il suffisait de puiser quelle que soit l’heure du jour ou même de la nuit.

Cette époque bénie est révolue.

Le passage aux énergies nouvelles va nous faire passer d’un monde déterministe à un monde stochastique.

Dans l’ancien monde, EDF pouvait nous dire que demain nous pourrions passer l’heure de pointe sans problème car la puissance nécessaire était disponible, déterminée par des paramètres parfaitement maîtrisés. Nous vivions dans un monde déterministe.

Demain, lorsque les énergies éolienne et solaire seront majoritaires, les paramètres fixant l’énergie disponible ne seront plus sous contrôle. Il ne sera plus possible de garantir à l’avance que tel montant d’énergie sera disponible tel jour à telle heure. Personne ne peut maîtriser les évènements météorologiques qui conditionnent le vent et l’ensoleillement. Le monde de l’énergie sera devenu stochastique. Il faudra se débrouiller avec des statistiques annuelles régionales et accepter les coupures de courant lorsque la réalité s’écartera de la statistique, même si les écarts quadratiques restent dans les valeurs prévues par la théorie des probabilités.

Pour atténuer le chaos qui résulterait de cette incertitude, il sera nécessaire de procéder à des aménagements profonds de notre approche énergétique.

Sept grands types de mesures seront nécessaires:

1- Pour atténuer les effets de l’intermittence des énergies nouvelles, il faudra installer des moyens de stockage de l’énergie. Nous en avons déjà parlé dans l’article du 13 Novembre. Les capacités de stockage nécessaires seront assez considérables, de l’ordre de 30% de la consommation moyenne. Le pompage/turbinage semble être la solution la mieux adaptée, mais ce système à lui seul ne suffira pas.

2- Pour améliorer les prévisions de production il faudra mettre en place un réseau intégrant les caractéristiques particulières de chaque site de production éolien ou solaire, avec leur réponse à toutes les sortes de situations météo. Ces données seront croisées avec les prévisions météo pour obtenir des prévisions de production heure par heure permettant une gestion optimisée des moyens de stockage.

3- Aux fournisseurs professionnels d’électricité il faudra ajouter la multitude de fournisseurs particuliers dont les installations devront être intégrées au réseau national. Un système de contrôle et de régulation devra être implanté pour éviter une situation de production fluctuante incompatible avec le service public.

4- Jusqu’à présent les fournisseurs d’énergie avaient pour tâche d’adapter la production aux besoins des consommateurs. Désormais il faudra faire l’inverse, les consommateurs devront adapter leurs besoins à la puissance disponible, il faudra mettre en place le « Smart grid » dans l’optique d’utiliser le délestage contractuel. Le compteur Linky est la première étape de ce réseau adaptatif.

5- La production ne sera plus localisée comme aujourd’hui, mais géographiquement fluctuante au gré des conditions météo. Il sera donc nécessaire de modifier le réseau de transport d’électricité pour l’adapter à cette nouvelle situation.

6- Les échanges transfrontaliers d’électricité seront très fortement augmentés, à la mesure des fluctuations météo qui entraîneront des déplacements importants des centres de production au gré des vents et de l’ensoleillement, et de la disponibilité de stocks d’énergie. Ceci nécessitera une adaptation des réseaux d’échanges européens.

7- Ces échanges massifs d’électricité se dérouleront sur un rythme horaire, avec des prix disparates à la mesure de la diversité des sources. Il sera nécessaire de créer un organisme européen chargé des négociations pour éviter la spéculation. Il faudra concilier la nécessité de garantir des fournitures d’énergie avec la nécessité de préserver les intérêts des différents fournisseurs.

 

Le basculement vers les énergies nouvelles n’est donc pas aussi simple qu’on pourrait le penser au premier abord. L’implantation des éoliennes et des panneaux solaires n’est que la partie visible de l’iceberg, qui ne pose que quelques problèmes d’emprise foncière ou environnementaux. L’essentiel des problèmes est ailleurs, dans la refonte des réseaux de transport et de distribution de l’électricité, dans le développement et l’implantation des installations de stockage, dans la compréhension et la maîtrise de l’aspect stochastique de la gestion des énergies nouvelles, dans la mise en place d’un grand pôle Européen de l’énergie, et dans l’évolution des mentalités des consommateurs qui devront s’adapter à une situation nouvelle.

Pour cela il faudra du temps, qui sera mis à profit pour réaliser les grands travaux nécessaires pour freiner la croissance de notre consommation énergétique, et préparer l’après pétrole et pourquoi pas, l’après Nucléaire.

Rendez-vous en 2030...

 

 

 

 

 

Repost 0
14 novembre 2012 3 14 /11 /novembre /2012 15:23

Les cuves de réacteurs nucléaires fissurées, une nouvelle histoire belge ?

Pas seulement…

14 Novembre 2012

La cuve d’une réacteur nucléaire en est le cœur. C’est l’athanor de nos modernes alchimistes, dans lequel s’effectue la transmutation de l’Uranium non pas en or, hélas, mais en énergie pour notre plus grand bénéfice ( ou notre plus grand malheur selon le point de vue adopté).

En son temps, Nicolas Flamel opérait sa « cuisine » dans un athanor de dimensions modestes, tout au plus une grosse marmite, ampoule de verre épais contenant les réactifs et chauffée au charbon de bois. Il convenait alors de surveiller attentivement la température du four et l’évolution de la préparation sous peine de voir l’ensemble athanor et opérateur pulvérisés dans une grosse explosion.

Plusieurs confrères de notre célèbre Nicolas y ont ainsi laissé la vie, mais sans trop de dégâts collatéraux, eu égard à la modestie des installations.

Pour un réacteur nucléaire, c’est exactement la même chose.

Sauf que dans ce cas l’athanor est énorme. C’est un chaudron en acier de plus de quatre mètres de diamètre et treize mètres de hauteur, avec des parois de vingt centimètres d’épaisseur pour un poids à vide de trois cent tonnes !

A l’intérieur, plusieurs dizaines de tonnes de matériau radioactif au sein duquel se déroulent des réactions de fission qui dégagent une chaleur colossale. Cette chaleur est évacuée par un circuit d’eau et transformée en vapeur pour faire tourner une turbine couplée à un alternateur.

Présenté ainsi cela paraît très simple, mais la réalité est évidemment plus complexe.

Tout l’art de l’opération consiste à maintenir l’intensité de la réaction de fission à un niveau suffisant pour produire de l’énergie, sans toutefois lui permettre de dépasser le point de divergence qui produirait un emballement du cœur. Il faut maintenir un équilibre subtil entre les paramètres qui accroissent la réaction, et ceux qui la freinent, et ceci avec une précision diabolique et une grande réactivité.

Si le contrôle de la réaction est perdu, il y a emballement et fusion du cœur, ce qui induit un accident nucléaire pouvant aller du cas de Three Mile Islands jusqu’à celui de Tchernobyl ou Fukushima.

Tout dépend de la résistance de la cuve et de la réactivité des dispositifs de secours.

Une cuve très solide peut résister à une fusion du cœur et donner le temps d’intervenir pour limiter les dégâts ( ce temps se mesure en minutes !).

Une cuve fragilisée a toutes « chances » de se briser, et de reproduire le scénario Tchernobyl.

C’est pourquoi il est extrêmement important de s’assurer de la parfaite solidité de la cuve.

Une cuve peut présenter des défauts d’origine.

Elle est constituée de plusieurs anneaux soudés entre eux, dans un acier dont les caractéristiques sont choisies pour l’usage futur, solidité et élasticité, pour résister aux contraintes thermiques et à la fluence ( flux de neutrons).

Elle est munie d’un couvercle démontable pour permettre le remplacement du combustible usagé. Ce couvercle comprend des orifices pour permettre le passage des barres de contrôle de la réaction et de diverses sondes.

Sur les côtés il existe des orifices qui recevront les tuyaux pour la circulation de l’eau de refroidissement, six gros tuyaux alimentant les trois générateurs de vapeur d’un réacteur REP.

A la fabrication de la cuve, et selon la présence d’impuretés dans le métal, il se produit des petits défauts localisés qui peuvent évoluer par la suite. La détection de ces défaut et leur caractérisation est évidemment très importante.

Le contrôle de la réaction de fission s’effectue à l’aide de « ralentisseurs » de neutrons constitués d’une part des barres de contrôle plus ou moins enfoncées dans la cuve, et d’autre part d’acide borique dilué dans l’eau de refroidissement. Tout ceci est réglé automatiquement en fonction notamment de l’usure du combustible.

Mais l’acide borique attaque l’acier de la cuve.

Il est donc nécessaire de protéger celle-ci par un revêtement en acier inoxydable d’une épaisseur de un cm environ, soudée à la paroi interne de la cuve.

Cette opération s’effectue à chaud évidemment, et elle est cause d’apparition de « fissures sous revêtement », difficiles à détecter.

Une cuve de réacteur, même de bon aloi, présente donc d’origine un taux de micro fissures non nul, qu’il est impossible d’éliminer totalement.

Il est donc nécessaire de contrôler l’état des cuves périodiquement pour surveiller l’évolution des ces fissures.

Au cours de la vie du réacteur, l’acier des cuves est soumis au flux de neutrons. Ce flux provoque une évolution des caractéristiques de l’acier qui devient plus « cassant » à froid ( conditions de refroidissement d’urgence). Cette évolution touche également les micro fissures.

Depuis les années soixante ( époque de fabrication des plus anciennes cuves) les méthodes de détection et d’analyse des aciers ont beaucoup évolué. Il est aujourd’hui possible de détecter des défauts qui passaient inaperçus autrefois.

Les fissures « découvertes » sur les réacteurs fabriqués par le Groupe RDM affectent probablement beaucoup d’autres cuves de par le monde, elles existent depuis des décennies et seuls les instruments modernes ont pu les révéler.

Le problème de vieillissement de l’acier des cuves n’est donc pas nouveau.

Par contre les nouveaux éléments recueillis avec les appareils de mesure modernes sont susceptibles de fournir des indications alarmantes concernant une fragilisation prématurée des cuves, qui n’aurait pas été découverte avec les méthodes d’inspection classiques.

Reste ensuite à décider si tel taux de micro fissures doit conduire à réformer la cuve, c’est-à-dire arrêter le réacteur définitivement.

Dans l’Industrie, pour déterminer les limites de résistance d’une structure, et valider les programmes de simulation, on procède à des crash-tests en sacrifiant quelques pièces, ce sont des essais destructifs.

De tels essais ne peuvent être réalisés en vraie grandeur sur la cuve d’un réacteur. Aussi, pour évaluer le degré de dégradation des qualités de l’acier de cuve, on a placé à l’intérieur des éprouvettes disposées aux endroits soumis à un flux élevé de neutrons. Lors des inspections décennales on prélèvent quelques-unes de ces éprouvettes sur lesquelles on effectue des mesures destructives.

D’autre part, lors des mêmes visites, on procède à une inspection détaillée de l’ensemble de la cuve par les méthodes radiographiques les plus perfectionnées du moment, afin de détecter et mesurer les micro fissures et autres défauts.

Cette inspection, et les essais d’éprouvettes sont utilisées par des programmes de simulation pour conclure sur la capacité de la cuve à poursuivre son travail pour encore dix ans, et de résister à des conditions extrêmes accidentelles définies préalablement.

Il y a d’une part des programmes de simulation qui indiquent la probabilité que tel accident se produise, et d’autre part d’autres programmes qui indiquent la probabilité que telle cuve résiste à tel accident.

Mais c’est l’Homme qui décide en fin de compte si telle probabilité est acceptable ou non…

Et comme chacun sait, les décisions humaines sont fortement influencées par toutes sortes de considérations, y compris de rentabilité financière…

Nous entendrons donc encore parler de micro fissures, et pas seulement en Belgique.

Repost 0
13 novembre 2012 2 13 /11 /novembre /2012 11:47

 

13 Novembre 2012

Les énergies fossiles étant condamnées à plus ou moins long terme et pour des raisons diverses ( coût, pollution, importations, épuisement des réserves), nous voici donc mis en demeure de réviser notre politique énergétique.

La perspective de raréfaction du trio charbon-pétrole-gaz naturel ne nous laisse que deux solutions: Le Nucléaire et/ou le couple Solaire/Eolien (l’éolien étant un sous-produit du solaire).

En attendant de connaître le sort que notre Société réservera au Nucléaire, il nous reste les deux autres, qui sont donc appelés dans l’avenir à fournir au moins 50% des besoins, voire beaucoup plus si le Nucléaire est écarté.

On sait que le Solaire et l’Eolien sont par nature des énergies intermittentes, soumises à l’ensoleillement et au vent.

Or notre société n’est pas actuellement en mesure de s’accommoder de cette intermittence.

On peut certes sur le papier imaginer un monde dans lequel l’activité serait modulée au rythme des vents et/ou des caprices de la météo et des heures de la marée. Quelques capacités de stockage d’énergie disposées ici ou là seraient censées suffire à pourvoir aux besoins impossibles à différer. Mais un tel monde est peu crédible et aucun prévisionniste ne l’envisage sérieusement.

Le renoncement aux énergies fossiles au profit des renouvelables propres suppose donc des capacités de stockage considérables capables d’assurer un minimum de continuité du service.

Aujourd’hui il existe en France une douzaine de stations de pompage/turbinage d’une puissance totale de 5 GW. Ces installations procurent une capacité de stockage mobilisable en quelques minutes.

Cette capacité devra être multipliée au moins par dix pour pouvoir soutenir efficacement une production intermittente solaire et éolienne.

Le développement actuel des énergies nouvelles est rendu possible par le maintien de capacités de productions classiques facilement mobilisables, qui sont constituées par des centrales thermiques à flamme fonctionnant au fuel ou au gaz, et permettant de se passer de moyens considérables de stockage d’énergie propre.

Mais ce mode de fonctionnement n’est viable que si la part des renouvelables reste faible dans le mix énergétique. On cite fréquemment la valeur de 30% comme limite acceptable au-delà de laquelle le recours à des solutions de stockage « propre » devient impératif.

De nombreuses solutions de stockage d’énergie ont été étudiées et certaines ont été développées industriellement:

- Pompage/Turbinage.

- Stockage chimique grâce à des matériaux à changement de phase.

- Stockage dans des volants à inertie.

- Stockage chimique dans des batteries.

- Stockage dans des supercondensateurs.

- Production d’Hydrogène et pile à combustible.

- Stockage sous forme de chaleur.

Chacune de ces solutions trouve son emploi dans des applications spécifiques.

Le pompage/Turbinage est particulièrement indiqué pour le stockage de très grosses quantités d’énergie. C’est un procédé qui a fait ses preuves et qui est déjà utilisé couramment, à petite échelle il est vrai.

Certains barrages hydroélectriques sont déjà utilisés à cette fin, et le procédé pourra être développé dans les régions montagneuses disposant à la fois du relief suffisant et de la ressource en eau.

Les STEP ( Station de Transfert d’Energie par Pompage) pourront également être installées en bord de mer en exploitant le relief littoral qui peut offrir des dénivelées de plusieurs dizaines de mètres, le point bas étant évidemment le niveau marin. Cette disposition conviendra pour stocker l’énergie des éoliennes off shore situées à proximité.

Les stations de pompage/turbinage littorales utiliseront des hauteurs de chute faibles ( quelques dizaines de mètres) et donc nécessiteront de très importants volumes d’eau qui ne passeront pas inaperçus dans le paysage.

On peut s’attendre à une très énergique opposition de la part des populations et des associations de protection de l’environnement.

Le basculement vers les énergies renouvelables ne sera possible que s’il est soutenu par un solide programme de gestion de l’intermittence.

Faute de quoi l’on risque de devoir s’accommoder encore longtemps des énergies fossiles et du nucléaire.

Repost 0
19 octobre 2012 5 19 /10 /octobre /2012 16:31

 

 

17 Octobre 2012

Il est question, dans les couloirs du château, d’instaurer un système de Bonus-Malus sur la consommation domestique d’énergie.

Une proposition de Loi a même été votée à la hussarde par les députés, mais son contenu et les circonstances du vote ont entraîné son retrait quasi immédiat pour un examen approfondi ultérieur, avant son éventuelle prise en compte par la deuxième Chambre.

Nous la reverrons prochainement sous une forme édulcorée.

L’intention de cette Loi, louable au demeurant, est d’accélérer la mutation vers l’efficacité énergétique dans le secteur domestique, donc essentiellement le chauffage et l’ECS ( Eau Chaude Sanitaire) réputés grands responsables des gaspillages.

La logique qui a conduit à légiférer sur cette affaire est des plus sommaires:

Puisque l’usager tarde à entreprendre de lui-même les travaux d’isolation de son logement, le Gouvernement va l’y contraindre par l’application de pénalités financières, étant entendu (du moins dans l’esprit du législateur) que seule la mauvaise volonté des usagers est à l’origine de ce retard.

Que le retard puisse être lié à des difficultés financières des ménages, déjà lourdement touchés par la crise, n’a pas effleuré un seul instant les décideurs du château.

Cette méthode ne laisse pas de surprendre car son résultat le plus évident sera de pénaliser d’abord les usagers aux revenus trop faibles pour leur permettre d’investir dans des travaux de rénovation, et les locataires, prisonniers des choix réalisés par les propriétaires.

Pour ces raisons, et pour quelques autres, mises en avant par des élus plus attentifs aux problèmes sociaux, ce projet de Loi a été mis de côté et ses géniteurs ont été priés de revoir leur copie.

Nous en reparlerons le moment venu.

Le contrôle des consommations suppose l’existence d’un moyen de comptage de l’énergie, donc seuls l’électricité et le gaz des réseaux publics sont concernés.

Le fuel domestique, le GPL, le bois, le charbon, ne sont pas touchés puisque leur consommation individuelle ne fait l’objet d’aucune comptabilité officielle ( pour le moment…).

Sans entrer dans les détails, rappelons qu’à chaque logement sera associée une quantité annuelle d’énergie (Volume de base, en MWh) fixée à partir de critères comme la surface habitable, le nombre de personnes dans le foyer fiscal, leurs revenus, le type d’énergie utilisée, la zone géographique, l’année de construction, le classement énergétique, etc…

Il n’y manque même pas l’âge du capitaine, dont la situation particulière (grand âge, handicap, maladie, etc…) pourra lui valoir un traitement de faveur.

Un Bonus Malus sera appliqué en fonction de la consommation effective par rapport à ce volume de base.

On imagine sans peine la lourdeur et la complication des dossiers à gérer et le poids du contentieux qui ne manquera pas d’apparaître.

Certains n’hésitent pas à parler de tringle à rideaux…D’autres redoutent la création d’une police de l’énergie.

Par ailleurs le fait que seuls l’électricité et le gaz soient touchés est susceptible de provoquer une ruée vers les énergies épargnées, éventuellement au détriment de la sécurité ou de l’environnement.

Il est une catégorie d’usagers qui commence à se poser des problèmes, ce sont les futurs utilisateurs de véhicules électriques.

L’obligation de recharger la batterie tous les soirs risque de les placer en demeure d’avoir à choisir entre la voiture ou le chauffage du logement.

Par exemple, selon les normes actuelles du bâtiment, un logement correctement isolé (Classe C) consomme annuellement entre 90 et 150 KWh/m2. Retenons une valeur de 100 KWh/m2.

Un logement de 80 m2 de classe C consommera donc environ 8 MWh par an.

Si les occupants de ce logement possèdent un véhicule électrique utilisé journellement, la recharge de la batterie pourra représenter une consommation supplémentaire de l’ordre de 7 MWh par an, soit un quasi doublement de la consommation énergétique par rapport au « volume de base » attribué.

Cette consommation supplémentaire devra être « hors Malus » sous peine de pénaliser l’usager à cause de sa conduite écologique qui l’amène à choisir un véhicule électrique plutôt qu’un engin polluant à moteur thermique.

Or le nouveau compteur électrique Linky ne permet pas de distinguer la consommation des différents appareils, il mesure seulement la consommation globale.

Deux solutions sont alors possibles:

- Soit accorder un abattement de consommation sur justificatif, par exemple sur présentation de la carte grise du véhicule électrique.

Le montant de cet abattement devra alors être fixé en fonction de la capacité de la batterie et de la fréquence estimée des recharges.

( en effet, la consommation électrique annuelle d’un hybride PHEV n’a rien à voir avec celle d’un EV équipé en 30 KW. ).

On imagine sans peine la complexité d’un tel montage.

Faute d’un tel arrangement, l’usager pourra être amené à payer très cher la recharge de sa batterie !

- L’autre solution consiste à installer un deuxième compteur dédié à la recharge de la batterie et faisant l’objet d’un compte séparé avec éventuellement une tarification spéciale. Encore faudra-t-il que l’usage exclusif en recharge soit garanti par un dispositif efficace, ce qui sera le cas des installations de chargement raccordées par une liaison interactive, que l’usager devra faire installer à ses frais.

La nouvelle Loi devra préciser ce genre de « détails » sous peine de porter atteinte au développement du véhicule électrique.

Le futur Bonus-Malus énergétique est en fait une nouvelle taxe qui frappera tout logement et viendra s’ajouter à la taxe foncière et à la taxe d’habitation.

Comme elles il comportera ses injustices, ses niches, ses effets pervers, ses exemptions, ses abattements, ses abus, et ses fraudes. Comme elles il induira des lourdeurs administratives, du contentieux, et beaucoup d’incompréhension.

Mais il n’est pas impossible que, eu égard à certains aspects discriminatoires du texte, le projet de Loi soit l’objet d’une Question Préliminaire de Constitutionnalité.

Affaire à suivre…

 

 

 

Repost 0
17 octobre 2012 3 17 /10 /octobre /2012 18:48

 

17 Octobre 2012

La norme Euro 5, qui s’applique actuellement, impose des limites d’émission de particules aux seuls moteurs Diesel.

Cette limite, de 5 mg/km, impose l’utilisation d’un filtre à particules (FAP).

Les FAP conçus pour satisfaire cette norme retiennent les particules les plus grosses ( les suies) mais laissent passer les particules ultrafines (nanoparticules), dont la masse est très faible mais le nombre très élevé.

Or, ces particules sont très nocives eu égard à leurs faibles dimensions (10 à 500 nanomètres) qui leur permet d’atteindre l’intérieur des organes.

Les moteurs « Euro 5 » ne fument plus mais continuent à émettre des polluants toxiques.

Cette situation n’est pas acceptable. Il est nécessaire de connaître le nombre de nanoparticules émises et d’en limiter le nombre.

Les constructeurs de moteurs du monde entier travaillent depuis plusieurs années sur le problème du contrôle d’émission des nanoparticules. Sont concernés d’abord les moteurs Diesel, mais aussi les moteurs à essence récents à injection directe.

En Europe ces travaux se sont déroulés dans le cadre du «  Particle Measurement Program » regroupant les professionnels européens du secteur, avec la participation des Etats-Unis, du Japon et de la Corée.

9 laboratoires ont travaillé sur quinze modèles de véhicules.

Notons au passage que le véhicule de référence a été la Peugeot 407 Hdi 2L, choisie en raison de l’avance de PSA dans le domaine du FAP, au démarrage du programme.

Ces travaux ont porté sur la recherche de méthodes fiables et reproductibles de caractérisation des nanoparticules émises, sur la mesure des émissions des moteurs de la technologie actuelle, sur l’efficacité des FAP, et sur la recommandation pour une limite acceptable du nombre des nanoparticules émises.

Le rapport final donne une valeur indicative de cette limite:

6 x 10 EXP(11) par kilomètre. ( 600 Milliards)

Cette valeur pourrait être retenue pour la norme Euro 6 qui doit entrer en vigueur en 2014 pour les nouveaux modèles.

Le rapport souligne également la difficulté d’obtenir des mesures fiables, ainsi que la variabilité des résultats en fonction des conditions d’essai et notamment de l’état du filtre à particules relativement à sa régénération.

Il faut noter que la valeur limite proposée correspond non pas à un quelconque seuil de toxicité, mais à ce que peut réaliser la technologie d’aujourd’hui ( ce que savent faire les constructeurs).

On peut légitimement se demander si des taux d’émission de 600 Milliards de nanoparticules par kilomètre et par véhicule ne poseraient pas quelques problèmes résiduels de santé publique !

Un véhicule diesel moyen rejette de l’ordre de 1 m3/km. S’il respecte la future norme Euro 6 il rejettera donc des gaz contenant 600 Milliards de nanoparticules par mètre cube, soit 600 000 par cm3.

C’est 40 fois plus que la concentration moyenne de nanoparticules mesurée par AIRPARIF dans l’air ambiant à la station de Gennevilliers.

Qu’en pense l’OMS ?

Repost 0