Overblog
Suivre ce blog Administration + Créer mon blog
5 décembre 2012 3 05 /12 /décembre /2012 15:35

 

5 Décembre 2012

La tragédie de Florange se déroule sous nos yeux, les épisodes sont dans tous les médias. Au-delà du drame humain, qui peut concerner chacun de nous demain, se profile en raccourci le schéma de ce qui pourrait être dans l’avenir le modèle de l’affrontement du pouvoir politique et des acteurs économiques dans une économie libérale.

ARCELORMITTAL est un groupe international ayant son siège au Luxembourg, employant 260 000 personnes dans 60 pays.

Le Groupe produit plus de 100 millions de tonnes d’acier par an, représentant 10 % de la production mondiale.

Le site de Florange, qui emploie environ 630 salariés, est une infime partie de ce gigantesque consortium. Sa capacité de production est d’environ 2,5 millions de tonnes par an, dans deux hauts fourneaux.

Pour des raisons que nous ne commenterons pas ici le Groupe a décidé l’arrêt de ces hauts fourneaux, menaçant de fait les emplois du site.

Au cours des négociations entre le Gouvernement et la Direction du Groupe pour le sauvetage de Florange, un certain projet ULCOS a été cité comme solution possible permettant de pérenniser une activité sur place.

Le projet ULCOS, comme son nom l’indique, est un projet. Il s’inscrit dans la longue liste des travaux qui, de par le monde, s’efforcent de démontrer la faisabilité du concept de capture et séquestration du Carbone ( CSC), et plus généralement de réduire les émissions de gaz à effet de serre ( GES).

Le concept de CSC est déjà ancien, il est abondamment évoqué dans les différents rapports du GIEC, comme une méthode permettant de continuer à utiliser les combustibles fossiles tout en atténuant fortement les émissions de GES.

Dans ce domaine, passer de la théorie à la pratique n’est pas chose aisée. de nombreux problèmes sont à résoudre avant de pouvoir affirmer la faisabilité.

Ces problèmes sont spécifiques des trois étapes du procédé:

- D’abord la capture du CO2.

Plusieurs procédés de captage sont envisageables:

Postcombustion.

Oxycombustion.

Précombustion.

Qu’il est nécessaire d’expérimenter afin d’en évaluer la pertinence pour les différentes applications ( Sidérurgie, Pétrochimie, Cimenterie, centrales thermiques), les difficultés de réalisation, l’impact sur les coûts, et l’efficacité.

- Ensuite le conditionnement et le transport du CO2.

Transport sous quelles formes ( Gazeux sous pression à température moyenne, liquide à basse température), quels moyens d’acheminement vers les sites de stockage, quels réseaux, etc…

- Enfin le stockage lui-même.

Probablement l’aspect qui génère le plus de problèmes.

Caractérisation des sites de stockage, méthodes d’enfouissement, repérage des sites, surveillance des sites, acceptabilité par les populations, etc…

Aucun de ces trois types de problèmes n’a encore reçu de solution satisfaisante et définitive.

Les différents projets en cours ont pour but l’avancement des connaissances dans l’un ou l’autre domaine.

Selon Schlumberger, il existait en 2011 pas moins de 234 projets CSC de par le monde. ULCOS est l’un d’eux.

ULCOS ( Ultra Low CO2 emission Stelmaking) est un projet soutenu par la Communauté Européenne, auquel participent 15 pays européens et 48 entreprises ou organisations, dont ARCELORMITTAL, mais aussi THYSSEN KRUPP.

La phase 2011-2015 prévoit la réalisation de prototypes d’implantation d’une installation de CSC.

Florange a été cité comme possible support de cette réalisation pilote, portant sur l’un des deux hauts fourneaux pour la capture du CO2, et les salines de Lorraine pour le stockage.

L’affaire coûterait environ 600 Millions d’euros, avec la répartition suivante ( en cas d’élection du site évidemment):

-Etat français et collectivités territoriales: 180 M

- Commission Européenne: 250 M

- ARCELORMITTAL: 170 M

Ce qui permettrait de maintenir des emplois, mais pas forcément ceux qui existent déjà sur place.

D’autre part, il s’agit d’un projet et non d’une réalisation industrielle, or aujourd’hui Florange n’a pas cette vocation, ni le personnel nécessaire.

Le planning du projet ( échéance 2015) n’est pas compatible avec le maintien d’emplois de production à court terme.

D’autres problèmes doivent être considérés:

Le stockage par enfouissement dans un site Lorrain soulève de nombreuses critiques:

- Risques à long terme de voir le CO2 s’échapper par des fissures et de repartir dans l’atmosphère .

- Risque de perte de contrôle de la diffusion du CO2 dans le sous-sol, et de fragilisation des terrains.

- Connaissances insuffisantes des capacités réelles de stockage.

- Risques de fuites majeures avec problèmes de santé publique.

Etc…

Par ailleurs on peut se demander quel est l’intérêt d’une telle installation dans un site dont la fermeture était déjà programmée depuis plusieurs années, alors que les sites productifs récents sont en bord de mer ( Fos-sur-Mer et Dunkerque).

Le projet UCLOS est en attente d’élection par la CE. Il est en concurrence avec trois autres projets:

BELCHATOV, en Pologne, pour équiper une centrale au lignite .

GREEN HYDROGEN, aux Pays-bas, capture et liquéfaction du CO2 résultant de la fabrication d’Hydrogène.

PORTO TOLLE, en Italie, équipement d’une centrale électrique.

Le choix de la CE est attendu pour le 20 Décembre 2012.

Ces projets ( et les 231 autres de par le monde) , s’inscrivent dans une stratégie globale de réduction des émissions de GES.

Le moteur de cette stratégie est alimenté en grande partie par les perspectives financières ouvertes par le marché des quotas d’émission.

La deuxième phase du protocole de KYOTO, qui se termine en Décembre 2012, a vu la mise en place des quotas d’émission, avec plus ou moins de succès.

La dix-huitième réunion, qui se déroule actuellement au QATAR ( à Doha) est censée discuter entre autres de la suite à donner à cette histoire de quotas.

De ses décisions vont dépendre l’empressement avec lequel les industriels vont investir dans les programmes CSC.

Après tout, peut-être l’arlésienne de Florange reviendra-t-elle sur le devant de la scène…

 

 

 

 

 

Partager cet article
Repost0
19 octobre 2012 5 19 /10 /octobre /2012 15:31

 

 

17 Octobre 2012

Il est question, dans les couloirs du château, d’instaurer un système de Bonus-Malus sur la consommation domestique d’énergie.

Une proposition de Loi a même été votée à la hussarde par les députés, mais son contenu et les circonstances du vote ont entraîné son retrait quasi immédiat pour un examen approfondi ultérieur, avant son éventuelle prise en compte par la deuxième Chambre.

Nous la reverrons prochainement sous une forme édulcorée.

L’intention de cette Loi, louable au demeurant, est d’accélérer la mutation vers l’efficacité énergétique dans le secteur domestique, donc essentiellement le chauffage et l’ECS ( Eau Chaude Sanitaire) réputés grands responsables des gaspillages.

La logique qui a conduit à légiférer sur cette affaire est des plus sommaires:

Puisque l’usager tarde à entreprendre de lui-même les travaux d’isolation de son logement, le Gouvernement va l’y contraindre par l’application de pénalités financières, étant entendu (du moins dans l’esprit du législateur) que seule la mauvaise volonté des usagers est à l’origine de ce retard.

Que le retard puisse être lié à des difficultés financières des ménages, déjà lourdement touchés par la crise, n’a pas effleuré un seul instant les décideurs du château.

Cette méthode ne laisse pas de surprendre car son résultat le plus évident sera de pénaliser d’abord les usagers aux revenus trop faibles pour leur permettre d’investir dans des travaux de rénovation, et les locataires, prisonniers des choix réalisés par les propriétaires.

Pour ces raisons, et pour quelques autres, mises en avant par des élus plus attentifs aux problèmes sociaux, ce projet de Loi a été mis de côté et ses géniteurs ont été priés de revoir leur copie.

Nous en reparlerons le moment venu.

Le contrôle des consommations suppose l’existence d’un moyen de comptage de l’énergie, donc seuls l’électricité et le gaz des réseaux publics sont concernés.

Le fuel domestique, le GPL, le bois, le charbon, ne sont pas touchés puisque leur consommation individuelle ne fait l’objet d’aucune comptabilité officielle ( pour le moment…).

Sans entrer dans les détails, rappelons qu’à chaque logement sera associée une quantité annuelle d’énergie (Volume de base, en MWh) fixée à partir de critères comme la surface habitable, le nombre de personnes dans le foyer fiscal, leurs revenus, le type d’énergie utilisée, la zone géographique, l’année de construction, le classement énergétique, etc…

Il n’y manque même pas l’âge du capitaine, dont la situation particulière (grand âge, handicap, maladie, etc…) pourra lui valoir un traitement de faveur.

Un Bonus Malus sera appliqué en fonction de la consommation effective par rapport à ce volume de base.

On imagine sans peine la lourdeur et la complication des dossiers à gérer et le poids du contentieux qui ne manquera pas d’apparaître.

Certains n’hésitent pas à parler de tringle à rideaux…D’autres redoutent la création d’une police de l’énergie.

Par ailleurs le fait que seuls l’électricité et le gaz soient touchés est susceptible de provoquer une ruée vers les énergies épargnées, éventuellement au détriment de la sécurité ou de l’environnement.

Il est une catégorie d’usagers qui commence à se poser des problèmes, ce sont les futurs utilisateurs de véhicules électriques.

L’obligation de recharger la batterie tous les soirs risque de les placer en demeure d’avoir à choisir entre la voiture ou le chauffage du logement.

Par exemple, selon les normes actuelles du bâtiment, un logement correctement isolé (Classe C) consomme annuellement entre 90 et 150 KWh/m2. Retenons une valeur de 100 KWh/m2.

Un logement de 80 m2 de classe C consommera donc environ 8 MWh par an.

Si les occupants de ce logement possèdent un véhicule électrique utilisé journellement, la recharge de la batterie pourra représenter une consommation supplémentaire de l’ordre de 7 MWh par an, soit un quasi doublement de la consommation énergétique par rapport au « volume de base » attribué.

Cette consommation supplémentaire devra être « hors Malus » sous peine de pénaliser l’usager à cause de sa conduite écologique qui l’amène à choisir un véhicule électrique plutôt qu’un engin polluant à moteur thermique.

Or le nouveau compteur électrique Linky ne permet pas de distinguer la consommation des différents appareils, il mesure seulement la consommation globale.

Deux solutions sont alors possibles:

- Soit accorder un abattement de consommation sur justificatif, par exemple sur présentation de la carte grise du véhicule électrique.

Le montant de cet abattement devra alors être fixé en fonction de la capacité de la batterie et de la fréquence estimée des recharges.

( en effet, la consommation électrique annuelle d’un hybride PHEV n’a rien à voir avec celle d’un EV équipé en 30 KW. ).

On imagine sans peine la complexité d’un tel montage.

Faute d’un tel arrangement, l’usager pourra être amené à payer très cher la recharge de sa batterie !

- L’autre solution consiste à installer un deuxième compteur dédié à la recharge de la batterie et faisant l’objet d’un compte séparé avec éventuellement une tarification spéciale. Encore faudra-t-il que l’usage exclusif en recharge soit garanti par un dispositif efficace, ce qui sera le cas des installations de chargement raccordées par une liaison interactive, que l’usager devra faire installer à ses frais.

La nouvelle Loi devra préciser ce genre de « détails » sous peine de porter atteinte au développement du véhicule électrique.

Le futur Bonus-Malus énergétique est en fait une nouvelle taxe qui frappera tout logement et viendra s’ajouter à la taxe foncière et à la taxe d’habitation.

Comme elles il comportera ses injustices, ses niches, ses effets pervers, ses exemptions, ses abattements, ses abus, et ses fraudes. Comme elles il induira des lourdeurs administratives, du contentieux, et beaucoup d’incompréhension.

Mais il n’est pas impossible que, eu égard à certains aspects discriminatoires du texte, le projet de Loi soit l’objet d’une Question Préliminaire de Constitutionnalité.

Affaire à suivre…

 

 

 

Partager cet article
Repost0
12 octobre 2012 5 12 /10 /octobre /2012 09:50

 

12 Octobre 2012

Les normes Euro établissant des limites de plus en plus sévères aux émissions polluantes des véhicules, il devient de plus en plus difficile d’effectuer des mesures sur le terrain ou même en atelier pour les contrôles techniques règlementaires.

Par exemple la norme actuelle euro 5 fixe à 5 mg/km la limite d’émission de particules pour les véhicules à moteur Diesel.

Ni les contrôles de Gendarmerie, ni les ateliers de contrôle technique règlementaire ne sont équipés pour effectuer cette mesure, qui ne peut être menée à bien qu’en laboratoire et n’est pratiquée qu’à l’occasion des processus de réception d’un nouveau modèle ( mesure compliquée et longue).

Pour la vérification du respect des normes lors d’un contrôle ( CT ou Gendarmerie) il a donc été nécessaire de définir un test qui soit à la fois à peu près représentatif des exigences de la norme, et réalisable sur le terrain et en atelier de CT à poste fixe sans mobiliser des moyens complexes.

Pour les moteurs Diesel le test consiste à mesurer l’opacité des gaz d’échappement lors d’une accélération effectuée véhicule arrêté et dans des conditions bien définies.

Pour cela le technicien (ou le gendarme !) branche à la sortie du tuyau d’échappement un opacimètre homologué, effectue le test selon la procédure définie, et lit le résultat. Le tout s’effectue en quelques minutes.

Le résultat est donné par la valeur du coefficient k exprimé en m-1.

Pour les moteurs atmosphériques ( sans turbo), k doit être < 2,5 m-1.

Pour les turbo, k doit être < 3 m-1.

(Pour les curieux, ce coefficient k est issu de la formule:

k = - 10 Logn ( I/Io)

I/Io est l’affaiblissement du faisceau lumineux qui traverse la chambre d’opacité remplie de gaz d’échappement, et Logn est le logarithme népérien. C’est une application de la Loi de Beer-Lambert-Sorensen.

La mesure est rapportée à un trajet optique normalisé de 1 m.

L’échelle va de 0 à 10.

0 correspond à la transparence totale.

10 correspond à l’opacité totale.

L’opacimère donne le résultat en % d’affaiblissement ou en valeur de k ).

Pour les turbos on admet une valeur de k supérieure à celle des atmosphériques pour tenir compte de l’inertie du turbo qui peine à suivre les coups d’accélérateurs !

Cette mesure ne renseigne absolument pas sur la concentration massique des particules en régime établi fixée par la norme ( < 5 mg/km). Elle est simplement une vérification de l’absence de panache de fumée à l’accélération.

Mais on mesure ce qu’on peut….Et puis les populations sont davantage sensibles aux bouffées de fumée noire émises par certains diesels en accélération.

Personne n’est sensible aux particules puisqu’elles sont invisibles ! C’est le problème de l’OMS.

( Toujours pour les curieux, signalons qu’il n’y a que de très lointains rapports entre l’opacité des fumées à l’accélération et la concentration massique des particules en régime établi.

De nombreux travaux portent encore sur la recherche d’une corrélation entre l’opacité des gaz d’échappement en régime établi et la concentration massique des particules. Les lois théoriques qui régissent les interactions entre les particules et la lumière sont très complexes, les effets dépendent de la longueur d’onde du faisceau, de la taille des particules, de leur composition, de leur forme, et de la distribution statistique des tailles.

On peut trouver un semblant de corrélation, mais qui ne sera valable que pour un type de moteur ).

En clair, le contrôle technique ne vérifie pas la conformité à la norme Euro5 ( ou bientôt Euro 6), cela est l’affaire du procès verbal de réception du modèle présenté par le constructeur au service des mines.

Lorsque l’usager présente son véhicule diesel au CT , il peut être refusé non pas à cause du non respect des 5 mg/km, que l’atelier est bien incapable de mesurer, mais simplement parce qu’il fume un peu trop en accélération.

Ceci est généralement dû à un encrassement du filtre à particules, à un problème de turbo, à un problème de gestion du FAP, à un carburant inapproprié, à un filtre à air encrassé, à un problème d’injecteurs ou de calculateur, ou à toute autre cause, qui sont hélas multiples sur les moteurs modernes.

Il est donc hautement recommandé avant un CT de passer chez le concessionnaire pour un check-up complet.

 

Partager cet article
Repost0
7 octobre 2012 7 07 /10 /octobre /2012 17:28

 

7 Octobre 2012

Le filtre à particules, dont sont équipés tous les moteurs diesel depuis 2011, est une petite usine à gaz qui cause beaucoup de soucis à certains usagers.

Rappelons que son rôle est de débarrasser les gaz d’échappement des particules de suie générées par les moteurs Diesel afin de respecter la norme Euro 5 qui fixe des limites aux émissions polluantes des moteurs thermiques.

Le principe de fonctionnement est extrêmement simple, c’est celui de l’aspirateur de la ménagère: on fait passer les gaz à travers un filtre, et on vide le sac de temps en temps.

Sauf que la mise en œuvre est un peu plus compliquée.

Le « sac » qui retient les particules de suie est ici constitué par une membrane poreuse en mousse de carbure de Silicium, matériau adéquat pour sa porosité, son élasticité, sa bonne tenue aux hautes températures (jusqu’à 1300 °C), son aptitude à se laisser extruder en modules nid d’abeilles qui offrent une très grande surface pour un minimum de volume. Cette structure est enfermée dans un pot , les gaz entrent d’un côté et sortent par l’autre.

Ce système arrête 95 à 99% des particules supérieures à quelques centaines de nanomètres. C’est suffisant pour satisfaire la norme Euro 5, mais cela laisse passer la majorité des nanoparticules.

Rappelons que ces nanoparticules, particulièrement nombreuses dans la gamme des 100 nanomètres, sont aussi les plus nocives pour la santé. Elles seront règlementées par la prochaine norme Euro 6, qui doit entrer en vigueur en 2015, et imposera une limite définie non plus en poids mais en nombre par unité de volume.

Les constructeurs travaillent bien sûr sur les FAP pour les rendre conformes à Euro 6, au prix d’une complexité encore plus grande, et donc d’un prix plus élevé.

Dans les filtres à particules actuels, la suie accumulée dans le pot filtrant obstrue les pores de la membrane et bouche le filtre. Il est donc impératif d’évacuer périodiquement cette suie sous peine de dégrader gravement le fonctionnement du moteur, de détruire le FAP, et éventuellement le turbo compresseur.

Pour évacuer cette suie, il n’y a qu’un seul moyen, la brûler à l’intérieur du filtre.

Cette opération s’appelle la régénération du FAP.

Sur les poids lourds ( Camions, Bus ) on monte un système à régénération continue, qui élimine les suies par un procédé complexe et onéreux.

Sur les véhicules légers, le procédé est, lui aussi, léger. Pour des raisons de coûts on installe une régénération « à la demande ».

Le calculateur de bord mesure en continu la différence de pression entre l’entrée du filtre et la sortie. Lorsque le filtre commence à se boucher, la différence de pression augmente et le calculateur sait qu’il doit enclencher rapidement une procédure de régénération.

Pour cela il faut enflammer les suies, ensuite la combustion se poursuit d’elle-même grâce à un excès d’oxygène présent dans les gaz d’échappement, et au flux de gaz dans le pot.

Mais les suies ne s’enflamment qu’à partir de 500 °C.

Or, dans une ligne d’échappement normalement constituée, il n’y a pas 500 °C. Il faut donc, d’une manière ou d’une autre, créer un point chaud pour amorcer la combustion.

Pour cela on utilise un artifice pour d’une part élever momentanément la température à l’entrée du FAP, et d’autre part abaisser le point d’allumage des suies. On trouve généralement une séquence de post injection faisant office de brûleur, et on couple le FAP avec un catalyseur d’oxydation qui permet de gagner encore en température.

Ce procédé assez scabreux fonctionne de manière satisfaisante dans les conditions normales. La régénération se déclenche automatiquement tous les 500 à 800 km selon les conditions de circulation.

Par conditions normales, on entend lorsque le moteur a atteint sa température de fonctionnement et lorsque le régime d’utilisation est suffisamment élevé pour obtenir une température correcte de la ligne d’échappement.

Par contre, si le véhicules Diesel est utilisé en circulation urbaine, les conditions « normales » ne sont jamais réunies.

Les trajets courts, les ralentissements fréquents, la vitesse réduite, les nombreux changements de régime moteur, sont très préjudiciables à un fonctionnement correct et il faut s’attendre à des problèmes du côté du filtre à particules, dont la régénération se fait mal.

Une régénération non satisfaisante conduit à une obstruction définitive du filtre nécessitant son remplacement, la régénération forcée en atelier n’étant pas toujours possible.

Cette génération de véhicules nécessite une attention particulière pour l’entretien et les conditions d’utilisation. L’usager doit impérativement effectuer à intervalles réguliers un trajet sur autoroute à allure soutenue pour « apurer » les cycles de régénération.

Ce problème technique conduit à un paradoxe:

Le filtre à particules, qui devait permettre aux véhicules Diesel de rouler en ville sans polluer, leur en interdit l’accès sous peine de risques de déboires mécaniques.

Qui veut faire l’ange fait la bête…

Notons que le FAP sera probablement nécessaire également sur les véhicules à essence pour satisfaire la norme Euro 6.

Un tapis rouge pour le véhicule électrique.

 

 

 

 

 

Partager cet article
Repost0
5 octobre 2012 5 05 /10 /octobre /2012 13:40

 

5 Octobre 2012

Les moteurs Diesel passent actuellement un mauvais quart d’heure.

Pourquoi un tel acharnement aujourd’hui, alors que ce type de motorisation a été très majoritairement choisi par les usagers, et encouragé par les pouvoirs publics depuis de nombreuses années ?

( Présentement, 72% des véhicules neufs commercialisés en France sont des diesels).

La faute en revient à une prise de conscience un peu tardive du problème de santé publique provoqué par les émissions polluantes dans l’atmosphère, et particulièrement dans les agglomérations.

Depuis plusieurs décennies, les pouvoirs publics sont censés se préoccuper de la pureté de l’air que nous respirons, lequel est particulièrement pollué dans les villes. Les sources de cette pollution sont diverses: Activités industrielles, chauffages des bâtiments avec des combustibles fossiles ou du bois, et transports.

Toutes ces sources de pollutions sont l’objet de mesures règlementaires limitant les rejets toxiques et incitant les industriels à améliorer sans cesse leurs technologies dans l’objectif de respecter des seuils globaux en accord avec les prescriptions des organismes de santé publique.

Les véhicules à moteur n’échappent pas à la règle. Ils doivent respecter des seuils de pollution définis par des normes européennes de plus en plus sévères.

Ces normes fixent des limites d’émissions polluantes en fonction des possibilités de la technologie du moment. Nous avons ainsi vu passer depuis 1993 les normes Euro 1, Euro 2, Euro 3, Euro 4.

Les constructeurs ont pu satisfaire à ces normes par des adaptations des technologies classiques, dans le cadre de l’amélioration des rendements et la réduction des consommations ( Injection directe, allumage cartographique, pot catalytique, diesel common rail, etc..).

Et puis est arrivée Euro 5, en application depuis 2011, qui impose des seuils d’oxydes d’Azote et de particules tellement bas qu’ils ne peuvent plus être respectés par les procédés classiques.

Pour satisfaire cette norme, les moteurs diesel doivent désormais être équipés d’un filtre à particule ( FAP), seul moyen de retenir la suie en dessous du seuil fixé de 5 mg par km.

(Les moteurs à essence sont plus à l’aise dans la mesure où ils n’émettent pas de particules, en tous cas jusqu’à aujourd’hui).

Ce paramètre est contrôlé lors d’un essai selon le cycle normalisé NEDC (New European Driving Cycle) sur un banc reproduisant les conditions réelles.

Que représente un rejet de 5 mg/km par rapport au seuil de pollution atmosphérique urbaine ?

Il faut rapporter ce rejet par km au seuil de pollution défini par la norme sur la pureté de l’air, qui est de l’ordre de 50 micro grammes/m3.

D’un côté des km, de l’autre des m3.

Il faut calculer la consommation d’air au km d’un véhicule diesel moyen, en circulation urbaine, afin de pouvoir la comparer au seuil de pollution atmosphérique fixé.

Un moteur diesel utilise en moyenne 20g d’air pour brûler 1g de gazole (on utilise un mélange pauvre afin de minimiser la formation de suie).

Pour une consommation urbaine de 8 litres/100 km le moteur « consomme » environ 1 m3 d’air au kilomètre.

Cet air est évidemment rejeté par le tuyau d’échappement après que le moteur lui aie prélevé la majorité de son oxygène, remplacé par du dioxyde de carbone et de la vapeur d’eau, plus quelques polluants comme des hydrocarbures, des oxydes d’Azote, des oxydes de soufre, du monoxyde de carbone, et de la suie ( particules PM, Particulate Matter) .

Le seuil de PM toléré pour un véhicule conforme à Euro 5 étant de 5 mg/km ( en PM10) , un moteur consommant 1 m3/km rejettera donc 5 mg/m3 en sortie d’échappement.

Ceci est bien sûr un ordre de grandeur.

Par ailleurs, la moyenne annuelle du taux de pollution urbaine par les PM10 est de 25 micro gramme/m3.

( Source base nationale de la qualité de l’air).

Donc notre moteur diesel conforme à Euro 5 est autorisé à rejeter

des particules PM10 au taux de 5 000 micro grammes/m3, dans une atmosphère urbaine dont le taux moyen annuel de ces PM10 est de 25 micro grammes/m3, soit 200 fois moins !!!

Il est difficile dans ces conditions de parler de moteur propre.

Certes, les gaz fortement dosés en particules se dissipent dans l’atmosphère. Mais d’une part le niveau important d’injection ( 200 fois plus que le taux ambiant) ne peut que contribuer à l’augmentation de ce taux , ce qui n’est pas le but recherché, et d’autre part le niveau de pollution au raz du sol reste très élevé, précisément au niveau des enfants qui devraient être les premiers à préserver. Des valeurs de plusieurs centaines de micro grammes/m3 ne sont pas exceptionnelles en bordure de voies urbaines à grande circulation.

Bien sûr, par rapport aux diesels antérieurs à Euro 5, cette pollution de 5000 microgrammes/m3 est très faible devant l’énorme pollution des « anciens » diesels qui représentent toujours 80% du parc, et que nous devrons supporter encore une dizaine d’années.

Sauf si le véhicule électrique (le vrai) réussit sa percée dans les agglomérations.

Encore faudra-t-il que les autres sources de pollution soient l’objet de la même attention de la part des pouvoirs publics…

 

 

 

 

Partager cet article
Repost0
1 octobre 2012 1 01 /10 /octobre /2012 13:55

 

1er Septembre 2012.

Rappelons pour le lecteur distrait ce que devaient être les ZAPA:

Au départ se trouve le constat d’une super pollution de l’air de nos grandes villes, pollution attribuée en grande partie aux émissions de particules des véhicules, mais pas seulement.

Cette situation de dépassement des normes européennes est due pour partie à l’inertie des pouvoirs publics et pour partie à l’indifférence des collectivités locales.

Les premiers, par une politique fiscale discutable, ont largement incité les usagers à s’équiper en véhicules diesel, qui représentent 60% du parc.

Les seconds, en tolérant un déficit chronique de transports publics, ont encouragé l’envahissement des villes par l’automobile.

Pour tenter (!) d’intéresser les pouvoirs publics français à ce problème de santé publique, la Commission Européenne a engagé des poursuites devant la Cour de Justice de l’Union Européenne, pour non respect de la Directive Européenne sur la qualité de l’air 2008/50/CE.

Il devenait alors difficile à nos responsables de regarder ailleurs et d’ignorer le problème.

C’est ainsi que fut émise l’idée des ZAPA, Zones d’Actions Prioritaires pour l’Air, proposées dans la Loi de Grenelle sur l’environnement, durant le précédent quinquennat.

Dans un premier temps les villes candidates à la création d’une ZAPA devaient remettre un dossier précisant les mesures et les aménagements prévus pour atteindre des objectifs fixés, afin de pouvoir prétendre à des aides publiques.

Parmi les pollueurs visés se trouvaient les véhicules et en particuliers les diesels.

Il paraissait difficile d’échapper à une règle d’interdiction des véhicules les plus polluants. Seuls les véhicules « propres » , c’est-à-dire équipés de filtre à particules, c’est-à-dire les plus récents, seraient alors autorisés en ville.

Cette règle a été appliquée en Allemagne.

Mais la France n’est pas l’Allemagne, faut-il le rappeler ?

Une telle mesure discriminatoire est inacceptable en France, pays où l’égalité est inscrite au fronton des mairies. Pas question de stigmatiser certains usagers et de les chasser de nos villes sous prétexte qu’ils ne sont pas assez riches pour acheter une voiture neuve non polluante.

Le changement de majorité présidentielle, élue sur un socle égalitaire, a fait le reste.

La Ministre Delphine Batho a donc signé le certificat de décès des ZAPA le 20 Septembre 2012, à l’issu de la réunion avec les villes candidates, le dispositif étant jugé trop injuste et peu efficace (AFP).

C’est donc reparti pour un tour.

On attribue à Clémenceau cet aphorisme:

«  Quand on veut enterrer un problème, on crée une commission »

La Ministre a annoncé la création d’une commission interministérielle pour bâtir des solutions concrètes d’ici janvier prochain….

 

 

 

 

 

 

Partager cet article
Repost0
17 septembre 2012 1 17 /09 /septembre /2012 10:52

 

17 Septembre 2012

La conférence de Vendredi et Samedi derniers se proposait de traiter d’un programme extrêmement large puisqu’il s’agissait ni plus ni moins que de l’Environnement.

La majuscule est de mise eu égard à l’ampleur du sujet et à l’imprécision de son contenu.

Que l’on rebaptise le sujet sous l’étiquette « Diversité et Transition énergétique » ne change rien puisque ces deux termes contiennent à peu près la même chose, c’est-à-dire tout.

L’intention de traiter de tout dans une même conférence est certes louable puisqu’elle traduit la volonté de tout prendre à bras le corps, mais le risque est grand de tomber dans la confusion et surtout de parfois se tromper d’interlocuteur.

Une assemblée de quatorze ministres et trois cent élus et représentants d’ONG , employeurs et salariés, ne pouvait en deux jours que prendre la forme d’une grand messe inaugurale au cours de laquelle quelques grandes lignes directrices seraient évoquées, puisées pour l’essentiel dans le programme électoral du nouveau Président.

La panoplie dont souhaite s’équiper le Gouvernement pour atteindre ses objectifs comprend des mesures industrielles, sociales, fiscales, commerciales, règlementaires, que l’on peut essayer de mettre en ordre:

D’abord, les mesures décidées sinon actées:

- Confirmation de la décision de fermeture de la centrale électronucléaire de Fessenheim fin 2016, annoncée pour 2017 dans le programme électoral.

- Lancement imminent d’un nouvel appel d’offre éolien off shore, également déjà antérieurement programmé.

- Annulation des permis d’exploration et d’extraction des huiles et gaz de schistes, confirmation du moratoire existant.

- Pour l’éolien, suppression de l’obligation d’appartenir à une ZDE ( Zone de Développement de l’Eolien) , et mise en place d’un tarif d’achat adapté à l’Outre-mer.

- Interdiction de l’épandage aérien de produits phytosanitaires sauf en l’absence de solutions alternatives.

- Augmentation du malus automobile par abaissement de 5g du seuil de CO2 par km.

- Confirmation du soutien du Gouvernement à la proposition de loi sur la suppression du Bisphénol A dans les contenants alimentaires.

- Pour l’électricité et le gaz, extension du bénéfice du tarif social à 4 millions de ménages modestes au lieu de 1 million aujourd’hui.

Ensuite les promesses:

- Pour mi 2013, Loi fixant la stratégie pour la réduction de la part du nucléaire à l’horizon 2025 ( de 75% à 50%).

- Simplification des procédures administratives pour l’éolien et le photovoltaïque.

- Création d’un guichet unique pour la rénovation thermique des logements.

- Tarification progressive de l’énergie.

- Lutte contre l’artificialisation des sols.

- Hausse de la taxe générale sur les activités polluantes ( TGAP).

- Création en 2013 d’une Agence nationale de la biodiversité.

- Proposition de relance de la taxe carbone aux frontières de l’Europe.

- Baisse des taux de défiscalisation des biocarburants à partir de 2014 pour extinction en 2015.

- Maintien du moratoire sur la mise en culture des OGM.

- Lancement d’un nouveau plan pour l’agriculture biologique.

Des incitations pour les industriels et les particuliers:

- Développer dans les dix ans un véhicule consommant 2 litres d’essence aux 100 Kms.

- Mettre en œuvre un vaste plan de rénovation thermique des bâtiments.

Il s’agit donc d’un programme général d’orientation pour le quinquennat, qui ne vaudra que par la concrétisation des mesures promises.

Quels commentaires tirer de la lecture de cette panoplie ?

Les grincheux regretteront l’absence ( confirmée par le premier Ministre) de mesures d’harmonisation de la taxe sur les carburants, qui laisse la part belle au diesel et donc va à l’encontre des préconisations de Bruxelles sur la pollution urbaine.

Les comptables regretteront que rien ne soit dit concernant le financement de ce vaste programme.

Les tatillons s’étonneront que l’on s’oppose aux gaz de schiste en France tout en acceptant le pétrole off shore guyanais.

Les ingénieurs se demanderont de quel chapeau a été tiré cet objectif de développement d’un véhicule consommant 2 L d’essence aux 100 Kms.

Les usagers voudront savoir pourquoi le soutien du Gouvernement va à un véhicule à essence plutôt qu’à la voiture électrique.

Les urbanistes voudront savoir quelles grandes idées présideront au programme de lutte contre l’artificialisation des sols.

Enfin la plupart s’étonneront de n’avoir rien entendu concernant un éventuel grand plan d’amélioration des transports en commun, pourtant la clé de la diminution de consommation d’énergie dans les transports.

Cette grand messe aura eu quand même le mérite de poser quelques jalons, mais également d’ouvrir une période de débats car de nombreuses questions restent ouvertes.

Il faudra attendre un an ou deux pour que ces idées généreuses atterrissent sur un programme concret tenant compte des possibilités de financement.

 

 

 

Partager cet article
Repost0
22 juin 2012 5 22 /06 /juin /2012 06:32
22 Juin 2012
La centrale nucléaire de Fessenheim est appelée à occuper le devant de la scène lorsque le programme énergétique de la France viendra à l’ordre du jour, ce qui ne saurait tarder.
L’affaire est désormais connue, inutile de refaire l’histoire.
Je voudrais parler de l’importance particulière de l’eau comme facteur de risque à Fessenheim.
La centrale est implantée au bord du grand canal d’Alsace.
Le schéma ci-dessous est une coupe transversale de la vallée.
Les-crues-du-Rhin_1.png
 
Le grand canal d’Alsace a été construit pour pallier les caprices du Rhin « naturel » dont les nombreux méandres fantaisistes rendaient la navigation très problématique.
Des travaux d’endiguement ont contribué à maintenir le fleuve dans un lit mineur en temps normal, lit bordé par des digues submersibles.
En période de crues, un lit majeur a été défini par des digues insubmersibles qui protègent en dernier ressort les habitations et les installations industrielles.
 
Les-crues-du-Rhin_3.png 
 
 
L’eau du fleuve est partagée entre le Rhin naturel d’une part, et le canal d’Alsace d’autre part, ce partage étant réalisé au niveau du barrage de Kembs situé en amont, grâce à cinq portes monumentales télécommandées. Le canal d’Alsace reçoit un débit régulier nécessaire pour la navigation et pour le fonctionnement des usines hydroélectriques classiques et nucléaire. Le débit max dans le canal est de 1 400 m3/s.
Le reste est envoyé dans le Rhin naturel.
La centrale nucléaire se contente d’utiliser l’eau du canal pour refroidir le circuit secondaire des réacteurs, l’eau utilisée est rejetée dans le canal.
(En effet, les deux réacteurs produisent à eux deux 5 400 MW thermiques, dont le tiers est transformé en électricité, le reste est évacué par les radiateurs et sert à chauffer l’eau du canal. Il y a tout de même 3 600 MW thermiques à évacuer, ce qui demande un débit d’eau colossal, équivalent à celui d’un fleuve moyen).
Le débit moyen du Rhin est de 1050 m3/s, mais il peut monter jusqu’à 5000 m3/s lors des crues de Juin/Juillet ( crue des cerises). Le fleuve occupe alors son lit majeur.
Les crues du fleuve sont gérées par un organisme Franco-Allemand qui s’appuie sur plusieurs échelons:
- D’abord la gestion prévisionnelle des niveaux du grand canal et de la retenue de Kembs afin de constituer des réserves de capacité.
- Ensuite l’occupation du lit majeur.
- Puis l’intervention des « barrages agricoles », côté allemand .
- Enfin l’ennoyage des polders.
( Les polders sont des grands bassins de rétention aménagés tout au long du cours du fleuve et qui sont remplis selon les besoins pour absorber le surplus d’eau. Ils fonctionnent à l’envers de leurs homologues néerlandais).
Ce dispositif complexe permet de contenir les crues du fleuve, même à l’occasion des crues centennales avec un débit de 5000 m3/s.
Inutile de préciser que la centrale nucléaire est située au-dessus du niveau des plus hautes eaux centennales, ainsi que les autres centrales.
Bien sûr, on peut toujours s’interroger sur les conséquences du réchauffement climatique sur le régime des crues du Rhin, et sur la capacité des moyens de contrôle à gérer des surcotes imprévues.
La centrale de Fessenheim se trouve donc théoriquement protégée contre tout risque d’inondation due aux crues du Rhin, dans la mesure où elles ne dépassent pas le maximum syndical fixé par les ingénieurs.
On peut se demander pourquoi les bâtiments de la centrale ont été installés au pied du Grand canal. Il y a à ce choix étrange plusieurs raisons:
- La première raison tient à la fiabilité de la source d’eau dont le débit est contrôlé par les portes du barrage de Kembs en amont, et à la protection vis-à-vis des crues maximales ( Protection réalisée par les digues du canal puisque la centrale se trouve rive gauche et que le danger vient de la rive droite).
- La deuxième raison tient à la nécessité d’avoir accès à l’eau directement, avec une dénivelée la plus faible possible. En effet, la puissance requise pour pomper l’eau augmente avec la dénivelée, et peut atteindre plusieurs mégawatts par mètre pour des débits de 50 m3/s.
Le choix de l’emplacement actuel permet de « limiter » la puissance des pompes à 6 Mégawatts !
- La troisième raison est liée au poids des installations. Il serait hasardeux de monter des bâtiments de réacteurs sur des structures artificielles en hauteur. Le poids énorme de ces structures entrainerait des risques de tassement de terrain préjudiciable à la sécurité. C’est pourquoi on se « limite » à un radier en béton posé sur le sol naturel éventuellement stabilisé.
Pour toutes ces raisons, la centrale se trouve au pied du canal , à environ 8 mètres en dessous du niveau des eaux.
Le schéma ci-dessous donne une vue transversale d’ensemble.
Coupe-grand-canal-d-Alsace.png
 
Il est évident qu’une rupture de la digue entraînerait une catastrophe nucléaire majeure avec fusion des cœurs, percement du radier et contamination de la nappe phréatique.
Parmi les causes de ruptures de la digue on de doit pas oublier un accident de navigation par un des nombreux navires qui transitent par les écluses de Fessenheim, à hauteur de la centrale. On ne doit pas écarter non plus la possibilité d’une explosion sur un navire, accident ou sabotage.
Mais cette digue , de par ses dimensions imposantes ( voir schéma) , semble à l’abri d’une rupture fortuite. Elle est l’objet d’une surveillance constante pour la détection des éventuelles fuites, et l’entretien du revêtement d’étanchéité en béton.
Cependant il faut tenir compte de la nature sismique de la région, siège de fréquents tremblements de terre de magnitudes modestes . On ne peut écarter le risque d’un séisme majeur, dont la date et la magnitude sont bien sûr inconnues. Il en a été tenu compte dans la conception de l’ouvrage , en prenant comme référence la magnitude la plus forte jamais enregistrée.
Hélas cette référence n’est pas fiable car elle n’est qu’une évaluation à partir d’indices fragiles.
Les partisans de la fermeture du site utilisent ce danger comme principal argument, non sans quelques raisons.
Le risque sismique ne concerne pas seulement la digue. Le danger principal concerne les bâtiments des réacteurs, les bâtiments des pompes, les bâtiments de contrôle, les équipements d’assistance, les équipements d’alimentation électrique, les piscines à combustibles, les pompes de secours, les accès aux sources auxiliaires de refroidissement.
Tout ce petit monde , interconnecté par des câbles, des tuyaux, etc , subirait de gros dégâts susceptibles de conduire à une catastrophe nucléaire majeure.
Mais hélas une autre donnée vient compliquer le problème.
Le schéma ci-dessous montre que la centrale est installée sur la nappe aquifère d’Alsace.
Nappe-phreatique-d-Alsace-1.png
 
Cette nappe est la plus grande réserve d’eau douce d’Europe. Les relevés de l’APRONA ci-dessous montrent que l’eau n’est qu’à quelques mètres de profondeur.
Profondeur-nappe-d-alsace-a-Fessenheim.png
 
On imagine sans peine l’ampleur des dégâts causés par un corium pénétrant dans la nappe après avoir traversé le radier de béton. Un accident qui créerait une situation de crise sans précédent.
Et ceci alors que la digue pourrait rester intacte.
Les opposants au maintien de la centrale en fonctionnement ne manquent donc pas d’arguments fondés pour exiger son arrêt.
Trois évènements externes ont donc été identifiés comme pouvant chacun entraîner une catastrophe majeure:
- Une rupture de la digue.
- Une inondation due à une crue de surcote.
- Un séisme.
A ces évènements externes viennent s’ajouter bien sûr les cause internes possibles d’accident nucléaire, inhérentes au système nucléaire lui-même.
A chacune de ces causes prises séparément on peut opposer la liste des mesures de sécurité préventives et curatives prévues.
Mais le cumul de toutes ces causes conduit à une probabilité d’accident majeur préoccupante.
La préoccupation est renforcée par le constat de certaines anomalies susceptibles d’aggraver les conséquences d’un éventuel accident:
- Implantation de la centrale à un niveau très inférieur au niveau de l’eau du canal.
- Epaisseur du radier notoirement trop faible ( 1,5 m ). Les autres centrales ont des radiers de 3m d’épaisseur.
- Absence de dispositif d’étalement et de récupération du corium. Ce dispositif est prévu sur les futurs EPR.
- Absence de solution de secours pour le refroidissement en cas de défaillance du circuit principal ou d’obstruction des grilles de captation.
- Trop grande proximité de la nappe phréatique.
- Protection insuffisante des bâtiments stratégiques contre les inondations (seule une digue de 1 m entoure la zone stratégique).
L’accumulation de ces défauts et de ces facteurs de risques laisse penser que la centrale est une bombe à retardement, et qui le restera malgré les quelques travaux d’aménagement prévus par EDF.
C’est une lourde responsabilité qui sera engagée par l’autorité qui prendra la décision de poursuivre l’exploitation de ce site, en laissant peser sur la région, les populations et l’environnement, une menace aussi bien identifiée.
Partager cet article
Repost0
18 juin 2012 1 18 /06 /juin /2012 10:47

 

18 Juin 2012

L’OMS vient donc d’annoncer le classement des émissions des moteurs Diesel en Groupe1, qui réunit les produits dont le caractère cancérigène est prouvé.

Quelles peuvent être les conséquences d’un tel classement ?

Rassurez-vous, aucune conséquence fâcheuse directe à court terme n’est attendue pour les pourvoyeurs de ces produits et leurs usagers.

Ce fameux Groupe 1 comporte 107 produits dont beaucoup sont encore d’usage courant, comme l’alcool et le tabac. Et, comme chacun peut le constater, ces produits ne sont l’objet d’aucune mesure d’interdiction de vente ou de consommation.

L’Amiante, déclaré cancérigène en 1973, n’a été interdit que 24 ans plus tard.

Le consommateur, qui ne peut ignorer les ravages provoqués par l’alcool et le tabac, continue cependant de consommer ces produits en toute indifférence.

Le groupe 1 comprend également les radiations solaires ultraviolettes, et cependant l’exposition des personnes, et surtout des jeunes enfants, n’est toujours pas interdite, ni même règlementée.

Il ne faut pas s’attendre à une réaction de rejet des consommateurs contre les moteurs Diesel, du moins tant que la fiscalité sur le carburant restera attractive.

L’annonce de l’OMS n’aura donc pas plus d’effet qu’un pet sur une toile cirée.

Les industriels de tout secteurs ont depuis longtemps entrepris des études pour réduire les émissions polluantes de leurs matériels, sous la pression des règlements Européens dans le cadre de la lutte contre la pollution de l’air ambiant. Le Diesel notamment a été particulièrement soigné grâce au montage des filtres à particules, qui restent cependant très controversés dans leur usage citadin, là où ils seraient le plus utile.

D’autre part les pouvoirs publics disposent de l’outil ZAPA ( Zones d’Actions Prioritaires pour l’Air) leur permettant de gérer de manière souple et progressive les éventuelles mesures restrictives de circulation.

Huit projets de ZAPA sont en cours d’études préliminaires.

Le classement de l’OMS, en offrant une base juridique, pourrait être une incitation à accélérer ces projets.

Mais une interdiction des centres villes aux véhicules les plus polluants, en principe les plus anciens, aurait un caractère socialement discriminatoire qui provoquerait un rejet de la population, avec des retombées électorales que tout élu aura à cœur d’éviter. Si seuls les véhicules de moins de cinq ans sont autorisés par exemple, c’est l’ensemble d’une classe sociale qui sera exclue, ce qui paraît assez surréaliste.

L’expérience malheureuse de feu la pastille verte aura au moins permis de toucher du doigt la complexité du problème.

La dépollution des centres villes n’est pas une mince affaire. La solution semble se trouver du côté de la promotion des moyens de transport collectifs électriques plutôt que par l’appel à des mesures discriminatoires fort impopulaires.

La généralisation des tramways et/ou métros avec extension des réseaux en banlieues est une première étape en voie de réalisation.

L’étape suivante pourrait être réalisée grâce aux véhicules hybrides à condition qu’ils puissent être généralisés sous peine de retomber dans des mesures discriminatoires.

Réduire les émissions polluantes des véhicules ne suffira pas à réduire la pollution urbaine. Les autres sources de pollution, notamment les chaudières au fuel, au charbon, ou au bois, devront faire l’objet de mesures aussi sévères sous peine de résultats globaux insuffisants.

Il s’agit donc d’une démarche généralisée qui passe par les économies d’énergie, le recours aux énergies durables, et le développement de solutions de transport écologiques.

Prendre le contre-pied des méthodes actuelles dispendieuses et indifférentes à l’environnement ne se fera pas sans remise en question de nos modes de vie, ce qui peut prendre plusieurs décennies.

Partager cet article
Repost0
14 juin 2012 4 14 /06 /juin /2012 16:49

 

14 Juin 2012

La polémique autour du Nucléaire a eu le mérite de faire remonter à la surface un risque essentiel non maîtrisé, celui de l’interruption accidentelle du refroidissement d’un réacteur.

Le rôle du fluide de refroidissement est d’évacuer la totalité de la puissance thermique développée par le réacteur. Une partie de cette puissance est utilisée pour faire fonctionner une turbine qui entraîne un alternateur, le reste est dissipé dans une tour de réfrigération ou dans la mer .

Les volumes de fluide de refroidissement nécessaires sont colossaux, pour un seul réacteur le débit est comparable à celui d’un fleuve de moyenne importance !

les pompes utilisées sont énormes.

L’interruption du refroidissement entraîne une catastrophe nucléaire majeure, à l’image de Fukushima.

Heureusement des dispositifs de sécurité permettent l’arrêt d’urgence contrôlé du réacteur. Des circuits de secours existent pour pallier les défaillances du circuit principal, des pompes, de l’alimentation électrique, ou de tout autre dispositif de régulation interne.

Mais certains évènements catastrophiques peuvent compromettre le bon fonctionnement de la chaîne de sécurité.

Il peut s’agir d’un évènement naturel dépassant les prévisions les plus pessimistes: Séisme, inondation, glissement de terrain.

Ou d’un évènement provoqué par la chute d’un avion, d’une météorite, voire même d’un attentat.

Si l’évènement neutralise la chaîne de sécurité, le réacteur peut s’emballer et atteindre des températures auxquelles tout ce qu’il y a dans la cuve fond et s’agglomère en un magma de combustible, d’acier, de Zirconium, le tout plus ou moins pâteux et à une température de 2500 à 3000 °C.

( Cette température correspond à un équilibre de la réaction de fission à la limite de criticité. Aucune explosion nucléaire n’est à craindre).

Ce magma est appelé CORIUM.

Sa température est telle que rien ne lui résiste, ni l’acier, ni le béton. Sa densité très élevée l’entraine vers le bas. En peu de temps la cuve d’acier est percée, et le produit se déverse sur le radier en béton, dans lequel il s’enfonce comme ferait un chalumeau dans de la cire.

Plusieurs mètres de béton peuvent être traversés en quelques jours.

On comprend que, lorsque le Corium a traversé le radier, il va contaminer gravement l’environnement et surtout les nappes phréatiques de proximité.

La situation se complique si le Corium entre en contact avec de l’eau. Le craquage de l’eau se produit à 850 °C environ, produisant entre autre de l’Hydrogène dont l’accumulation est cause d’explosions dévastatrices.

Le contrôle de ce Corium est l’un des problèmes majeurs des concepteurs de réacteurs, problème non encore résolu à ce jour de manière satisfaisante.

Pour tenter d’éviter le pire, il est important de prévoir un processus pour arrêter et refroidir ce Corium afin de lui ôter son pouvoir de nuisance.

Un tel dispositif n’existe pas sur les vieilles centrales, qui sont donc vulnérables à ce type d’accident.

Sur les EPR il est prévu tout un système pour canaliser le Corium vers une chambre d’étalement, laquelle chambre est munie de parois réfractaires et d’un réseau de refroidissement. Encore faut-il que ce réseau de refroidissement ne soit pas affecté par l’accident.

On trouvera ci-après un document de l’IRSN relatif à ce problème.

IRSN

AKTIS/ Actualité de la recherche à l’IRSN

N° 5-2, Numéro spécial. Septembre 2011

« Accidents de fusion du cœur - Réacteurs à eau sous pression

La cinétique d'ablation du béton par un corium

De récentes recherches permettent d'améliorer la prédiction de la cinétique d'ablation du béton du radier du réacteur par le corium, magma métallique résultant de la fusion du cœur. La percée du radier peut conduire au relâchement de produits de fission radiotoxiques.

L'interaction du corium avec le béton (ou ICB) peut percer le fond du radier et donc induire un relâchement de radioéléments dans l'environnement par perte du confinement. Pour évaluer le temps nécessaire pour percer le radier, l'IRSN développe un outil de simulation numérique intégré dans le logiciel de simulation des accidents graves . Il modélise les phénomènes mis en jeu dans l'ICB, notamment ceux traduisant l'influence de la composition du béton sur l'orientation privilégiée de son ablation par le corium .

Ces phénomènes, mis en évidence à l'aide d'expériences à échelle réduite et de simulations numériques , ont été modélisés et les modèles intégrés dans le logiciel Astec, ce qui permet d'extrapoler ces observations à l'échelle du réacteur. Les simulations de scénarios accidentels avec Astec tenant compte de l'influence du type de béton ont ainsi permis de réévaluer les délais de percement du radier en l'absence de refroidissement du corium : de l'ordre de quelques jours pour une épaisseur de radier entre 3 et 4 mètres ».

Fin de citation.

Cas particulier de la centrale de Fessenheim:

- Cette centrale ne comporte aucun dispositif de contrôle de Corium.

- L’épaisseur du radier n’est de 1,5 mètres, il serait donc transpercé en moins d’un jour.

- La centrale est construite sur la nappe phréatique Rhénane, dont le niveau est à - 8m à cet endroit, donc très vulnérable à une pollution par le Corium. Cette nappe est la plus importante d’Europe.

La pénétration du Corium et sa rencontre avec l’eau génèrerait un dégagement gazeux considérable qui créerait une surpression favorisant la dissémination des polluants radioactifs dans la nappe.

Un fois refroidi ( un mois, un an, dix ans? ) un Corium demeure très fortement radioactif et constitue une source de pollution de longue durée. De plus, son destin lorsqu’il a atteint le sous-sol, est inconnu.

Le maintient d’un programme nucléaire implique l’acceptation du risque de voir se produire quelques accidents majeurs susceptibles d’empoisonner durablement des régions entières.

La mise au point de mesures de contrôle d’un éventuel Corium est aujourd’hui l’un des problèmes majeurs des concepteurs de centrales. Ces études ne peuvent s’appuyer sur des expérimentations, et pour cause. Elles sont essentiellement basées sur des modélisations informatiques dont on connait l’imprécision lorsqu’elles ne sont pas soutenues par l’expérience de terrain.

Les analyses des catastrophes passées sont effectuées avec soin ( lorsque c’est possible) pour en retirer tout les enseignements utiles permettant d’éviter les mêmes erreurs dans le futur.

Mais ces progrès ne profiteront que très peu aux vieilles centrales dont la vulnérabilité restera entière.

 

 

 

 
Partager cet article
Repost0