Overblog Suivre ce blog
Administration Créer mon blog
22 juillet 2012 7 22 /07 /juillet /2012 15:13

 

22 Juillet 2012

Notre Société a pris son parti de devoir payer le prix du sang en échange du droit à la voiture, au tabac et à l’alcool, même si ces trois addictions sont pratiquées avec modération, chacun ayant par ailleurs sa définition personnelle de la modération.

Les dizaines de milliers de victimes sacrifiées annuellement à ces trois vices modernes sont une malédiction collectivement consentie, la nature humaine ayant ceci de merveilleux que l’individu est persuadé que le risque est toujours pour les autres.

Interrogez votre voisin sur son sentiment vis-à-vis des risques de la vie courante; immanquablement il vous répondra que tout ces morts c’est bien triste mais que lui, il est bon conducteur, qu’il ne boit que très peu d’alcool, et qu’il ne fume plus depuis dix ans, que donc il n’est pas concerné par cette hécatombe.

Reconnaître le risque collectif tout en niant le risque personnel, encore une preuve, s’il en était besoin, de l’irrationalité de nos comportements.

Mais ne nous égarons pas.

Le risque nucléaire, c’est autre chose.

Tout le monde a entendu parler de Three Mile Island, de Tchernobyl, et de Fukushima. Les plus curieux sont informés de l’accident de la centrale du Blayais, et de quelques autres. Certains fouineurs connaissent même le problème du couvercle de la cuve de Davis Besse.

Bref, un citoyen responsable ne peut plus ignorer aujourd’hui le risque de se trouver un jour ou l’autre irradié par des émanations répandues au hasard des vents à la suite de la saute d’humeur d’une cuve de réacteur ou de la rupture de quelques tuyaux facétieux, quand ce n’est pas la distraction d’un opérateur qui se trompe de robinet ( Si, si, cela existe !).

Et dans ces circonstances il est difficile de s’estimer personnellement à l’abri d’un tel danger à la fois invisible et imprévisible, qui toucherait une région entière, tous êtres vivants confondus.

C’est pourquoi avec le nucléaire on ne plaisante plus. Pas question d’accepter une seule victime parmi la population, car personne ne peut prétendre y échapper par sa seule vertu personnelle .

Le concept de sureté nucléaire est né de la nécessité de garantir les populations contre tout risque de contamination par des substances radioactives rejetées par les installations nucléaires, que ce soit lors du fonctionnement normal, ou à la suite d’un accident.

Est-ce à dire que l’on aurait enfin trouvé le saint Graal du risque zéro ?

Pas du tout.

Le risque zéro, hélas, n’existe toujours pas; les mauvaises langues diront même qu’il a tendance à s’éloigner avec les progrès de la technologie.

Les installations électro nucléaires, même de bon aloi ( Si tant est que cela existe), émettent normalement des effluents porteurs de radioéléments nocifs, sous forme de gaz, de liquides, ou de déchets solides.

En théorie ces produits sont parfaitement contrôlés et leur présence dans l’environnement reste inférieure aux taux limites établis par la règlementation, laquelle est souvent bonne fille. Leur nocivité est alors déclarée négligeable.

Acceptons-en l’augure.

La sureté nucléaire « standard » est donc réglée par le respect des normes, pour autant que les installations fonctionnent normalement dans leurs conditions nominales.

Le problème se pose lorsque les conditions cessent d’être nominales, en clair lors d’un accident.

Qu’est-ce donc qu’un accident nucléaire ?

Rassurez-vous nous n’allons pas vous imposer la description détaillée d’une installation, ni de tous les « petits » pépins qui peuvent perturber la bonne marche de l’usine, et qui sont réglés neuf-cent-quatre-vingt-dix-neuf fois sur mille grâce à la compétence du personnel et à l’intervention d’un ensemble de dispositifs automatiques de sécurité redondants. Les dégâts lorsqu’il y en a restent confinés à l’intérieur du site, avec éventuellement quelques surdoses de radiations encaissées par le personnel en première ligne, et parfois quelques mois d’arrêt de l’exploitation.

Ce qui nous intéresse, c’est le un pour mille restant.

Nous voulons parler d’une situation de crise dans laquelle les dispositifs automatiques de sécurité ne suffisent plus à reprendre la main, ou lorsque ces dispositifs sont eux-mêmes hors d’état de fonctionner. De telles circonstances peuvent entraîner une perte de contrôle du système avec fusion partielle ou totale du cœur, ce qui constitue LA catastrophe majeure lorsqu’elle s’accompagne de pollution environnementale.

C’est la prévention et/ou la gestion de cette catastrophe majeure qui sont au cœur du concept de sécurité nucléaire.

Rappelons brièvement la séquence d’évènements susceptibles d’accompagner la fusion du cœur d’un réacteur ( nous parlerons plus tard des causes):

- L’emballement de la réaction non contrôlée conduit à une élévation de température jusqu’à 2 200 à 2 700 °C dans le cœur de la cuve.

- Tout ce qui est à l’intérieur de la cuve fond et s’agglomère en un mélange liquide appelé Corium, constitué donc de combustible fondu, du Zircaloy des gaines contenant les pastilles de combustible, et des structures métalliques internes, le tout violemment radioactif évidemment.

- Le Corium coule vers le fond de la cuve, où il rencontre l’eau résiduelle.

- Cette rencontre provoque une explosion de vapeur susceptible de briser la cuve si elle est fragilisée par la fatigue de flux neutronique subi au long des années.

- L’oxydation violente des produits du Corium et le craquage de l’eau dû à la haute température provoque un fort dégagement d’hydrogène qui ne demande qu’à se répandre dans l’enceinte de confinement où il explosera lorsque sa concentration sera suffisante.

- Ces explosions successives sont susceptibles d’entraîner des brèches supplémentaires dans le circuit primaire et/ou au niveau des générateurs de vapeur, et/ou la destruction de l’enceinte de confinement avec émission de produits radioactifs dans l’atmosphère, le fameux « nuage »  tant redouté.

- Le Corium au fond de la cuve est susceptible de la traverser et de se déverser dans le puisard.

- Ce Corium peut alors traverser le radier en béton pour contaminer le sous-sol.

Il suffit de se reporter aux analyses des catastrophes de Tchernobyl et de Fukushima pour obtenir des détails supplémentaires avec des photos et le nombre de morts présents et futurs résultants.

Ce scénario comporte de nombreuses variantes selon les causes des défaillances, leur enchaînement, la réactivité des automatismes de sécurité, les défaillances secondaires induites, etc, etc…

Quelles peuvent être les causes initiales d’une telle catastrophe ?

Plusieurs évènements peuvent enclencher le processus; un seul de ces évènements ne suffit pas à lui tout seul à entraîner le feu d’artifice*, il faut une cascade de dysfonctionnements.

* Sauf peut-être une rupture de cuve, évènement qui n’était même pas envisagé par la procédure jusqu’à présent, mais qui est sérieusement considéré aujourd’hui.

L’évènement principal, le plus redouté, est l’interruption de la circulation du fluide caloporteur. C’est le LOCA ( Lost Of Coolant Accident), qui prélude aux pires calamités.

Dans les REP ( Réacteurs à Eau Pressurisée) le fluide caloporteur est de l’eau. Cette eau récupère la chaleur de la réaction du cœur, et la transmet aux générateurs de vapeur, laquelle vapeur sert à actionner les turbines génératrices d’électricité. Pour des questions de rendement la vapeur doit être à haute température ( plus de 300 °C) et donc l’eau des serpentins également. Cette eau circule en boucle fermée dans le circuit primaire. Elle entre dans la cuve à 280 °C et en sort à 320°C. Pour qu’elle demeure liquide à ces températures, elle doit être sous forte pression ( 155 Kg ). Le débit et évidemment considérable puisqu’il faut évacuer une puissance thermique de 2 700 MW générée dans la cuve ( pour les réacteurs de 900 MW électriques). Ce débit est assuré par des pompes de très forte puissance (plusieurs Mégawatts).

Chaque réacteur de 900 MWe est raccordé à trois générateurs de vapeur et donc à trois boucles primaires.

Cette cocotte minute est maintenue dans un état d’équilibre convenable grâce à un automatisme qui surveille tous les paramètres ( Température, pression, débit, flux de neutrons, etc…) et régule la chaudière par le jeu des barres de contrôle et le dosage subtil d’acide borique dans l’eau de refroidissement. C’est en réalité un peu plus complexe, mais c’est l’idée.

Si cette eau de refroidissement vient à faire défaut ( Tuyau percé, pompe en panne) il est aisé d’imaginer la suite. Le cœur continue à fournir toute sa puissance et tout se met à fondre, produisant le fameux corium destructeur, et bien d’autres désagréments.

Heureusement il y a des dispositifs de sécurité:

La cuve du réacteur est équipée de capteurs de température et de pression. Le pressuriseur, qui ajuste la pression dans le circuit primaire, est lui-même muni de capteurs.

- En cas de brèche dans le circuit d’eau primaire, ou de défaillance de pompe, l’anomalie est détectée par des capteurs qui déclenchent en quelques secondes l’abaissement des barres de contrôle qui placent le réacteur en mode d’arrêt.

- Si besoin est le système automatique procède à l’injection d’acide borique ( le Bore est un bon absorbeur de neutrons et contribue efficacement à freiner la réaction).

- Si nécessaire, le système de secours ( accumulateurs sous pression) procède automatiquement à l’injection massive d’eau froide pour suppléer le manque d’eau principale. ( En effet le réacteur continue à chauffer même avec les barres descendues, et il doit être refroidi).

- Un autre système permet de déclencher l’aspersion de l’enceinte de confinement pour précipiter au sol les produits radioactifs (aérosols) échappés et pour neutraliser l’Hydrogène produit.

Si tout se passe comme décrit ci-dessus l’affaire en reste là et la catastrophe environnementale est évitée.

Mais il se peut que les choses ne se passent pas aussi bien, selon l’origine du défaut initial et selon la réactivité des dispositifs de sécurité. Dans ce cas on ne peut éviter un emballement avec fusion partielle ou totale du cœur.

Il existe de nombreux évènements susceptibles d’initier une séquence accidentelle s’ils ne sont pas immédiatement pris en charge par les automatismes de sécurité. Ces évènements peuvent concerner le matériel lui-même ( Cuve, Tuyauterie, générateurs de vapeur, soudures, robinetterie, barres de contrôle, gaines de combustible, pompes, etc… ), les systèmes de sécurité ( capteurs, pressuriseur, commande des barres de contrôle, système d’injection de sécurité, système d’aspersion dans l’enceinte, d’injection d’acide borique, etc…), la gestion des automatismes, les alimentations électriques, et d’autres dispositifs externes à l’enceinte de confinement mais qui lui sont connectés.

Donc beaucoup de sources potentielles d’ennuis si tout ce petit monde n’est pas surveillé comme le lait sur le feu.

Concernant la prévention et la gestion des risques de catastrophes majeures, les retours d’expérience sont (heureusement) rares, ce qui rend indispensable le développement de programmes de simulation d’accidents élaborés pour pallier le manque d’informations de terrain.

EDF et l’IRSN réalisent des simulations des différentes séquences d’évènements afin d’une part d’en déterminer la probabilité, et d’autre part d’optimiser les procédures de sécurité des centrales existantes et futures.

On pourra trouver des détails dans les documents suivants:

CEA - 2006/ 474 Rev 1

IRSN-2006 :73 Rev1

Cette approche est prise en charge au niveau européen par un PCRD (Programme Commun de Recherche et Développement) qui s’appuie sur le SARNET ( Severe Accident Research NETwork) coordonné par l’IRSN et regroupant 19 pays de L’Union Européenne et la Suisse.

Au niveau de l’OCDE c’est le CSNI ( Comité de Sureté des Installations Nucléaires) qui est chargé d’établir des règles se sureté internationales.

L’existence de ces infrastructures n’est malheureusement pas une garantie de risque zéro.

Elles sont une démarche qui vise à la minimisation de ce risque, ce qui n’est pas tout à fait la même chose. Elles procurent les outils matériels et logiciels permettant d’élaborer la sécurité, encore faut-il qu’ils soient correctement mis en œuvre, ce qui n’est pas toujours le cas si l’on en croit les rapports d’inspection des visites décennales de l’ASN.

On sait par ailleurs que les programmes de simulations, dans quelque domaine que ce soit, doivent être validés par les retours d’expériences sous peine de n’être que des prédictions. Or les retours d’expérience sur les accidents majeurs font défaut dans le nucléaire, ce dont il faut se réjouir pour notre sécurité, mais qui est bien fâcheux car les programmes de simulations d’accidents n’ont jamais pu être été vérifiés sur des cas concrets. Les informations recueillies à la suite des « précédents » déjà cités sont fragmentaires et non directement exploitables.

Notons que Three Mile Island, Tchernobyl et Fukushima ont tout de même fourni une brassée d’informations sur ce qui pouvait advenir dans la réalité, et qui n’était pas toujours pris en compte dans les simulations.

Par ailleurs, les nombreuses anomalies découvertes au cours des inspections ou à l’occasion d’un incident de bas niveau ( sur l’échelle INES), permettent de renforcer la connaissance des points faibles et d’enrichir le savoir faire en matière de sureté.

La perception de la sureté nucléaire par le public est le résultat d’influences médiatiques diverses, parfois sous tendues par des positions idéologiques et/ou politiques, voire même par des intérêts commerciaux.

- EDF , AREVA et le CEA développent le thème de la sureté maîtrisée, et sont moteurs dans les recherches sur ce domaine.

- L’IRSN émet des remarques et fait des suggestions, mais ne dispose d’aucun pouvoir réel sinon celui que lui confère son expertise reconnue.

- Les comités d’élus locaux et d’usagers ( CLIS) tentent d’y voir clair tout en restant attentifs à la sauvegarde des emplois et aux retombées financières. Un de leurs soucis est d’obtenir des expertises d’organismes indépendants à la fois des industriels, de l’exploitant et de l’autorité de tutelle, ce qui semble assez illusoire (En effet, un véritable expert nucléaire ne peut qu’appartenir au sérail, donc sans réelle indépendance dans l’expression de son jugement. Les risques de conflits d’intérêts sont évidents).

- Les écologistes font feu de tout bois pour obtenir la sortie sans nuance du nucléaire et le basculement sur les énergies nouvelles. Leur position manichéenne les place hors course pour la recherche d’un consensus.

- Le Gouvernement n’a qu’une hantise, ne pas mettre le pays en panne d’électricité, ce qui implique de ne rien arrêter avant d’avoir une solution de rechange disponible.

- Le consommateur continue de consommer imperturbablement, refusant à la fois des restrictions et/ou une quelconque augmentation de tarif du KWh.

Il est difficile dans ce contexte de décider une politique énergétique consensuelle garantissant à la fois la sécurité des populations et celle des approvisionnements.

Une chose est sûre: plus le parc nucléaire vieillit, et plus la probabilité d’accident majeur augmente.

Les premiers réacteurs français ( Palier CP0) ont été conçus selon les connaissances et la technologie de 1970. Il y en a deux à Fessenheim et quatre au Bugey. Fessenheim 1 est le prototype de la série. Ils sont en service depuis 35 ans et ont donc dépassé de 5 ans la durée prévue au départ. On peut donc s’interroger sur l’opportunité de les maintenir en service.

Malgré les savants programmes de simulations d’accidents ( EPS, Etudes Probabilistes de Sureté), rien ne permet d’indiquer une date précise au-delà de laquelle la sureté ne serait plus assurée. Les programmes de simulation mathématiques ne peuvent donner qu’un résultat probabiliste en termes de taux de défaut par unité de temps ( Lambda):

«  La probabilité qu’un accident de tel type se produise sur CE réacteur dans l’année qui vient est de tant… ».

Ce qui, concrètement, n’est pas très exploitable: Qui décidera que tel niveau de probabilité est acceptable ou non ?

Et de plus tous les programmes de simulation d’accidents ne sont pas d’accord sur les résultats prévisionnels, aucun d’entre eux n’ayant été testé sur des cas concrets, et pour cause.

Notons au passage que l’analyse des accidents ou incidents « célèbres » montre que les causes déclenchantes n’étaient en général pas prévues par les programmes de simulation d’accidents ( par exemple la surcote de la grande marée au niveau de la centrale du Blayais, pas plus que la hauteur de la vague du tsunami japonais, ni les manœuvres douteuses de Tchernobyl).

La décision d’arrêter ou non un réacteur pour des raisons de sécurité ne peut alors être prise qu’à partir d’éléments dont aucun n’est tout à fait probant tout seul, mais qui ensemble peuvent former un faisceau de présomptions convainquant. La décision finale restera toujours au Politique, dont les critères de jugement sont rarement fondés sur l’approche scientifique.

Il suffit de se remémorer les « affaires » de l’Amiante et du sang contaminé, pour comprendre de quoi nous voulons parler.

Dans une installation électro nucléaire on peut remplacer à peu près toutes les pièces sauf la cuve qui contient le cœur, et dont le remplacement n’est pas prévu lors de la conception, on peut d’ailleurs se demander pourquoi.

( On peut cependant remplacer le couvercle de cuve, qui est démontable pour permettre le changement de combustible).

On doit donc s’interroger sur le vieillissement de cette cuve.

Sur un réacteur de 900 MWe du palier CP0 ( Fessenheim et Bugey), c’est une pièce de chaudronnerie impressionnante de 13 mètres de hauteur, 4 mètres de diamètre, avec des parois de 20 cm d’épaisseur, le tout en acier pour un poids de 330 tonnes !

Il y a un couvercle démontable ( il faut bien pourvoir introduire le combustible et l’extraire quand il est usé), ce couvercle est percé d’orifices recevant des manchons frittés pour le passage des commandes de barres de contrôle et de divers capteurs. Quelques passages sont également disposés dans la paroi de fond de cuve. Tous ces passages sont soudés à l’Inconel.

La nuance d’acier de cuve ( 16 MND 5) a été choisie pour sa bonne résistance à la traction. Mais cet acier est vulnérable à la corrosion par l’acide borique mélangé à l’eau de refroidissement pour contrôler les neutrons. On a donc doublé l’intérieur de la cuve avec une paroi en acier inoxydable soudée de 5 mm d’épaisseur, qui résiste à la corrosion.

Sur les côtés il y a des orifices destinés à recevoir les tuyaux d’arrivée et de départ de l’eau de refroidissement. Ces tuyaux sont soudés à l’Inconel.

Cette cuve est soumise à diverses contraintes:

- La température, plus de 300 °.

- La pression, 155 kg nominal, plus de 200 kg en test.

- Les vibrations.

- Et surtout le flux de neutrons issus du cœur.

Le flux de neutrons fragilise l’acier en modifiant sa structure cristalline et en provoquant des migrations d’impuretés qui ont tendance à se concentrer dans des zones qui deviennent des sources de failles.

La température de transition ductile/fragile est également modifiée (augmentation), ce qui peut rendre l’acier plus vulnérable au choc thermique d’une injection d’eau froide en cas de perte de réfrigérant.

( Au-dessus de la température de transition Tt, l’acier est ductile et peut donc supporter des déformations. Au-dessous de cette température, il devient fragile et cassant. Or le flux de neutrons entraîne à la longue une augmentation de Tt, qui peut alors faire passer l’acier de la cuve dans le domaine fragile en cas de contact avec de l’eau froide).

Il y a donc des causes tout à fait objectives d’usure du matériau de la cuve par fragilisation du matériau et fissuration.

Les conséquences de cette usure sont aggravées par la présence de défauts du matériau à la fabrication, défauts pas nécessairement identifiés au départ, et qui peuvent aussi apparaître lors de la soudure du revêtement en acier inoxydable.

Par ailleurs les repiquages des tuyaux présentent des microfailles au niveau des soudures, qui évoluent également sous le flux des neutrons et s’aggravent avec les contraintes mécaniques( vibrations, contraintes thermiques, pression). Cela fragilise l’ensemble de la cuve.

Les microfailles présentes au niveau des passages de capteurs peuvent constituer des micro fuites d’eau borée qui va passer la barrière d’acier inox et venir ronger la paroi d’acier de cuve sensible à la corrosion.

( Evènement découvert fortuitement sur le réacteur de Davis Besse).

Au bout que quelques dizaines d’années de ce régime, la cuve se trouve donc fragilisée. S’il se produit alors un accident entraînant le dénoyage du cœur et une fusion même partielle, la cuve ne sera peut-être plus assez résistante pour contenir le corium, surtout s’il se produit une surpression explosive de vapeur d’eau au contact du corium avec l’eau de fond de cuve.

L’accident majeur est alors assuré.

Pour éviter d’en arriver là , chaque cuve est l’objet d’une surveillance attentive. A la mise en service, des éprouvettes du même métal sont placées à l’intérieur de la cuve à des endroits très exposés au flux de neutrons. Périodiquement, à l’occasion d’arrêts pour remplacement du combustible et à chaque visite décennale, on prélève quelques éprouvettes et on leur fait subir des tests pour vérifier l’évolution de leurs propriétés mécaniques. Ce procédé permet indirectement d’avoir une bonne information sur le vieillissement de l’acier de la cuve, du moins on l’espère.

(Il faut noter que la validité de ce procédé ne recueille pas l’unanimité. Certains considèrent que les tests sur éprouvettes ne représentent pas l’état réel de l’acier de la cuve).

On procède également à la surveillance de l’évolution des failles précédemment détectées, par une analyse en profondeur à l’aide d’ultrasons ou autres méthodes comme la radiographie ou les courants de Foucault.

Ces inspections sont effectuées à l’aide d’une équipement spécifique appelé MIS ( Machine d’Inspection en Service). Il s’agit d’un ensemble d’instruments de test in situ montés sur une structure de 10 m de hauteur et de 12 tonnes, introduite dans la cuve par la partie supérieure. Un cycle d’inspection dure 9 jours en 3x8.

Ces problèmes de vieillissement sont bien sûr parfaitement connus de EDF, qui en a tenu compte dans la conception des nouveaux réacteurs (EPR) afin de prolonger leur période d’exploitation sur 60 ans ou plus:

D’une part la cuve des EPR est munie à l’intérieur de réflecteurs de neutrons qui réduisent considérablement l’importance de la fragilisation de l’acier sous le flux neutronique.

D’autre part, il est prévu sous la cuve un dispositif récupérateur de corium permettant son étalement et son refroidissement pour assurer sa neutralisation en cas de rupture de cuve.

De plus les piquages de pénétration des instruments en fond de cuve ont été supprimés, pour limiter les risques de fuite à cet endroit stratégique.

L’absence de ces précautions sur les réacteurs d’ancienne génération plaide en faveur de leur mise à la retraite dans les meilleurs délais.

Une telle décision donnerait du corps au programme de sureté nucléaire en renforçant la crédibilité de l’Autorité de Sureté et de l’Industriel.

Les circonstances qui peuvent menacer la sécurité d’une installation constituent un faisceau de différents phénomènes dont il faut absolument éviter la convergence:

- Les défauts propres aux installations, et qui n’auraient pas été corrigés en temps réel ou à la suite des visites décennales. Défauts des structures, de la tuyauterie, des pompes, de la cuve, de la robinetterie, des soudures, des alimentations, des systèmes de sécurité, etc, etc…( Voir rapports d’inspection).

- Les remises à niveaux ( ou non) du matériel, des systèmes de commandes et des logiciels, en fonction des progrès de la technologie.

- Les problèmes de cohabitation de technologies inhomogènes datant d’époques différentes.

- La vulnérabilité du site aux risques extérieurs tels qu’inondations, séismes, chute d’aéronef, attentats, et les protections associées.

- La fiabilité du personnel qui assure la conduite et la surveillance des installations, sa capacité à gérer les situations de crises.

- Les structures d’intervention extérieures, leur compétence, leur disponibilité permanente et la logistique d’accompagnement de crise.

- Les dispositions visant à l’information, la protection et l’évacuation des populations.

Si ces différents domaines de responsabilité et d’action ne sont pas à leur niveau d’excellence, la sureté de l’installation n’est pas assurée.

La sureté nucléaire a donc un coût, certainement considérable, qui doit être pris en compte à son juste niveau dans les calculs de prix de revient.

Le bon équilibre entre la recherche de l’excellence et la recherche de la rentabilité implique des choix qui peuvent faire pencher la balance du mauvais côté.

La sureté d’une installation nucléaire ne doit pas relever des règles ordinaires, inadaptées à l’ampleur de l’enjeu collectif de santé publique .

Sauf à accepter la possibilité d’un accident majeur tout les dix ans, l’industrie nucléaire devra procéder à un changement d’échelle dans la prise en compte des risques spécifiques, et évaluer justement le coût de cette politique de sureté.

Il est évident que cette évaluation devra inclure le traitement des déchets et le démantèlement des installations mises à l’arrêt.

La France possède cinquante-huit réacteurs en service. Il aura fallu la catastrophe de Fukushima pour que l’autorité de sureté nucléaire procède à une inspection générale du parc, accompagnée de « stress tests » .

Cette inspection a mis en évidence des « anomalies » dont chacune est susceptible d’être à l’origine d’un évènement déclencheur, ou d’en aggraver les conséquences.

Malgré ces constats peu rassurants, l’Autorité a conclu que, moyennant quelques travaux de renforcement de principe, tout allait pour le mieux dans le meilleur des mondes nucléaires possibles.

La plus vieille centrale ( Fessenheim) vient de voir sa durée d’exploitation prolongée jusqu’à quarante ans ( 2017) malgré les mises en garde fondées sur des risques environnementaux reconnus:

- Position à 8m en contrebas du niveau du Grand canal d’Alsace.

- Implantation en zone sismique.

- Proximité immédiate de la plus grande nappe aquifère d’Europe.

- Insuffisance d’épaisseur du radier du réacteur N°1.

- Vétusté des installations.

Sans parler des autres défauts décrits dans les rapports de l’IRSN.

On peut donc conclure à l’absence de progrès dans la prise en compte effective du risque nucléaire, qui reste géré comme tout autre risque industriel malgré les annonces incantatoires des autorités de tutelle.

Ce qui n’est pas de nature à rassurer les populations dans un pays à forte densité d’urbanisation et au moment du passage à la génération EPR.

De même qu’il est impossible de garantir le risque zéro dans les transports aériens, il serait malhonnête de prétendre y atteindre avec le nucléaire.

La population est fondée à exiger la plus grande transparence ainsi que l’accès le plus large aux informations qui doivent pouvoir être analysées et interprétées en toute indépendance vis-à-vis de l’industriel, de l’exploitant, et de l’autorité de tutelle.

De grands progrès ont été réalisés dans le domaine de l’identification des points faibles du système. On sait ce qu’il ne faut pas faire, quelles sont les améliorations à apporter aux installations existantes, quelles sont les études à entreprendre pour développer les connaissances, quels sont les efforts à déployer pour atteindre l’excellence dans la formation du personnel, la gestion de la sous-traitance, la maîtrise des systèmes informatiques.

Le plus dur reste à faire: mettre tout cela en pratique…

Repost 0
3 juillet 2012 2 03 /07 /juillet /2012 16:58

 

03 Juillet 2012

En cette période de veillée d’armes, qui voit chacun fourbir ses arguments en faveur de telle ou telle politique énergétique, il n’est pas inutile de passer les troupes en revue afin d’essayer de mesurer les forces et les faiblesses des futurs candidats au remplacement du pétrole et de ses acolytes le gaz et le charbon.

Auparavant il est important de lever un malentendu à propos du challenge des énergies durables. Les médias évaluent souvent leurs possibilités en termes de pourcentage de remplacement dans le domaine de l’énergie électrique, l’objectif étant alors les 300 ou 400 TWh électriques actuellement consommés.

La réalité est toute autre car il s’agit en fait de remplacer à terme la totalité des énergies fossiles carbonées et du nucléaire, soit 87% de l’énergie finale consommée.

Ce qui change complètement la donne.

La consommation 2010 d’énergie finale en France a été d’environ

160 Mtep, ou encore 1 860 TWh , dont 320 TWh d’électricité nucléaire.

Le panier énergétique était le suivant:

Pétrole: 42,1%

Gaz naturel: 22,7%

Charbon: 4,7%

Total fossiles carbonées: 69,5%

Nucléaire: 17,1%

Bois/Biomasse: 6,4%

Hydraulique: 3,5%

Agro carburants/ 1,7%

PAC: 0,8%

Eolien: 0,6%

Solaire +

Biogaz +

Géothermie +

Déchets: 0,5%

Total renouvelables: 13,5%

Source: SOES/ 2011

Près de 87% de l’énergie finale consommée en France sont donc d’origine fossile carbonée et nucléaire, les énergies durables étant encore très minoritaires.

Le basculement vers les énergies durables ne peut être qu’un processus lent soumis aux aléas de la Politique d’une part, au coût des combustibles fossiles d’autre part, aux possibilités de financement et aux aléas du marché en général, et bien sûr à l’occurrence de la pénurie de combustibles fossiles.

On ne peut donc que faire des hypothèses sur la physionomie du futur mix énergétique, en ayant conscience de la fragilité du scénario.

Notre scénario pour 2050 est basé sur le mix énergétique suivant:

Consommation finale: 2 000 Twh ( 170 Mtep)

( Demande supposée stabilisée grâce aux économies d’énergie ).

Répartition: Fossiles et nucléaire: 50%

Renouvelables: 50%

(Le basculement total sur les énergies renouvelables ne nous paraît pas crédible avant la fin de ce siècle).

En 2050, 1 000 TWh seraient donc issus des énergies renouvelables, répartis comme suit:

- Eolien: 30% 300 TWh

- Solaire Thermique: 15% 150 TWh

- Solaire Photovoltaïque: 15% 150 TWh

- Hydraulique: 10% 100 TWh

- Géothermique: 10% 100 TWh

- Biomasse: 20% 200 TWh

( Incluant bois énergie et valorisation des déchets)

Cette répartition correspond à un scénario moyen, d’autres hypothèses seraient tout aussi recevables. Nous avons donné le rôle principal à l’Eolien et au Solaire, chargés de fournir 60% du renouvelable en 2050. L’Hydraulique ne semble pas susceptible d’une forte croissance, la biomasse parait plus prometteuse.

Cette énergie de substitution se présentera essentiellement sous forme d’électricité, soit directement par nature ( Eolien, photovoltaïque, hydraulique), soit convertie en électricité pour faciliter son transport par le réseau ( Centrale solaire thermique ). Une partie sera disponible sous forme de gaz et sous forme de carburants liquides pour les transports (Biomasse, déchets, GTL) ou directement sous forme de chaleur (Géothermie, bois énergie).

L’électricité restera le médium privilégié car elle seule permet le transport d’énormes quantités d’énergie instantanément sur de très longues distances, ce qui est indispensable car les lieux de production sont souvent loin des lieux de consommation, les lieux de production étant eux-mêmes fluctuants au gré des vents et de l’ensoleillement ( Solaire et éolien).

Le développement de cette stratégie restera fortement conditionné par la disponibilité de solutions de stockage de l’énergie électrique. Ce problème peut même s’avérer un obstacle insurmontable en cas d’impossibilité de pallier l’intermittence des sources.

Cette production électrique sera obtenue par la mise en œuvre de divers procédés connus: Eolien, Solaire, Hydraulique, Géothermie, Biomasse, etc.

La contribution de ces divers procédés dépendra de nombreux facteurs tels que le coût, l’acceptabilité par la population, la possibilité ou non de stockage de l’électricité, les capacités de gestion du réseau, etc…

Examinons le cas de l’Eolien:

La France ne manque pas d’air, ses façades maritimes lui garantissent un régime de vents propice à une exploitation efficace.

Nous exploiterons les données fournies par FEE ( France Energie Eolienne), qui est l’organe spécialisé du SER ( Syndicat professionnel des Energies Renouvelables).

Fin 2010, le parc éolien du territoire métropolitain comportait 2 909 éoliennes terrestres pour une puissance installée de 5 230 MW.

La puissance installée moyenne des machines, 1,8 MW, traduit la modernité des installations qui pour la plupart sont assez récentes.

La production annuelle 2010 effective de ce parc a été de 8,7 TWh.

La production annuelle potentielle théorique étant de 45,8 Twh.

Le facteur d’efficacité est donc d’environ 19%, valeur plutôt classique pour de l’éolien terrestre.

Ces données nous suggèrent quelques réflexions:

En termes économiques de coût de l’énergie primaire, un facteur d’efficacité de 19%, certes peu élevé, reste rentable puisque le vent est gratuit, contrairement au pétrole ou au gaz .

Les éoliennes off shore offrent une efficacité double ( environ 40%). Les premières éoliennes de ce type ne seront opérationnelles sur les côtes françaises qu’après 2015 ( ou 2018 ?).

En 2050 on peut estimer que le parc éolien français sera réparti ainsi, en termes de production:

Off shore: 60% / Machines de 5 MW.

Terrestres: 40% / Machines de 3 MW.

Une machine terrestre de 3 MW installés produit environ 5 GWh annuellement.

Une machine off shore de 5 MW produira 17,5 GWh.

Pour produire 300 TWh en 2050 ( selon notre scénario), le parc éolien devra donc comporter environ 24 000 éoliennes terrestres et 10 000 éoliennes off shore.

Ceci en 2050 et pour une participation des énergies durables à hauteur de 50% de l’énergie totale consommée.

Ces quantités sont à multiplier par deux dans la perspective d’une substitution complète des énergies fossiles et nucléaire par l’ensemble des énergies durables, à une échéance de la fin du siècle.

Serons-nous prêts à accepter un environnement peuplé de plus de 70 000 éoliennes ?

On peut raisonnablement penser que le développement de l’Eolien à un tel niveau rencontrera de gros problèmes d’acceptabilité par les populations.

Indépendamment bien sûr des problèmes de coût d’investissement et de prix de revient de l’énergie produite.

Qu’en est-il pour le Solaire ?

Dans notre hypothèse l’énergie solaire contribuerait en 2050 à hauteur de 300 TWh également, répartis pour moitié en centrales solaires thermiques et pour moitié en Photovoltaïque.

Les centrales solaires thermiques occuperaient une surface de l’ordre de 400 km2, selon les rendements retenus et l’ensoleillement disponible.

Ceci pourrait correspondre à une quinzaine d’unités de production de 25 km2, situées dans le Sud du pays.

La production photovoltaïque serait répartie entre des centrales de forte puissance et des unités de production réparties sur les surfaces disponibles du territoire ( toitures).

L’exploitation de l’énergie solaire posera donc infiniment moins de problèmes environnementaux que l’exploitation des vents, du moins ces problèmes seront-ils localisés. L’emprise foncière restera modérée, en tous cas très inférieure à celle des nouvelles constructions de logements et/ou des surfaces consacrées à la production d’agro carburants.

Les autres sources d’énergie durable poseront encore moins de problèmes.

Le développement de l’hydraulique sera limité par les contraintes environnementales, une croissance significative n’est possible qu’en se tournant vers la Mer.

La biomasse, le bois énergie, les agro carburants, la valorisation des déchets, sont des gisements d’énergie prometteurs mais d’une part leur contribution future est difficile à évaluer, et d’autre part leur impact sur l’environnement peut ne pas être négligeable( encouragement à la déforestation, emprise sur les terres agricoles, émission de fumées polluantes, bilan CO2 discutable).

De cette analyse très sommaire il ressort que le remplacement des énergies fossiles carbonées et du nucléaire par des énergies renouvelables propres sera une entreprise de grande ampleur et de longue durée qui nécessitera l’adhésion de la population car des sacrifices devront être consentis.

Les Etats auront le choix entre deux stratégies:

La première consiste à ne rien faire tant que les énergies fossiles restent disponibles à un coût acceptable. Stratégie compréhensible à la rigueur pour les Etats disposant de leurs propres réserves énergétiques, mais stratégie suicidaire en l’absence de ressources internes.

La seconde option consiste à établir un programme cadre pour le développement des énergies durables, fixer les objectifs dans les différents domaines énergétiques, établir un calendrier et un budget, définir les moyens et les ressources humaines, mettre en place des structures pérennes capables de gérer ce programme sur plusieurs décennies, sur le modèle de ce qui fut fait avec succès pour le développement du nucléaire.

Peut-être une ambition à la hauteur de la future nouvelle Europe ?

 

 

 

 

 

 

 

 

Repost 0
22 juin 2012 5 22 /06 /juin /2012 07:32
22 Juin 2012
La centrale nucléaire de Fessenheim est appelée à occuper le devant de la scène lorsque le programme énergétique de la France viendra à l’ordre du jour, ce qui ne saurait tarder.
L’affaire est désormais connue, inutile de refaire l’histoire.
Je voudrais parler de l’importance particulière de l’eau comme facteur de risque à Fessenheim.
La centrale est implantée au bord du grand canal d’Alsace.
Le schéma ci-dessous est une coupe transversale de la vallée.
Les-crues-du-Rhin_1.png
 
Le grand canal d’Alsace a été construit pour pallier les caprices du Rhin « naturel » dont les nombreux méandres fantaisistes rendaient la navigation très problématique.
Des travaux d’endiguement ont contribué à maintenir le fleuve dans un lit mineur en temps normal, lit bordé par des digues submersibles.
En période de crues, un lit majeur a été défini par des digues insubmersibles qui protègent en dernier ressort les habitations et les installations industrielles.
 
Les-crues-du-Rhin_3.png 
 
 
L’eau du fleuve est partagée entre le Rhin naturel d’une part, et le canal d’Alsace d’autre part, ce partage étant réalisé au niveau du barrage de Kembs situé en amont, grâce à cinq portes monumentales télécommandées. Le canal d’Alsace reçoit un débit régulier nécessaire pour la navigation et pour le fonctionnement des usines hydroélectriques classiques et nucléaire. Le débit max dans le canal est de 1 400 m3/s.
Le reste est envoyé dans le Rhin naturel.
La centrale nucléaire se contente d’utiliser l’eau du canal pour refroidir le circuit secondaire des réacteurs, l’eau utilisée est rejetée dans le canal.
(En effet, les deux réacteurs produisent à eux deux 5 400 MW thermiques, dont le tiers est transformé en électricité, le reste est évacué par les radiateurs et sert à chauffer l’eau du canal. Il y a tout de même 3 600 MW thermiques à évacuer, ce qui demande un débit d’eau colossal, équivalent à celui d’un fleuve moyen).
Le débit moyen du Rhin est de 1050 m3/s, mais il peut monter jusqu’à 5000 m3/s lors des crues de Juin/Juillet ( crue des cerises). Le fleuve occupe alors son lit majeur.
Les crues du fleuve sont gérées par un organisme Franco-Allemand qui s’appuie sur plusieurs échelons:
- D’abord la gestion prévisionnelle des niveaux du grand canal et de la retenue de Kembs afin de constituer des réserves de capacité.
- Ensuite l’occupation du lit majeur.
- Puis l’intervention des « barrages agricoles », côté allemand .
- Enfin l’ennoyage des polders.
( Les polders sont des grands bassins de rétention aménagés tout au long du cours du fleuve et qui sont remplis selon les besoins pour absorber le surplus d’eau. Ils fonctionnent à l’envers de leurs homologues néerlandais).
Ce dispositif complexe permet de contenir les crues du fleuve, même à l’occasion des crues centennales avec un débit de 5000 m3/s.
Inutile de préciser que la centrale nucléaire est située au-dessus du niveau des plus hautes eaux centennales, ainsi que les autres centrales.
Bien sûr, on peut toujours s’interroger sur les conséquences du réchauffement climatique sur le régime des crues du Rhin, et sur la capacité des moyens de contrôle à gérer des surcotes imprévues.
La centrale de Fessenheim se trouve donc théoriquement protégée contre tout risque d’inondation due aux crues du Rhin, dans la mesure où elles ne dépassent pas le maximum syndical fixé par les ingénieurs.
On peut se demander pourquoi les bâtiments de la centrale ont été installés au pied du Grand canal. Il y a à ce choix étrange plusieurs raisons:
- La première raison tient à la fiabilité de la source d’eau dont le débit est contrôlé par les portes du barrage de Kembs en amont, et à la protection vis-à-vis des crues maximales ( Protection réalisée par les digues du canal puisque la centrale se trouve rive gauche et que le danger vient de la rive droite).
- La deuxième raison tient à la nécessité d’avoir accès à l’eau directement, avec une dénivelée la plus faible possible. En effet, la puissance requise pour pomper l’eau augmente avec la dénivelée, et peut atteindre plusieurs mégawatts par mètre pour des débits de 50 m3/s.
Le choix de l’emplacement actuel permet de « limiter » la puissance des pompes à 6 Mégawatts !
- La troisième raison est liée au poids des installations. Il serait hasardeux de monter des bâtiments de réacteurs sur des structures artificielles en hauteur. Le poids énorme de ces structures entrainerait des risques de tassement de terrain préjudiciable à la sécurité. C’est pourquoi on se « limite » à un radier en béton posé sur le sol naturel éventuellement stabilisé.
Pour toutes ces raisons, la centrale se trouve au pied du canal , à environ 8 mètres en dessous du niveau des eaux.
Le schéma ci-dessous donne une vue transversale d’ensemble.
Coupe-grand-canal-d-Alsace.png
 
Il est évident qu’une rupture de la digue entraînerait une catastrophe nucléaire majeure avec fusion des cœurs, percement du radier et contamination de la nappe phréatique.
Parmi les causes de ruptures de la digue on de doit pas oublier un accident de navigation par un des nombreux navires qui transitent par les écluses de Fessenheim, à hauteur de la centrale. On ne doit pas écarter non plus la possibilité d’une explosion sur un navire, accident ou sabotage.
Mais cette digue , de par ses dimensions imposantes ( voir schéma) , semble à l’abri d’une rupture fortuite. Elle est l’objet d’une surveillance constante pour la détection des éventuelles fuites, et l’entretien du revêtement d’étanchéité en béton.
Cependant il faut tenir compte de la nature sismique de la région, siège de fréquents tremblements de terre de magnitudes modestes . On ne peut écarter le risque d’un séisme majeur, dont la date et la magnitude sont bien sûr inconnues. Il en a été tenu compte dans la conception de l’ouvrage , en prenant comme référence la magnitude la plus forte jamais enregistrée.
Hélas cette référence n’est pas fiable car elle n’est qu’une évaluation à partir d’indices fragiles.
Les partisans de la fermeture du site utilisent ce danger comme principal argument, non sans quelques raisons.
Le risque sismique ne concerne pas seulement la digue. Le danger principal concerne les bâtiments des réacteurs, les bâtiments des pompes, les bâtiments de contrôle, les équipements d’assistance, les équipements d’alimentation électrique, les piscines à combustibles, les pompes de secours, les accès aux sources auxiliaires de refroidissement.
Tout ce petit monde , interconnecté par des câbles, des tuyaux, etc , subirait de gros dégâts susceptibles de conduire à une catastrophe nucléaire majeure.
Mais hélas une autre donnée vient compliquer le problème.
Le schéma ci-dessous montre que la centrale est installée sur la nappe aquifère d’Alsace.
Nappe-phreatique-d-Alsace-1.png
 
Cette nappe est la plus grande réserve d’eau douce d’Europe. Les relevés de l’APRONA ci-dessous montrent que l’eau n’est qu’à quelques mètres de profondeur.
Profondeur-nappe-d-alsace-a-Fessenheim.png
 
On imagine sans peine l’ampleur des dégâts causés par un corium pénétrant dans la nappe après avoir traversé le radier de béton. Un accident qui créerait une situation de crise sans précédent.
Et ceci alors que la digue pourrait rester intacte.
Les opposants au maintien de la centrale en fonctionnement ne manquent donc pas d’arguments fondés pour exiger son arrêt.
Trois évènements externes ont donc été identifiés comme pouvant chacun entraîner une catastrophe majeure:
- Une rupture de la digue.
- Une inondation due à une crue de surcote.
- Un séisme.
A ces évènements externes viennent s’ajouter bien sûr les cause internes possibles d’accident nucléaire, inhérentes au système nucléaire lui-même.
A chacune de ces causes prises séparément on peut opposer la liste des mesures de sécurité préventives et curatives prévues.
Mais le cumul de toutes ces causes conduit à une probabilité d’accident majeur préoccupante.
La préoccupation est renforcée par le constat de certaines anomalies susceptibles d’aggraver les conséquences d’un éventuel accident:
- Implantation de la centrale à un niveau très inférieur au niveau de l’eau du canal.
- Epaisseur du radier notoirement trop faible ( 1,5 m ). Les autres centrales ont des radiers de 3m d’épaisseur.
- Absence de dispositif d’étalement et de récupération du corium. Ce dispositif est prévu sur les futurs EPR.
- Absence de solution de secours pour le refroidissement en cas de défaillance du circuit principal ou d’obstruction des grilles de captation.
- Trop grande proximité de la nappe phréatique.
- Protection insuffisante des bâtiments stratégiques contre les inondations (seule une digue de 1 m entoure la zone stratégique).
L’accumulation de ces défauts et de ces facteurs de risques laisse penser que la centrale est une bombe à retardement, et qui le restera malgré les quelques travaux d’aménagement prévus par EDF.
C’est une lourde responsabilité qui sera engagée par l’autorité qui prendra la décision de poursuivre l’exploitation de ce site, en laissant peser sur la région, les populations et l’environnement, une menace aussi bien identifiée.
Repost 0
18 juin 2012 1 18 /06 /juin /2012 11:47

 

18 Juin 2012

L’OMS vient donc d’annoncer le classement des émissions des moteurs Diesel en Groupe1, qui réunit les produits dont le caractère cancérigène est prouvé.

Quelles peuvent être les conséquences d’un tel classement ?

Rassurez-vous, aucune conséquence fâcheuse directe à court terme n’est attendue pour les pourvoyeurs de ces produits et leurs usagers.

Ce fameux Groupe 1 comporte 107 produits dont beaucoup sont encore d’usage courant, comme l’alcool et le tabac. Et, comme chacun peut le constater, ces produits ne sont l’objet d’aucune mesure d’interdiction de vente ou de consommation.

L’Amiante, déclaré cancérigène en 1973, n’a été interdit que 24 ans plus tard.

Le consommateur, qui ne peut ignorer les ravages provoqués par l’alcool et le tabac, continue cependant de consommer ces produits en toute indifférence.

Le groupe 1 comprend également les radiations solaires ultraviolettes, et cependant l’exposition des personnes, et surtout des jeunes enfants, n’est toujours pas interdite, ni même règlementée.

Il ne faut pas s’attendre à une réaction de rejet des consommateurs contre les moteurs Diesel, du moins tant que la fiscalité sur le carburant restera attractive.

L’annonce de l’OMS n’aura donc pas plus d’effet qu’un pet sur une toile cirée.

Les industriels de tout secteurs ont depuis longtemps entrepris des études pour réduire les émissions polluantes de leurs matériels, sous la pression des règlements Européens dans le cadre de la lutte contre la pollution de l’air ambiant. Le Diesel notamment a été particulièrement soigné grâce au montage des filtres à particules, qui restent cependant très controversés dans leur usage citadin, là où ils seraient le plus utile.

D’autre part les pouvoirs publics disposent de l’outil ZAPA ( Zones d’Actions Prioritaires pour l’Air) leur permettant de gérer de manière souple et progressive les éventuelles mesures restrictives de circulation.

Huit projets de ZAPA sont en cours d’études préliminaires.

Le classement de l’OMS, en offrant une base juridique, pourrait être une incitation à accélérer ces projets.

Mais une interdiction des centres villes aux véhicules les plus polluants, en principe les plus anciens, aurait un caractère socialement discriminatoire qui provoquerait un rejet de la population, avec des retombées électorales que tout élu aura à cœur d’éviter. Si seuls les véhicules de moins de cinq ans sont autorisés par exemple, c’est l’ensemble d’une classe sociale qui sera exclue, ce qui paraît assez surréaliste.

L’expérience malheureuse de feu la pastille verte aura au moins permis de toucher du doigt la complexité du problème.

La dépollution des centres villes n’est pas une mince affaire. La solution semble se trouver du côté de la promotion des moyens de transport collectifs électriques plutôt que par l’appel à des mesures discriminatoires fort impopulaires.

La généralisation des tramways et/ou métros avec extension des réseaux en banlieues est une première étape en voie de réalisation.

L’étape suivante pourrait être réalisée grâce aux véhicules hybrides à condition qu’ils puissent être généralisés sous peine de retomber dans des mesures discriminatoires.

Réduire les émissions polluantes des véhicules ne suffira pas à réduire la pollution urbaine. Les autres sources de pollution, notamment les chaudières au fuel, au charbon, ou au bois, devront faire l’objet de mesures aussi sévères sous peine de résultats globaux insuffisants.

Il s’agit donc d’une démarche généralisée qui passe par les économies d’énergie, le recours aux énergies durables, et le développement de solutions de transport écologiques.

Prendre le contre-pied des méthodes actuelles dispendieuses et indifférentes à l’environnement ne se fera pas sans remise en question de nos modes de vie, ce qui peut prendre plusieurs décennies.

Repost 0
14 juin 2012 4 14 /06 /juin /2012 17:49

 

14 Juin 2012

La polémique autour du Nucléaire a eu le mérite de faire remonter à la surface un risque essentiel non maîtrisé, celui de l’interruption accidentelle du refroidissement d’un réacteur.

Le rôle du fluide de refroidissement est d’évacuer la totalité de la puissance thermique développée par le réacteur. Une partie de cette puissance est utilisée pour faire fonctionner une turbine qui entraîne un alternateur, le reste est dissipé dans une tour de réfrigération ou dans la mer .

Les volumes de fluide de refroidissement nécessaires sont colossaux, pour un seul réacteur le débit est comparable à celui d’un fleuve de moyenne importance !

les pompes utilisées sont énormes.

L’interruption du refroidissement entraîne une catastrophe nucléaire majeure, à l’image de Fukushima.

Heureusement des dispositifs de sécurité permettent l’arrêt d’urgence contrôlé du réacteur. Des circuits de secours existent pour pallier les défaillances du circuit principal, des pompes, de l’alimentation électrique, ou de tout autre dispositif de régulation interne.

Mais certains évènements catastrophiques peuvent compromettre le bon fonctionnement de la chaîne de sécurité.

Il peut s’agir d’un évènement naturel dépassant les prévisions les plus pessimistes: Séisme, inondation, glissement de terrain.

Ou d’un évènement provoqué par la chute d’un avion, d’une météorite, voire même d’un attentat.

Si l’évènement neutralise la chaîne de sécurité, le réacteur peut s’emballer et atteindre des températures auxquelles tout ce qu’il y a dans la cuve fond et s’agglomère en un magma de combustible, d’acier, de Zirconium, le tout plus ou moins pâteux et à une température de 2500 à 3000 °C.

( Cette température correspond à un équilibre de la réaction de fission à la limite de criticité. Aucune explosion nucléaire n’est à craindre).

Ce magma est appelé CORIUM.

Sa température est telle que rien ne lui résiste, ni l’acier, ni le béton. Sa densité très élevée l’entraine vers le bas. En peu de temps la cuve d’acier est percée, et le produit se déverse sur le radier en béton, dans lequel il s’enfonce comme ferait un chalumeau dans de la cire.

Plusieurs mètres de béton peuvent être traversés en quelques jours.

On comprend que, lorsque le Corium a traversé le radier, il va contaminer gravement l’environnement et surtout les nappes phréatiques de proximité.

La situation se complique si le Corium entre en contact avec de l’eau. Le craquage de l’eau se produit à 850 °C environ, produisant entre autre de l’Hydrogène dont l’accumulation est cause d’explosions dévastatrices.

Le contrôle de ce Corium est l’un des problèmes majeurs des concepteurs de réacteurs, problème non encore résolu à ce jour de manière satisfaisante.

Pour tenter d’éviter le pire, il est important de prévoir un processus pour arrêter et refroidir ce Corium afin de lui ôter son pouvoir de nuisance.

Un tel dispositif n’existe pas sur les vieilles centrales, qui sont donc vulnérables à ce type d’accident.

Sur les EPR il est prévu tout un système pour canaliser le Corium vers une chambre d’étalement, laquelle chambre est munie de parois réfractaires et d’un réseau de refroidissement. Encore faut-il que ce réseau de refroidissement ne soit pas affecté par l’accident.

On trouvera ci-après un document de l’IRSN relatif à ce problème.

IRSN

AKTIS/ Actualité de la recherche à l’IRSN

N° 5-2, Numéro spécial. Septembre 2011

« Accidents de fusion du cœur - Réacteurs à eau sous pression

La cinétique d'ablation du béton par un corium

De récentes recherches permettent d'améliorer la prédiction de la cinétique d'ablation du béton du radier du réacteur par le corium, magma métallique résultant de la fusion du cœur. La percée du radier peut conduire au relâchement de produits de fission radiotoxiques.

L'interaction du corium avec le béton (ou ICB) peut percer le fond du radier et donc induire un relâchement de radioéléments dans l'environnement par perte du confinement. Pour évaluer le temps nécessaire pour percer le radier, l'IRSN développe un outil de simulation numérique intégré dans le logiciel de simulation des accidents graves . Il modélise les phénomènes mis en jeu dans l'ICB, notamment ceux traduisant l'influence de la composition du béton sur l'orientation privilégiée de son ablation par le corium .

Ces phénomènes, mis en évidence à l'aide d'expériences à échelle réduite et de simulations numériques , ont été modélisés et les modèles intégrés dans le logiciel Astec, ce qui permet d'extrapoler ces observations à l'échelle du réacteur. Les simulations de scénarios accidentels avec Astec tenant compte de l'influence du type de béton ont ainsi permis de réévaluer les délais de percement du radier en l'absence de refroidissement du corium : de l'ordre de quelques jours pour une épaisseur de radier entre 3 et 4 mètres ».

Fin de citation.

Cas particulier de la centrale de Fessenheim:

- Cette centrale ne comporte aucun dispositif de contrôle de Corium.

- L’épaisseur du radier n’est de 1,5 mètres, il serait donc transpercé en moins d’un jour.

- La centrale est construite sur la nappe phréatique Rhénane, dont le niveau est à - 8m à cet endroit, donc très vulnérable à une pollution par le Corium. Cette nappe est la plus importante d’Europe.

La pénétration du Corium et sa rencontre avec l’eau génèrerait un dégagement gazeux considérable qui créerait une surpression favorisant la dissémination des polluants radioactifs dans la nappe.

Un fois refroidi ( un mois, un an, dix ans? ) un Corium demeure très fortement radioactif et constitue une source de pollution de longue durée. De plus, son destin lorsqu’il a atteint le sous-sol, est inconnu.

Le maintient d’un programme nucléaire implique l’acceptation du risque de voir se produire quelques accidents majeurs susceptibles d’empoisonner durablement des régions entières.

La mise au point de mesures de contrôle d’un éventuel Corium est aujourd’hui l’un des problèmes majeurs des concepteurs de centrales. Ces études ne peuvent s’appuyer sur des expérimentations, et pour cause. Elles sont essentiellement basées sur des modélisations informatiques dont on connait l’imprécision lorsqu’elles ne sont pas soutenues par l’expérience de terrain.

Les analyses des catastrophes passées sont effectuées avec soin ( lorsque c’est possible) pour en retirer tout les enseignements utiles permettant d’éviter les mêmes erreurs dans le futur.

Mais ces progrès ne profiteront que très peu aux vieilles centrales dont la vulnérabilité restera entière.

 

 

 

 
Repost 0
13 juin 2012 3 13 /06 /juin /2012 11:40

Haro sur le Diesel.

13 Juin 2012

Le communiqué de l’OMS à la Presse sur le classement des émissions Diesel en Groupe 1 a fait du bruit dans Landernau.

Du grain à moudre pour les écologistes et pour la communauté des automobilistes diésélisés, au sein de laquelle les rumeurs les plus fantaisistes ont circulé.

Qu’en est-il exactement ?

En 1958 ( Mille neuf cent cinquante huit) l’OMS publiait le 5è rapport du Comité d’Experts de l’Assainissement. Ce rapport mettait déjà l’accent, entre autres, sur la nocivité des émissions des moteurs Diesel. Ce rapport ne faisait que prendre acte d’une situation que l’usager de l’époque pouvait constater tous les jours.

Depuis les technologies ont progressé, des normes sont venues périodiquement forcer la main des constructeurs afin qu’ils réduisent les émissions polluantes de leurs engins.

Mais, même si les panaches de fumée puante ont pratiquement disparu (pas toujours hélas), la nocivité des gaz est toujours présente malgré son invisibilité.

Aussi l’OMS, toujours soucieuse de notre petite santé, était-elle attentive à examiner ce qui sort de nos tuyaux d’échappement. Les moyens d’analyse étant considérablement perfectionnés depuis 1958, il fut constaté que près de 200 produits indésirables sont crachés par nos moteurs, et ceci dans la plus parfaite clandestinité eu égard à leur taille, les plus vicieux étant les plus petits.

A la suite d’études épidémiologiques assez peu concluantes car pas assez systématiques, l’OMS décida de classer les émissions Diesel dans le groupe 2A, c’est-à-dire « probablement cancérogènes ».

Dans le cadre général de la lutte contre la pollution de l’air ambiant, la Commission Européenne adopta des normes définissant des seuils de pollution par les particules, Euro 5 actuellement, Euro 6 bientôt, etc…

Ces normes, tenant compte des recommandations de l’OMS, ont imposé aux constructeurs d’automobiles des contraintes plus sévères, imposant l’utilisation de filtres à particules ( FAP) , et une gestion plus précises de la combustion.

(Ces mêmes normes imposent également des efforts similaires aux constructeurs d’appareils de chauffage à fuel ou a bois, et à toutes les utilisations susceptibles d’émettre des gaz d’échappement).

L’horizon semblait donc s’éclaircir quelque peu.

Il semble que l’OMS ait cru bon d’enfoncer le clou en rappelant la gravité de la menace représentée par les microparticules émises par les moteurs Diesel.

Ce rappel à l’ordre, décidé à l’occasion d’un colloque d’experts début Juin 2012, a surtout été inspiré par la publication en Mars 2012 d’une étude de l’US National Institute et du National Institute for Occupational Safety and Health. Cette étude porte sur le cancer du poumon chez les mineurs de fond exposés à des taux importants de pollution aux microparticules.

L’intérêt de cette étude est d’apporter la preuve du caractère carcinogénique des microparticules, c’est-à-dire de transformer en certitude ce qui n’était jusque là que probabilité.

Cette subtilité sémantique ne change pas grand-chose au problème, sinon qu’elle confirme la nécessité de continuer la lutte contre la pollution de l’air ambiant, ce que l’on savait déjà.

Le communiqué de Presse de l’OMS mentionne expressément le nom du coupable: le moteur Diesel.

« IARC: Diesel engines exhaust carcinogenic »

On peut donc s’attendre à de nombreuses communications sur ce point. Notamment sur l’efficacité des filtres à particules, sur la validité des tests de conformité aux normes, sur le sort qui sera réservé aux véhicules diesel anciens encore en circulation, et sur la pollution des moteurs à essence de nouvelle génération.

Gageons que l’affaire aura également son volet économique puisque vont se trouver face à face:

Les américains, qui ont une aversion pour le diesel.

Les européens, qui lui font le meilleur accueil.

Dans cette optique, la nouvelle Citroen hybride à moteur diesel peut sembler une véritable provocation.

Nous allons bien nous amuser…

Repost 0
12 juin 2012 2 12 /06 /juin /2012 09:55
 
12 Juin 2012
Dans l’article précédent nous évoquions la nouvelle ruée vers l’or noir, rendue possible par l’utilisation de nouvelles technologies de forage, et soutenue par un prix du baril positionné à un niveau élevé estimé stable.
Jusqu’à présent la France n’était pas directement concernée, eu égard à l’absence de ressources pétrolières et gazières significatives sur son territoire ( Oublions le gaz de Lacq et le Sahara, que les moins de vingt ans ne peuvent pas connaître) . Elle pouvait donc se permettre une certaine distance moralisatrice à l’égard des Etats peu soucieux des problèmes environnementaux, notamment concernant l’exploitation des gaz de schiste et des gisements de pétrole off shore profond. Le Canada et les Etats-Unis pouvaient être montrés du doigt en toute bonne conscience, la catastrophe de Deep water horizon pouvait faire la une de nos médias, ce n’était pas pour nous.
Mais aujourd’hui le tableau a changé. Notre sous-sol regorge de gaz de schiste, et l’on a découvert un probable gisement de pétrole au large de la Guyane, à l’intérieur de la Zone Economique d’Influence de 200 Miles, c’est-à-dire en territoire français.
Dans les deux cas l’Etat français se trouve alors devant la nécessité de prendre des décisions et de se positionner par rapport aux impératifs environnementaux.
Pour ce qui concerne l’exploitation des gaz de schiste, un moratoire a été décidé. Il paraît qu’il ne sera éventuellement levé qu’à la condition de faire appel à de nouvelles méthodes n’utilisant pas la fracturation hydraulique.
Acceptons-en l’augure.
Pour le pétrole de Guyane, nous avons de grandes espérances. Un permis « Guyane maritime » a été accordé à la société Tullow Oil pour la prospection du site. Un forage ultra profond a été réalisé, sous 2000 mètres d’eau et 3711 mètres de roche ( Forage « Zaedyus »). Le résultat serait très encourageant. D’autres forages sont lancés pour confirmer les premiers résultats et déterminer le potentiel du site.
Le consortium chargé du projet est constitué par Shell ( 45%), Total (25%), Tullow-Oil ( 27,5%) , et Northpet ( 2,5%).
La production débuterait éventuellement entre 2015 et 2020.
Les organisations locales et internationales de défense de l’environnement protestent énergiquement contre ce qui est perçu comme une atteinte potentielle grave d’une zone très fragile.
La France, qui jusque là pouvait exhiber des mains propres non souillées de pétrole ( sauf de celui qu’elle achète sur les marchés) , va donc rejoindre la cohorte des pays pollueurs.
Sauf si l’éthique de la nouvelle équipe gouvernementale lui suggère des décisions drastiques allant dans le sens de l’abandon du site.
Il va de soi qu’une telle décision n’aurait de sens que si elle était accompagnée d’une interdiction d’importer des produits pétroliers de provenance non conventionnelle.
Occurrence fort improbable…
 
 
 
 
 
 
Repost 0
11 juin 2012 1 11 /06 /juin /2012 18:10

 

11 Juin 2012

« Je vis également Sisyphe, en proie à ses tourments. Il soulevait de ses deux bras un rocher gigantesque. Arc-bouté des pieds et des mains, il poussait ce grand bloc vers le sommet d’une hauteur, mais à peine allait-il le faire basculer, qu’il retombait de tout son poids et le bloc sans pitié roulait de nouveau vers la plaine. Mais lui recommençait, bandant ses muscles. La sueur ruisselait de son corps, et la poussière le nimbait. »
Ce passage d’Homère illustre merveilleusement la situation des écologistes attelés à la tâche gigantesque qui consiste à essayer d’endiguer les assauts des destructeurs de la planète.

Le CO2, le nucléaire, le pétrole, le gaz de schiste, les sables bitumineux, les forages offshore, les nanoparticules, les OGM, les algues vertes, les oxydes d’Azote, le Radon, les additifs alimentaires, les nitrates, les marées noires, le phosphogypse, les micro ondes, les métaux lourds, les méga décharges, la déforestation, la surpêche, le nuage brun d’Asie, les pesticides, etc.

Il faut avoir la foi chevillée à l’âme pour repousser la tentation de baisser les bras devant une tâche aussi démesurée; tirons notre chapeau.

Ces derniers temps, un coin de ciel bleu était venu apporter un peu d’espoir à nos modernes «Sisyphe » . L’Agence internationale de l’énergie confirmait que la production pétrolière avait atteint son maximum en 2010, et commençait à décroître.

Les courbes laissaient prévoir une pénurie avant 2020.

Fini donc l’ère de l’huile puante, voici venue le triomphe des énergies nouvelles propres et décarbonnées, ce combat là au moins semblait gagné.

Hélas, c’était sans compter avec la malignité des hommes. La perspective de pénurie, aidée par quelques soubresauts géopolitiques, a porté le prix du précieux baril à des hauteurs dignes de considération.

Ce qui n’était pas possible avec un baril à 20 Dollars devient très juteux à 100 pour les pourvoyeurs de l’huile.

La perspective d’un prix du baril durablement élevé a provoqué une nouvelle ruée vers l’or noir, mettant à portée des marchés des réserves nouvelles reportant la pénurie aux calendes grecques.

Non seulement le pétrole refait surface, mais en plus les nouveaux procédés d’exploitation imposent à la planète des atteintes environnementales inacceptables.

La guerre doit donc reprendre de plus belle, avec l’objectif de laisser ce nouveau pétrole là où il est, c’est-à-dire sous le plancher océanique et sous la croute continentale.

Mais cette ambition sera-t-elle à la mesure des moyens que le mouvement écologiste peut mobiliser ?

Bien sûr ce mouvement peut s’appuyer sur un grand élan de sympathie dans la population, mais la sympathie n’implique pas forcément l’engagement sur le terrain, les résultats des dernières élections l’ont bien montré.

Et puis notre société n’est-elle pas fondamentalement schizophrène ?

Avides de biens de consommation, nous voulons bien consommer écologique, mais à condition que cela soit rentable. Or l’écologie n’est pas une démarche commerciale, c’est un comportement de survie qui doit garantir à nos descendants des conditions de vie décentes.

Cela implique des sacrifices que peu d’entre nous sont disposés à accepter.

Face à cette mobilisation dépourvue de puissance politique, il y a l’insatiable demande de la planète qui aspire à un progrès devenu inséparable de l’énergie.

Allons, il faudra encore pousser le rocher en espérant qu’un jour il franchira la crête…

Repost 0
9 juin 2012 6 09 /06 /juin /2012 10:10

 

9 Juin 2012

La définition d’une stratégie énergétique pour la France sera l’un des piliers du quinquennat.

Il n’est plus imaginable de continuer à tirer des bords entre les parcs éoliens off shore et les réacteurs nucléaires de quatrième génération sans jamais fixer clairement un cap au bateau France.

Il sera de plus en plus difficile de faire croire que l’on peut à la fois investir des sommes colossales dans le nucléaire, dans les énergies durables, dans les économies d’énergie, tout en soutenant les politiques du logement, de l’Education, de la Santé, de lutte contre la pollution, le tout dans un contexte de dette souveraine indécente.

La distribution de gages aux uns et aux autres n’est pas une stratégie, tout au plus un procédé pour calmer la foule, un peu comme le capitaine d’un navire fait jeter de l’huile pour calmer les vagues sans pour autant arrêter la tempête.

Fessenheim , c’est donc l’huile que l’on jette à la mer en pleine tempête pour calmer les vagues écologistes.

Fessenheim est un vieux machin entré en service en 1977. Après 35 ans de bons (?) et loyaux services, plus que deux ans et demi pour accomplir les 150 trimestres autrefois requis par la CNAV pour avoir droit à la retraite des vieux travailleurs. Mais la loi a changé, il faut maintenant 166 trimestres pour être libre de passer ses journées à la pêche.

Notre vieux Fessenheim sera donc admis à faire valoir ses droits à la retraite en 2017 seulement.

C’est du moins la date de départ qui a été annoncée par Nicole Bricq, Ministre de l’écologie, du Développement durable, et de l’Energie.

( Ceux qui trouveraient étrange cette coïncidence entre cette échéance et la fin de la mandature présidentielle feraient preuve de mauvais esprit).

Les tenants de la sortie du nucléaire sont évidemment furieux. Cinq années pour arrêter une centrale qui pourrait l’être en quelques heures !

A ce rythme, on n’est pas sortis de l’auberge. En 2025, c’est tout au plus deux centrales supplémentaires qui seraient mises à l’arrêt.

L’éventuelle mise à la retraite anticipée de Fessenheim, ou non, sera donc le test de la volonté du Gouvernement d’infléchir la stratégie énergétique du pays. Une prolongation de cinq ans induirait un doute sérieux sur la volonté de changement de la nouvelle équipe.

Il va de soi que cet arrêt de Fessenheim n’aurait de sens que s’il est accompagné de l’arrêt des travaux à Flamanville.

 

 

Repost 0
8 juin 2012 5 08 /06 /juin /2012 16:14

 

8 Juin 2012

Dans l’article précédent nous avons vu que la notion de « peak-oil » est toute relative.

Les experts de l’AIE ( Agence Internationale de l’Energie) présentent un cycle de production pétrolière mondiale en trois phases ( voir graphique dans l’article du 7 Juin):

Une première phase concerne la production des gisements en cours d’exploitation. Cette production aurait déjà atteint son maximum en 2010, à 70 Millions de barils par jour et chuterait jusqu’à 20 Mbarils/j en 2035.

Sur cette seule ressource nous serions donc déjà entrés en pénurie.

A cette production déclinante, L’AIE ajoute la future production correspondant à la montée en puissance des nouveaux gisements déjà découverts et encore en début d’exploitation, c’est la deuxième phase. Le peak-oil se trouve alors reporté à 2015-2020.

Une troisième phase vient éloigner encore l’échéance, constituée de la production de gisements encore à découvrir. Le peak-oil est reporté au-delà de 2035. Cette troisième phase est évidemment problématique.

Ces trois phases contribueraient pour 70 % à la production mondiale en 2035.

Le reste de la production étant constitué du pétrole non conventionnel et du pétrole obtenu par les procédés GTL, CTL, ou BTL ( Gas To Liquid, Coal To Liquid, Biomass To Liquid).

Selon le crédit que l’on accorde à cette belle construction de l’AIE, on pourra à loisir affirmer que le peak-oil s’est déjà produit, ou qu’il se produira entre 2015 et 2020, ou bien qu’il est reporté aux calendes grecques.

( Les calendes grecques se situant au choix en 2035 ou à la Saint Glin-glin).

Point n’est besoin de consulter madame Irma pour comprendre que la probabilité d’une baisse de la production mondiale avant 2035 est assez élevée, suffisamment pour inciter les Etats à commencer sérieusement à rechercher des solutions de rechange.

Les procédés de liquéfaction de différentes substances énergétiques sont de bons candidats pour plusieurs raisons:

- Le secteur des transports routier, aérien, et maritime, restera encore longtemps dépendant des carburants liquides. L’électrification n’interviendra que très lentement et partiellement, et le transfert de la route au rail n’est pas pour demain matin. Quant à réduire le besoin en transport, c’est une option assez improbable avant longtemps.

- Face à la probable incertitude croissante des approvisionnements en pétrole, les Etats non producteurs devront fabriquer du carburant de synthèse sous peine de compromettre leur indépendance stratégique.

- Le maintien d’un prix élevé du pétrole et la forte probabilité d’augmentation de ce prix permettent de rentabiliser les procédés de liquéfaction qui sont par nature plus onéreux que le simple raffinage.

Ce qui n’était pas rentable économiquement avec un pétrole à vingt dollars devient très intéressant à 100 ou 200 dollars !

- La transformation du gaz en produits pétroliers liquides permet leur acheminement facile à partir de sites éloignés, notamment off shore (Small scale technology).

- Les procédés de liquéfaction, basés sur la réaction de Fischer-Tropsch, sont bien connus, et peuvent être mis en œuvre industriellement avec les technologies du moment.

Les rendements ne sont pas extraordinaires, l’IFP cite les valeurs suivantes:

56% pour le GTL.

43% pour le CTL.

33% pour le BTL.

Ce rendement est exprimé en rapport de l’énergie du produit final à l’énergie du produit entrant.

Ces résultats peuvent être améliorés, mais lorsque l’aspect stratégique prime, le rendement devient secondaire.

Il en va différemment lorsque c’est l’impact sur l’environnement qui prime.

L’Afrique du Sud, qui possède beaucoup de charbon, a construit plusieurs usines de liquéfaction qui ont permis de couvrir le tiers de ses besoins. La Société SASOL est aujourd’hui le spécialiste mondial.

En 2011 la Shell a inauguré au Qatar une usine le production de produits pétroliers à partir du gaz naturel ( Pearl GTL) d’une capacité de 140 000 barils/jour.

Les Etats-Unis ont mis sur pied un programme de développement de ce type de carburant à partir du gaz naturel ( NGCP, Natural Gas Conversion Process).

Il ne fait pas de doute que le mouvement est lancé, avec malheureusement des dégâts collatéraux causés par des émissions de CO2 abondantes.

Il est évident aussi que les investissements importants consentis pour ces nouveaux procédés de transformation ne seront pas disponibles pour le développement des énergie renouvelables.

Les Etats qui ne disposent pas de ressources fossiles sur leur territoire devront profiter du répit qui leur est offert par les marchés pour investir massivement dans les énergies nouvelles sous peine de se trouver vassalisés lorsque les énergies fossiles seront en fin de vie.

La question est: quelle sera la durée du répit ?

Repost 0