Overblog Suivre ce blog
Administration Créer mon blog
13 septembre 2012 4 13 /09 /septembre /2012 19:18

 

13 Septembre 2012

Dans un article récent ( « Gaz à tous les étages ») nous avons montré que les perspectives de retrait du nucléaire et de tension sur le pétrole avaient rendu quasiment obligatoire un repli sur le gaz afin de maintenir à moyen terme les fournitures d’électricité en attendant que la relève soit prise par les énergies durables ( la fameuse transition énergétique).

Nous avons succinctement présenté le programme de construction de nouvelles centrales à gaz à cycle combiné, destinées d’une part à remplacer la production des centrales nucléaires qui doivent être arrêtées, et d’autre part à soutenir les futures centrales solaires et éoliennes dont la production est par nature intermittente.

Le résultat de cette stratégie sera donc une augmentation mécanique de nos importations de gaz naturel, c’est-à-dire du déficit du commerce extérieur.

Ce qui va exactement à contresens de la recherche de l’équilibre budgétaire.

Certains n’hésitent pas à se demander si aujourd’hui le pays peut vraiment se permettre d’augmenter ses importations de gaz alors que la balance des paiements est déjà plombée et que les caisses sont vides.

Et de regarder avec insistance vers les possibles réserves de gaz de schiste du sous-sol français, qui, si elles étaient confirmées, nous permettraient d’économiser des milliards d’euros.

Ce raisonnement, qui peut paraître simpliste, a évidemment traversé l’esprit du ministre du redressement productif qui aimerait bien avoir ces milliards d’euros pour financer sa politique industrielle. Le ministre des finances, qui ne dit rien mais n’en pense pas moins, est probablement du même avis.

La ministre de l’écologie, du développement durable et de l’énergie est bien embarrassée: sa casquette de ministre de l’énergie l’inciterait à ne pas négliger à priori une réserve d’énergie gratuite disponible, mais sa casquette écologique lui impose de rester ferme sur le rejet des gaz de schiste.

La conférence environnementale qui commence demain nous réserve certainement des débats animés et des conclusions surprenantes dont les attendus ne manqueront pas de sel.

 

Repost 0
12 septembre 2012 3 12 /09 /septembre /2012 19:25

 

13 Septembre 2012

 

Dans un article précédent ( 07/12/2011, rubrique énergie, «Un compteur (trop) intelligent » ) nous avons présenté le nouveau compteur Linky destiné à équiper la totalité des usagers professionnels ou particuliers raccordés au réseau électrique.

 

Une phase de validation sur le terrain a permis d’obtenir l’approbation du système, qui a pris une existence officielle par la parution au JO de l’arrêté du 4 Janvier 2012 autorisant le déploiement des compteurs intelligents.

 

Jusqu’à présent, le fournisseur d’énergie se bornait à raccorder l’abonné à un réseau commun, par l’intermédiaire d’un dispositif de comptage d’énergie. Quelques signaux rudimentaires étaient transmis par CPL (Courants Porteurs en Ligne) afin de commuter le mode tarifaire et d’actionner un contact Heures creuses.

 

Il n’existait aucun canal de communication de données permettant au fournisseur d’énergie d’interfacer avec l’installation d’usager en aval du compteur.

 

Ce système très rustique présentait l’avantage de garantir la protection de la vie privée dans son aspect utilisation de l’énergie. Seule la quantité d’énergie était mesurée périodiquement et facturée, la manière d’utiliser cette énergie ( comment et quand) demeurait du domaine privé.

 

Mais le monde de l’énergie est en train de changer:

 

Le vieux système de distribution de l’énergie électrique était fondé sur un concept dépassé, celui de l’adaptation de l’offre à la demande, quelle que soit cette demande et quelle que soit son augmentation d’une année sur l’autre. Le fournisseur d’énergie devait prévoir des surcapacités déraisonnables pour être en mesure de satisfaire les pointes de consommation.

 

L’arrivée des énergies nouvelles, essentiellement solaire et éolienne, ne permet plus cette gestion à sens unique d’adaptation de l’offre à la demande. En effet, les énergies nouvelles sont intermittentes par définition et la courbe de la demande n’est pas superposable à la courbe de l’offre.

 

Il est donc devenu indispensable de développer un véritable système de gestion de l’énergie, sur un nouveau concept qui introduit la possibilité d’adapter la demande à l’offre.

 

La gestion de la distribution de l’électricité doit alors être conçue en tant que réseau de communication bidirectionnelle entre les fournisseurs d’énergie et les usagers.

 

Pour des raisons évidentes de simplicité et de coût le support physique de la communication est le réseau de distribution lui-même. Les données échangées utilisent la technologie CPL déjà largement en usage par ailleurs.

 

Les nouveaux compteurs intelligents intègrent les interfaces nécessaires à la communication avec les fournisseurs d’énergie d’une part, et avec l’installation de l’usager d‘autre part, selon le niveau communicant des matériels installés.

 

L’installation d’un nouveau compteur n’oblige en aucune façon l’usager à remplacer ses matériels, la rétro-compatibilité est assurée.

 

Les fonctionnalités nouvelles rendues possibles grâce à ces nouveaux compteurs n’entreront en service que très progressivement, il s’agit d’une démarche long terme. Dans un premier temps l’usager ne verra pas de différence avec l’ancien système et pourra se demander à quoi cela peut servir. Un gros travail de communication auprès du public sera nécessaire pour expliquer qu’en fait il s’agit de préparer l’après 2020-2030 et qu’une transition énergétique réussie suppose des investissements programmés longtemps à l’avance.

 

Par contre, ce qui changera immédiatement, c’est la fin du secret sur l’utilisation de l’énergie électrique. Le quand et comment le client consomme son électricité cessera d’être du domaine privé puisque les fournisseurs sauront en temps réel quelle est la consommation instantanée.

 

Ces informations permettront de définir un profil d’utilisateur, sans pour autant connaître le détail de sa consommation énergétique.

 

Sauf si l’usager accepte de s’équiper en matériels communicants, chaque appareil possédant une interface capable de dialoguer avec une centrale domotique et avec le ou les fournisseurs d’énergie à travers le compteur intelligent.

 

Par le biais d’une politique tarifaire incitative, les fournisseurs d’énergie pourront alors négocier avec l’usager des contrats incluant des possibilités de délestage sur certains matériels et/ou le démarrage programmé d’appareils gros consommateurs tels que chauffe-eau, machine à laver, secteurs de chauffage, chargement de batterie de véhicule électrique, etc…

 

Cette gestion distribuée permettra de lisser la consommation globale et d’atténuer fortement les pointes de consommation à l’échelon régional ou national.

 

Ce réseau communicant est perçu par certains comme une violation de la vie privée. Il existe une crainte, en partie justifiée, de voir les données particulières tomber entre des mains indésirables et de les voir utilisées à des fin commerciales ou frauduleuses.

 

Contre ce risque, le protocole de communication est crypté. Il reste bien sûr à faire la preuve de l’efficacité de cette protection.

 

Le CEPD ( Contrôleur Européen de la Protection des Données) se préoccupe de l’évaluation de ce risque de détournement de données.

 

En France, l’UFC Que choisir a engagé un recours devant le Conseil d’Etat dans le but d’obtenir l’annulation de la généralisation du compteur intelligent Linky.

 

La CNIL a émis bien sûr des recommandations pour renforcer la protection et surtout le contrôle de l’usage de ces données.

 

Ce problème, qui devrait trouver une solution assez rapidement, est une retombée inattendue de la transition énergétique. D’autres retombées, autrement dérangeantes, sont à attendre car nos habitudes de consommation devront être révisées drastiquement.

 

 

 

 

 

 

Repost 0
10 septembre 2012 1 10 /09 /septembre /2012 18:04

 

10 Septembre 2012

Le battage médiatique autour de ce que l’on a nommé la transition énergétique, sous tendu par la condamnation populaire quasi unanime des énergies fossiles et du nucléaire, a créé un climat d’incertitude quant au devenir de nos politiques énergétiques dans les prochaines décennies.

On peut craindre que la fameuse transition ne soit affectée par des fortes turbulences, que la conférence environnementale de la semaine prochaine aura beaucoup de mal à prévenir.

Quelle que soit la compétence des intervenants, ils devront composer avec la réalité du terrain.

Or, que dit cette réalité ?

- Le nucléaire n’a plus la cote, il sera très difficile de faire accepter un renouvellement du parc vieillissant. Il faut donc se préparer à réduire significativement l’apport de l’atome dans le mix énergétique.

- Mais, malgré les exhortations en faveur des économies d’énergie, la demande continue de croître, il faut donc impérativement prévoir de compenser la baisse de production nucléaire par le recours à une autre source d’énergie.

- Le pétrole devient de plus en plus une denrée rare dont le prix ne peut que croître inéluctablement sur le long terme, pesant de manière insupportable sur la balance commerciale des pays non producteurs.

Il serait donc déraisonnable pour ces pays de fonder une stratégie énergétique sur ce produit.

- Le gaz paraît retrouver un regain d’intérêt pour plusieurs raisons: Les réserves conventionnelles seraient supérieures à celles du pétrole; les gaz de schiste constituent des réserves supplémentaires disponibles sous conditions; le recours au biogaz vient compléter le panel de sources possibles.

- Tôt ou tard le recours aux énergies vertes deviendra massif, le solaire et l’éolien constituant l’essentiel de leur participation.

Or ces énergies sont intermittentes, ce qui impose de disposer de ressources complémentaires fiables pour prendre le relais lors de l’absence de vent et/ou de soleil.

Faute de solutions de stockage de masse de l’électricité, il sera alors nécessaire de recourir à des centrales conventionnelles.

Ces éléments de réflexion sont évidemment pris en compte par les autorités responsables de l’approvisionnement énergétique du pays, indépendamment d’une quelconque conférence environnementale qui ne saurait en elle-même modifier la réalité des besoins.

Dans ce cadre a été lancé depuis plusieurs années un programme de construction de centrales thermiques à flamme de nouvelle génération. Ces centrales utilisent la cogénération et affichent des rendements pouvant atteindre 60%, contre 37% pour les centrales anciennes.

En voici une liste non exhaustive:

En 2005: Centrale DK6 de Dunkerque, 790 MWe .

En 2009: Centrale de Pont-sur-Sambre, par POWEO, 412 MWe.

En 2010: Centrale CycoFos, par GDF-SUEZ, 424 MWe.

En 2010: Centrale Combi Golfe, par GDF-SUEZ, 432 MWe.

En 2011: Centrale de Saint-Avold, par E-ON, 2x430 MWe.

En 2011: Centrale de Bayet, par ALPIQ , 408 MWe.

En construction:

Par EDF: Martigues, Pont-à-Mousson.

Par Direct-Energie, dans l’Oise.

Etc…

Ce programme énergétique, jugé selon les critères écologiques, paraît parfaitement hérétique puisqu’il exalte le recours aux énergies fossiles.

Il rencontre des manifestations d’opposants, par exemple à Landivisiau contre une centrale de 422 MWe devant entrer en fonction en 2016.

En fait c’est grâce à de tels programmes que la sortie du nucléaire et le développement des énergies durables seront possibles.

Un gros travail de communication sera nécessaire pour expliquer aux populations que les centrales à gaz sont un passage obligé vers les énergies durables et l’indépendance énergétique du futur.

Repost 0
8 septembre 2012 6 08 /09 /septembre /2012 16:39

 

8 Septembre 2012

Sans passer nécessairement pour un détrousseur de cadavres, il doit être possible d’analyser la catastrophe de Fukushima afin de tâcher d’en tirer des leçons pour l’avenir, si toutefois le nucléaire possède encore un avenir.

Que s’est-il réellement passé, quelles furent les circonstances déclenchantes, quel fut l’enchaînement des évènements, quelles sont les responsabilités ?

Les informations exploitées ici sont extraites du rapport du Forum Nucléaire Suisse de Juillet 2011. Ce document est une analyse du rapport du 7 Juin 2011 du Gouvernement Japonais, destiné à l’AIEA ( Agence Internationale de l’Energie Atomique).

(Cette tentative d’analyse ne vaut donc que ce que valent les informations délivrées par le Gouvernement japonais dans ce document).

Sur les côtes touchées par la catastrophe naturelle ( Séisme + tsunami), sont (étaient) installés cinq sites comportant 15 tranches nucléaires ( 15 réacteurs):

11 réacteurs étaient en fonctionnement et 4 étaient à l’arrêt pour entretien programmé.

Du Nord au Sud:

Higashidori: 1 réacteur A l’arrêt.

Onagawa: 3 réacteurs En fonctionnement.

Fukushima-Daiichi: 3 réacteurs En fonctionnement

3 réacteurs A l’arrêt.

Fukushima-Daini: 4 réacteurs En fonctionnement

Tokai: 1 réacteur En fonctionnement

Tout a commencé le 11 Mars 2011 à 14 H 46 ( Heure locale) par un séisme de magnitude 9 suivi d’une centaine de répliques dont certaines très importantes.

Selon les autorités gouvernementales japonaises:

L’ensemble des installations a résisté au séisme, et les procédures de mise à l’arrêt automatique se sont enclenchées normalement sur tous les réacteurs en fonctionnement.

Par contre, le réseau électrique du Nord Est du pays n’a pas résisté, et l’alimentation à haute tension des sites nucléaires a été interrompue à l’exception de la ligne qui alimente Onagawa et Fukushima-Daini.

Il faut rappeler qu’un réacteur mis en procédure d’arrêt continue de produire de la puissance pendant un certain temps:

6% de la puissance nominale juste après l’arrêt.

1,5% après une heure.

0,7% au bout d’une journée.

Il faut donc continuer à le refroidir jusqu’à l’arrêt à froid, défini par une pression nulle et une température inférieure à 100 °C, ce qui peut prendre plusieurs jours. Pour cela il faut de l’électricité pour alimenter les pompes et les divers circuits de sécurité et de commande.

L’interruption de l’alimentation extérieure électrique provoque le basculement automatique sur les alimentations de secours ( Groupes électrogènes à moteurs Diesel et batteries) pour actionner les pompes qui assurent le refroidissement des cœurs des réacteurs afin d’évacuer la puissance résiduelle, et fournir en électricité les éléments de régulation et de commande de l’installation.

Toujours selon les autorités responsables japonaise:

Cette phase de basculement sur les générateurs de secours s’est déroulée normalement sur tous les réacteurs concernés.

A ce stade du déroulement des évènements, la catastrophe aurait pu être évitée à condition que les groupes électrogènes de secours soient capables d’assurer leur fonction jusqu’à l’arrêt à froid des réacteurs, ce qui est du domaine du cahier des charges d’une installation de bon aloi.

Hélas, en zone littorale, après un séisme off shore vient le tsunami.

La première vague du tsunami a frappé la côte 30 à 40 minutes après la secousse principale.

A Higashidori ( Tout au Nord) il n’y a pas eu de dégât, le réacteur était à l’arrêt pour entretien, les groupes électrogènes ont fourni normalement de courant nécessaire pour les travaux divers. Le tsunami n’a pas eu de conséquences fâcheuses.

A Onagawa les installations avaient été construites à une hauteur de 14,8 mètres au-dessus du niveau de la mer. Le séisme a provoqué un affaissement du sol de 1 mètre, réduisant d’autant la marge de sécurité contre le tsunami. Le flot a réussi à envahir les galeries souterraines et à endommager quelques installations . Les dispositifs de sécurité ont résisté et les procédures d’arrêt ont pu être menées à bien avec les groupes de secours.

A Tokai, le tsunami a envahi une partie du site et noyé un groupe électrogène, mais les deux autres groupes ont pu mener à bien l’arrêt à froid.

A Fukushima-Daini, les installations étaient à 12 mètres au-dessus du niveau de la mer, mais la vague de retour a atteint 15 mètres et submergé une partie des installations dont les pompes.

Les moteurs de pompes ont pu être remplacés, et l’alimentation électrique maintenue en partie de l’extérieur et en partie par les groupes encore en service.

L’arrêt à froid a été obtenu.

Par contre, à Fukushima-Daiichi les choses ont tourné à la catastrophe à cause du tsunami. La vague a atteint 15 à 16 mètres et submergé les installations.

Avec la défaillance de l’alimentation électrique extérieure, les six réacteurs ( Dont trois à l’arrêt pour entretien) se sont trouvés pris en charge par les groupes électrogènes de secours.

Mais la vague du tsunami a tout mis hors d’usage:

Tous les groupes électrogènes diesel de secours ont été inondés, ainsi que les pompes, les postes de distribution électrique et les postes de commande.

( Un seul groupe électrogène auxiliaire est resté en service car situé plus haut que les autres. Il a permis d’alimenter la tranche 6 et plus tard également la tranche 5 .

Le problème s’est alors concentré sur les réacteurs 1 à 4, spécialement 1 à 3, le 4 étant déjà à l’arrêt sans combustible dans la cuve.

( Rappelons que seules les tranches 1 à 3 étaient en fonctionnement).

Sur ces trois réacteurs, les cœurs ont fondu, le corium répandu au fond des cuves qui n’ont pas résisté, s’est déversé sur le radier.

Du fait de la défaillance totale de l’alimentation électrique, aucun dispositif d’urgence n’a pu être mis en œuvre, et donc les dégagements d’Hydrogène dus au vapo craquage de l’eau et aux diverses réactions ont provoqué une surpression dans les cuves, suivi d’explosions dans les enceintes de confinement.

Même l’enceinte du réacteur 4 y a eu droit malgré l’absence de combustible dans sa cuve ! On pense que l’Hydrogène s’y est insinué par des conduites de service.

Le résultat de ce feu d’artifice est connu, émission d’un nuage de produits radioactifs, pollution de la mer par les rejets d’eau de refroidissement chargée de radioéléments, et pollution du sol par les coriums dont on ne connait pas bien le destin futur.

( La catastrophe est en fait toujours en cours).

Dans l’article du 22 Juillet 2012 nous évoquions les sept lignes de défense du nucléaire. Voyons un peu comment se sont comportées ces défenses à Fukushima Daiichi:

De l’aveu même du Gouvernement Japonais, l’ensemble des installations nucléaires a souffert d’un mal endémique qui est l’insuffisance généralisée de culture de la sécurité nucléaire.

La ligne de défense n°7 laissait donc à désirer. Elle était confiée essentiellement à l’exploitant TEPCO, les inspections étaient de pure forme et les éventuelles préconisations de sécurité n’ont jamais, ou rarement, été appliquées, malgré les recommandations des scientifiques. On imagine alors facilement que l’ensemble des installations était vulnérable à n’importe quel évènement déclencheur un peu vicieux.

(On peut d’ailleurs s’étonner que, en présence d’un tel laisser aller, une catastrophe ne se soit jamais produite auparavant).

Compte tenu de ce qui vient d’être dit, il ne faut pas s’étonner si la ligne de défense N°6 était elle aussi inefficace:

Cette ligne est chargée s

assurer par des moyens spécifiques le soutien des installations de secours et leur protection contre les submersions, ou contre toute autre mauvaise surprise.

Tous les groupes électrogènes de secours étaient situés trop bas et donc submersibles, ils ont été mis hors jeu très rapidement.

L’ensemble des installations des réacteurs 1 à 3 s’est trouvé complètement dépourvu d’alimentation électrique, la catastrophe était dès lors inévitable, quelles que soient les lignes de défenses rapprochées existantes.

La ligne de défense suivante est la N°5: dispositif de récupération du corium et contention jusqu’à son refroidissement.

Cette ligne était tout simplement inexistante à Fukushima. Les coriums ont donc pu s’échapper des cuves brisées et se répandre dehors, générant une suite de calamités non encore toutes identifiées.

La ligne de défense N°4 a fonctionné : Déclenchement de la procédure d’arrêt des réacteurs, basculement de l’alimentation électrique sur les groupes électrogènes de secours, mise en œuvre de la procédure d’arrêt à froid. Mais cette défense n’a pu être efficace à cause de la mise hors service par le tsunami des groupes électrogènes de secours.

Les cœurs des trois réacteurs se sont alors trouvés livrés à eux-mêmes sans aucune possibilité de contrôle.

Les importants dégagement de gaz provoqués par le contact des corium avec l’eau et le béton ont entraîné une augmentation de pression dans l’enceinte de confinement ( Ligne de défense N°3) et un dégagement d’Hydrogène.

La ligne de défense N°4 étant neutralisée, il n’a pas été possible de contrôler les gaz des enceintes de confinement par les dispositifs adéquats, les explosions étaient dès lors inévitables.

La ligne de défense N°3 ( Enceintes de confinement) était donc éliminée.

La fusion des cœurs ayant entraîné la rupture des cuves, la ligne de défense N°2 se trouvait à son tour éliminée ( Circuit primaire).

Quant à la ligne de défense N°1 ( Les gaines de combustible) il y a longtemps qu’elle avait disparu, l’alliage de Zirconium n’ayant pas résisté à la température atteinte par la réaction de fission non contrôlée ( près de 3000 °C).

Ce triste scénario nous enseigne un tas de choses:

- Les séismes d’amplitudes inhabituelles, cela existe et pas seulement dans l’imagination des opposants au nucléaire. Les références historiques à des séismes passés sont peu fiables, eu égard à l’absence de données scientifiques dignes de ce nom. Surtout pour ce qui concerne les effets conjugués d’un séisme et d’un tsunami.

- Un séisme peut entraîner localement un affaissement de terrain, réduisant d’autant la marge de sécurité par rapport au risque d’inondation.

Cette éventualité n’est pas prise en compte dans les évaluations préalable des risques d’une installation nucléaire.

Ce séisme peut éventuellement entraîner une rupture de barrage dont les conséquences seraient équivalentes à celles d’un tsunami.

- Les sites nucléaires actuels sont manifestement trop vulnérables à l’envahissement par l’eau, quelles que soit l’origine de cette eau (Tsunami, rupture de barrage, crue exceptionnelle, rupture de conduite d’alimentation).

Le cas d’un glissement de terrain, bien que rarement évoqué, est une éventualité qui doit être également considérée.

- Le maintien de l’intégrité du circuit de refroidissement du cœur d’un réacteur est un impératif absolu qui doit faire l’objet d’une attention spéciale.

Les accidents de TMI2 ( Three Mile Island), Tchernobyl, Fukushima, et le « quasi » accident de la centrale du Blayais en France, confirment ce point.

Il est inadmissible que les pompes primaires , leurs circuits de commande, et leur alimentation électrique ne soient pas mises hors de portée de toute submersion.

Même chose pour les alimentations de secours ( Groupes électro diesels).

- Les lignes du réseau d’alimentation électrique des réacteurs doivent être construites selon des normes anti sismiques au même titre que les bâtiments des réacteurs eux-mêmes.

- Nous savons maintenant que la cuve d’un réacteur peut céder en cas de fusion du cœur.

Or, dans un document de synthèse de l’ASN publié en 2000, on peut lire au paragraphe 3-5-1 / Chapitre 11:

«  La rupture de la cuve est un accident jugé inenvisageable, dont les conséquences ne sont donc pas prises en compte dans l’évaluation de la sureté du réacteur ».

C’est pourquoi aucun réacteur français ne possède de récupérateur de corium…Nos trapézistes travaillent sans filet…

Fukushima nous a prouvé hélas que cette fameuse cuve n’est pas invulnérable.

- La concentration de plusieurs réacteurs sur le même site maximise les difficultés d’intervention des secours qui doivent répartir leurs forces et donc perdre de l’efficacité.

De plus cette concentration crée le risque d’effet domino. Un accident sur un réacteur peut se propager aux autres par effet de proximité et/ou de mise en commun de certaines installations.

Il est donc impératif de séparer physiquement les différentes tranches d’un même site, et d’en limiter le nombre.

( Une tranche est constituée d’un réacteur avec l’ensemble des dispositifs fonctionnels et de secours. Chaque tranche doit être complètement indépendante de sa ou ses voisines, ce qui est rarement le cas ).

- L’existence de dispositifs de secours ultra perfectionnés n’est d’aucune utilité si ces dispositifs sont eux-mêmes vulnérables à des évènements extérieurs insuffisamment pris en compte.

Cette liste, non exhaustive, est un plaidoyer pour une révision en profondeur de notre politique de sureté nucléaire, trop longtemps fondée sur des certitudes, des convictions, des rapports de sureté à la limite de la complaisance, des arguments d’autorité, et insuffisamment à l’écoute des mises en garde négligées du seul fait qu’elles ne proviennent pas du sérail.

Tout ceci n’est pas nouveau, ce n’est un secret pour personne que les lignes de défense sont comme des dominos alignés dont l’ensemble est vulnérable à la chute d’un seul d’entre eux.

Mais alors, pourquoi un tel laisser aller ?

Parce que la sureté nucléaire coûte très cher, et que la production électronucléaire est mise en concurrence avec les méthodes classiques de production d’électricité ( Centrales thermiques à flamme essentiellement), qui ne présentent évidemment pas les mêmes risques d’exploitation.

Le faible coût relatif du combustible nucléaire et le quasi amortissement du parc existant permet à la France de pratiquer artificiellement des tarifs du KWh parmi les plus bas d’Europe. Le prolongement envisagé des installations actuelles jusqu’à quarante ans, voire plus, sera financièrement intéressant, à condition de ne pas investir des sommes considérables dans la recherche de l’amélioration de la sureté.

Le conflit entre la sureté et la rentabilité est dès lors évident.

Surtout si ce secteur d’activité doit être en partie transféré au secteur privé comme suggéré dans le rapport Roussely.

De plus, la nature humaine est ainsi faite qu’un risque n’est vraiment pris au sérieux que lorsque l’accident s’est produit.

En France, EDF a accumulé une expérience de plus de 1000 années réacteur sans avoir eu à déplorer une seule catastrophe.

Pour certains ce résultat suffit à démontrer l’efficacité de la stratégie de sureté dans les conditions normales d’exploitation.

( Les conditions « anormales » sont alors purement et simplement niées et évacuées comme « hautement improbables », ce qui n’a évidemment aucun sens).

Pour d’autres, exciper d’un cumul important d’heures sans accident comme justification d’une sureté accomplie est tout simplement stupide; c’est ignorer que la sureté d’un système ne se déduit pas de l’historique des évènements passés de ce système, mais bien plutôt de l’évaluation probabiliste du taux de défaut par unité de temps ( Appelé « lambda ») des nombreux facteurs qui contribuent à la marche de ce système.

Le simple constat du bon fonctionnement d’un réacteur pendant trente ans ne doit pas suffire à justifier sa prolongation sur quarante ans. Sinon, pourquoi pas cinquante ou soixante ?

Le rapport Roussely (16 Juin 2010) établi à la demande de Nicolas Sarkozy, contient un certain nombre de propositions préoccupantes, par exemple:

« (Nous devons) préparer la prolongation de la durée de vie des centrales actuelles au-delà de quarante ans… »

« La filière nucléaire doit atteindre une compétitivité attractive pour l’investissement privé… »

« Principaux axes de progrès: …construction de plusieurs tranches sur le même site… »

« La seule logique raisonnable ne peut pas être une croissance continue des exigences de sureté… »

« Associer au mieux exigences de sureté et contraintes économiques…. »

« Soutenir l’extension du fonctionnement des centrales à soixante ans, à sureté constante … »

Il faut noter qu’aucune des quinze principales recommandations de ce rapport ne met l’accent sur l’urgence d’un programme d’amélioration de la sureté des « vieilles » centrales.

Le changement de l’équipe gouvernementale en France ne semble pas devoir être accompagné d’une révision profonde de notre politique énergétique. Certains s’en réjouirons, d’autres seront déçus, qui attendaient notamment l’amorce d’un abandon du nucléaire.

L’absence d’une politique énergétique commune européenne est de nature à créer un flottement entre d’une part les Etats qui, comme l’Allemagne, ont choisi d’investir massivement dans les énergies durables et de prendre de la distance vis-à-vis du nucléaire, et d’autre part les Etats qui, comme la France, recherchent dans le nucléaire une réponse à leur problème de dépendance énergétique. Flottement alimenté par un fond d’incertitude quant au sérieux de la lutte contre le CO2 au plan mondial et quant à l’opportunité d’exploiter les gaz de schiste en Europe.

La persistance de l’accroissement de la demande énergétique laisse peu de place à des décisions drastiques dont les conséquences seraient une baisse de production d’électricité.

La prochaine conférence environnementale ( 14 et 15 Septembre 2012) traitera entre autres de la transition énergétique. Il serait souhaitable que le problème de la sureté nucléaire soit au centre des débats. Il ne serait pas acceptable qu’il soit balayé sous le tapis comme ce fut le cas jusqu’à présent.

 

Repost 0
6 septembre 2012 4 06 /09 /septembre /2012 17:07

 

6 Septembre 2012

Le nouveau Gouvernement a trouvé dans la cheminée un magnifique cadeau du père Noël ( ou de saint Nicolas au choix), une bombe à retardement dépourvue du manuel d’utilisation permettant notamment de la désamorcer.

Il s’agit d’une bombe énergétique dont le mécanisme est réglé pour nous péter au nez dans un délai diaboliquement incertain, en tous cas probablement avant 2050 selon les meilleurs artificiers du moment.

La tâche d’un Gouvernement responsable doit (devrait) être, toutes affaires cessantes, de désamorcer cette machine infernale sous peine de précipiter le pays dans le gouffre qui va s’ouvrir sous nos pieds dans quelques décennies.

Le nôtre (de Gouvernement) n’échappe pas à cette obligation, même si les préoccupations de court terme continuent de mobiliser son énergie.

Les solutions techniques théoriques permettant d’échapper à la crise énergétique sont connues, elles reposent sur la convergence de deux démarches complémentaires:

- D’une part la réduction de la demande par une réorientation de la société vers des pratiques moins énergivores, et par une mutation industrielle orientée vers la recherche de l’efficacité énergétique ( Consommer peu, mais bien).

- D’autre part le développement des énergies alternatives, dont les possibilités sont connues sans qu’il soit besoin d’y revenir.

Ceci est la théorie, très bien développée par exemple par le collectif Négawatt auquel le lecteur pourra se rapporter.

Mais chacun sait, ou devrait savoir, qu’entre la théorie et la mise en pratique de la théorie il y a de nombreux obstacles de nature politique, économique, financière, technologique, environnementale, dont le franchissement nécessite des moyens qui ne sont pas toujours disponibles.

Là où le théoricien du « Yaka » prouve sur le papier que le paradis est à portée de main, le responsable politique en charge des affaires doit composer avec les impératifs du monde réel qui le placent face à des logiques contradictoires, car il doit à la fois préserver le court terme tout en préparant le long terme:

- Le court terme lui impose de ne pas mettre le pays en panne face à une demande d’énergie croissante. Le long terme lui impose de se retirer des énergies fossiles pour cause de pénurie proche et de lutte contre le CO2.

- Le court terme lui interdit de casser un outil électronucléaire existant, en l’absence d’une solution de remplacement disponible. Le long terme lui fait un devoir de renoncer à l’atome au nom de la protection des populations.

- Le court terme lui suggère d’exploiter les gaz de schiste et le pétrole non conventionnel car c’est bon pour l’indépendance énergétique et la balance extérieure. Le long terme le lui interdit par respect pour l’environnement.

- Le court terme lui demande d’investir massivement dans le développement des énergies nouvelles. Le long terme lui impose plutôt de prévoir un plan de remboursement de la dette de l’Etat.

Etc…

Il y a donc des conflits entre les nécessités du court terme et les impératifs du long terme. Or notre responsable doit satisfaire à la fois les uns et les autres tout en composant avec les problèmes économiques et sociaux du moment et tout en respectant les accords internationaux et en particulier les traités européens.

Face à un horizon aussi inextricable, des compromis seront nécessaires pour placer le curseur dans une position optimale qui permettra une transition rationnelle entre le court terme et le long terme.

La nécessité des compromis exclue les positions extrémistes qui ne peuvent aboutir qu’à des situations de blocage.

La tâche des responsables politiques sera rude car la patate est vraiment très chaude…

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
23 juillet 2012 1 23 /07 /juillet /2012 19:04

 

23 Juillet 2012

Nous avons vu dans l’article précédent que la sureté nucléaire est un concept qui repose sur le principe de convergence de diverses démarches dont chacune doit être à son niveau d’excellence.

La machine la mieux conçue ne sera pas sûre si l’une de ses pièces laisse à désirer.

L’usine la mieux assemblée ne fonctionne pas correctement si elle est

confiée à du personnel mal qualifié.

Les procédures les mieux élaborées ne valent que si elles sont appliquées correctement.

Les règlementations les plus sévères sont inefficaces si elles ne sont pas respectées.

Les programmes de simulation les plus savants sont inutiles s’ils n’incorporent pas les données convenables.

Les automatismes les plus sophistiqués ne sont pas fiables si les logiciels ne sont pas robustes.

Les constructions les plus solides seront fragiles si l’environnement n’est pas sécurisé.

La sureté est obtenue grâce au concours d’un ensemble de facteurs, c’est un travail d’équipe dans lequel la part de chacun conditionne le résultat final.

L’accident majeur, celui qu’il faut à tout prix empêcher, est la dissémination de produits radioactifs dans l’environnement.

Pour cela l’installation d’un réacteur comporte plusieurs lignes de défense successives:

- La première ligne est constituée par l’encapsulation des pastilles de combustible dans des gaines de Zircaloy ( alliage de Zirconium) qui sont plongées dans la cuve. Les produits radioactifs y sont enfermés et la réaction nucléaire porte la température de l’eau du circuit primaire à 350°C environ dans les conditions nominales ( Réacteur REP).

Le métal des gaines peut résister jusqu’à 1 400 °C environ, ce qui permet de garder la première barrière efficace même en cas de début de dénoyage du coeur.

Les produits de fission demeurent à l’intérieur des gaines, et ne disséminent pas hors de leur domaine assigné. Seuls les neutrons s’échappent à travers l’eau de la cuve et sont arrêtés par la paroi en acier de 20 cm d’épaisseur.

- La deuxième ligne de défense est constituée par le circuit primaire, chargé de transporter la chaleur du cœur de la cuve vers les générateurs de vapeur, grâce à un fluide caloporteur ( Qui est de l’eau dans les réacteurs à eau pressurisée). Ce circuit primaire comprend la cuve, les tubes échangeurs des générateurs de vapeur, la tuyauterie correspondante, les pompes primaires, et divers raccordements. L’eau circule en circuit fermé étanche, dans des tuyaux en acier sous une pression de 155 Kg et à une température de 300°C environ.

La réaction de fission dans les pastilles de combustible provoque un fort dégagement de chaleur qui est transmis à l’eau à travers les gaines.

Dans la cuve, cette eau est exposée aux neutrons qui s’échappent des pastilles de combustible, lesquels neutrons interfèrent avec les produits additifs présents, générant des composants radioactifs d’activité modérée. L’étanchéité du circuit primaire empêche ces résidus radioactifs de se répandre ou de contaminer l’eau des générateurs de vapeur.

La radioactivité ne va donc pas au-delà du circuit primaire, dans les conditions nominales.

- La troisième ligne est constituée par l’enceinte de confinement, sorte de blockhaus en béton précontraint enfermant la cuve, les trois boucles du circuit primaire, les trois générateurs de vapeur, et tout les ustensiles nécessaires au fonctionnement et au contrôle: Les pompes primaires, le bloc de pressurisation, les accumulateurs, les dispositifs de secours, le mécanisme de commande des barres de contrôle, les mécanismes d’injection de secours, le mécanisme d’aspersion, les interfaces des capteurs de couvercle et de fond de cuve, etc...

Sur les réacteurs de la première tranche ( Fessenheim) l’enceinte de confinement est en béton précontraint de 90 cm d’épaisseur, doublée intérieurement d’une paroi d’acier qui assure l’étanchéité.

L’enceinte est construite sur un radier en béton de plusieurs mètres d’épaisseur, qui supporte l’ensemble cité ci-dessus, dont le poids dépasse le millier de tonnes .

Le tout est agencé pour résister à des séismes, des inondations, ou tout autre catastrophe naturelle ou pas, selon un cahier des charges propre à chaque site.

Ces précautions permettent de garder les émanations de produits radioactifs à l’intérieur de l’enceinte de confinement, même en cas d’accident significatif, à condition bien évidemment que les automatismes de sécurité remplissent correctement leur fonction, que le personnel qualifié puissent intervenir dans les délais prévus, et que l’ampleur de l’accident n’outrepasse pas les limites fixées au cahier des charges.

( On aura compris que cette dernière clause est le talon d’Achille de la sureté nucléaire, car l’avenir n’est écrit nulle part et surtout pas en matière de catastrophes naturelles. Ce n’est pas la TEPCO qui nous dira le contraire).

Le principe des trois lignes de défense n’est pas critiquable en soi, mais il faut se poser la question subsidiaire:

«  Qu’est-ce qui est prévu pour défendre les lignes de défense ? »

Les moyens mis en œuvre pour assurer l’efficacité d’une défense sont au moins aussi importants que la défense elle-même.

(Les murailles d’une forteresse ne valent que ce que valent les troupes chargées de les défendre).

Nous voulons parler de tout ce qui contribue à parer une défaillance susceptible d’enclencher une cascade d’évènements qui conduiraient à une situation incontrôlable.

On peut alors ajouter une quatrième barrière sans laquelle les trois autres seraient inefficaces. Cette garde rapprochée se compose de trois unités:

- Une première unité comprend le dispositif de surveillance. C’est lui qui donnera l’alerte, identifiera l’anomalie et son origine, et déclenchera les premiers secours, en l’occurrence les manœuvres d’urgence prévues dans la procédure de conduite.

Cette unité comprend une partie matérielle ( Capteurs de température, de pression, de niveau, commande des barres de contrôle, accumulateurs pour l’injection d’eau de sécurité, robinets automatiques, circuits électriques, centrale de commande, etc…), une partie logicielle supportant les procédures d’intervention, et une partie humaine constituée des équipes d’intervention et éventuellement de secours extérieurs.

- La deuxième unité est chargée de prendre la relève lorsque les mesures d’urgence ont fait leur œuvre, et de « normaliser » la situation jusqu’à disparition du risque. Selon la nature et l’importance de l’accident, les moyens à mettre en œuvre sont variés, par exemple:

Contrôle de l’atmosphère de l’enceinte de confinement pour éviter les conditions d’une explosion, fourniture d’eau de refroidissement de secours, ennoyage du cœur du réacteur, récupération des produits radioactifs éventuellement répandus, alimentation électrique de secours, matériel de pompage de secours, contrôle de la température du cœur pour garantir « l’arrêt à froid », gestion d’un éventuel corium, gestion des dégâts d’une éventuelle explosion, etc…

- La troisième unité est l’équipe de gestion des situations d’accident, chargée de coordonner les différentes unités d’intervention, les unités d’intervention extérieures, les relations avec les autorités territoriales, l’information de la population, et le suivi du retour à la normale.

L’importance de cette quatrième barrière apparaît à l’analyse du déroulement des catastrophes de Tchernobyl et de Fukushima.

Les enseignements tirés de l’analyse des catastrophes de Tchernobyl et Fukushima ont montré qu’une cinquième barrière est nécessaire: Il s’agit d’un dispositif permettant de recueillir, de canaliser et de refroidir le corium qui se serait déversé à la suite d’une rupture de cuve d’un réacteur.

Cette cinquième barrière équipera les futurs EPR.

Son absence sur les réacteurs du parc actuel pose le problème de l’opportunité de prolonger leur durée d’exploitation à quarante années.

L’analyse de la ruine collective des réacteurs de Fukushima a montré que le bon fonctionnement des procédures d’urgence ne suffit pas à éviter le drame si les installations restent vulnérables à l’interruption durable des alimentations électriques extérieures, et/ou à l’inondation des équipements de secours.

( Rappelons que les installations japonaises ont résisté au séisme, résisté aussi à l’interruption de l’alimentation électrique extérieure, mais ont été débordées par le tsunami qui a submergé les alimentations électriques de secours).

Il faut donc ajouter une sixième ligne de défense, chargée s’assurer par des moyens spécifiques le soutien des installations de secours et leur protection contre les submersions, ou contre toute autre mauvaise surprise.

La sureté nucléaire exige en fait une septième ligne de défense, constituée de la structure d’inspection des différents sites, et dont le rôle doit être préventif.

Les inspections périodiques jouent un rôle essentiel:

- Vérifier l’état des installations en référence aux normes existantes, évaluer l’usure des différentes composantes, préconiser les mesures correctrices.

- Demander des évaluations particulières sur des points litigieux, ou des tests complémentaires.

- Vérifier la bonne application des procédures d’exploitation, et des procédures d’urgence. Demander leur modification si nécessaire.

- Préconiser toutes mesures d’adaptation des installations à l’état de l’art de la technologie et en fonction de l’expérience de terrain accumulée.

- Evaluer la qualification des personnels dans les différentes situations.

- Analyser les rapports d’incidents et en tirer les conséquences.

- Mettre en œuvre toutes procédures de test ou d’expertise jugées nécessaires.

- Veiller à la bonne exécution des préconisations.

C’est donc un rôle tout à fait essentiel qui ne peut être efficace que s’il est conduit dans la plus grande indépendance vis-à-vis de l’industriel exploitant, du constructeur, et de l’autorité de tutelle.

La sécurité nucléaire ne peut donc jamais être considérée comme acquise. Elle doit être une recherche constante de l’excellence et une remise en question permanente qui ne supporte ni l’opacité, ni la suffisance, ni l’approximation, ni les conflits d’intérêts, ni la négligence ou le laisser aller.

Les sept lignes de défense doivent constituer une chaîne sans maillon faible et sans solution de continuité.

Où trouverons-nous les hommes capables d’accomplir une telle mission avec autant de vertu ?

Tel un Prométhée moderne, l’Homme est fier d’avoir dérobé le feu du ciel, mais saura-t-il déjouer les pièges de Pandore et se rendre maître du contenu de la fameuse boîte ?

Certains en doutent…

Repost 0
22 juillet 2012 7 22 /07 /juillet /2012 15:13

 

22 Juillet 2012

Notre Société a pris son parti de devoir payer le prix du sang en échange du droit à la voiture, au tabac et à l’alcool, même si ces trois addictions sont pratiquées avec modération, chacun ayant par ailleurs sa définition personnelle de la modération.

Les dizaines de milliers de victimes sacrifiées annuellement à ces trois vices modernes sont une malédiction collectivement consentie, la nature humaine ayant ceci de merveilleux que l’individu est persuadé que le risque est toujours pour les autres.

Interrogez votre voisin sur son sentiment vis-à-vis des risques de la vie courante; immanquablement il vous répondra que tout ces morts c’est bien triste mais que lui, il est bon conducteur, qu’il ne boit que très peu d’alcool, et qu’il ne fume plus depuis dix ans, que donc il n’est pas concerné par cette hécatombe.

Reconnaître le risque collectif tout en niant le risque personnel, encore une preuve, s’il en était besoin, de l’irrationalité de nos comportements.

Mais ne nous égarons pas.

Le risque nucléaire, c’est autre chose.

Tout le monde a entendu parler de Three Mile Island, de Tchernobyl, et de Fukushima. Les plus curieux sont informés de l’accident de la centrale du Blayais, et de quelques autres. Certains fouineurs connaissent même le problème du couvercle de la cuve de Davis Besse.

Bref, un citoyen responsable ne peut plus ignorer aujourd’hui le risque de se trouver un jour ou l’autre irradié par des émanations répandues au hasard des vents à la suite de la saute d’humeur d’une cuve de réacteur ou de la rupture de quelques tuyaux facétieux, quand ce n’est pas la distraction d’un opérateur qui se trompe de robinet ( Si, si, cela existe !).

Et dans ces circonstances il est difficile de s’estimer personnellement à l’abri d’un tel danger à la fois invisible et imprévisible, qui toucherait une région entière, tous êtres vivants confondus.

C’est pourquoi avec le nucléaire on ne plaisante plus. Pas question d’accepter une seule victime parmi la population, car personne ne peut prétendre y échapper par sa seule vertu personnelle .

Le concept de sureté nucléaire est né de la nécessité de garantir les populations contre tout risque de contamination par des substances radioactives rejetées par les installations nucléaires, que ce soit lors du fonctionnement normal, ou à la suite d’un accident.

Est-ce à dire que l’on aurait enfin trouvé le saint Graal du risque zéro ?

Pas du tout.

Le risque zéro, hélas, n’existe toujours pas; les mauvaises langues diront même qu’il a tendance à s’éloigner avec les progrès de la technologie.

Les installations électro nucléaires, même de bon aloi ( Si tant est que cela existe), émettent normalement des effluents porteurs de radioéléments nocifs, sous forme de gaz, de liquides, ou de déchets solides.

En théorie ces produits sont parfaitement contrôlés et leur présence dans l’environnement reste inférieure aux taux limites établis par la règlementation, laquelle est souvent bonne fille. Leur nocivité est alors déclarée négligeable.

Acceptons-en l’augure.

La sureté nucléaire « standard » est donc réglée par le respect des normes, pour autant que les installations fonctionnent normalement dans leurs conditions nominales.

Le problème se pose lorsque les conditions cessent d’être nominales, en clair lors d’un accident.

Qu’est-ce donc qu’un accident nucléaire ?

Rassurez-vous nous n’allons pas vous imposer la description détaillée d’une installation, ni de tous les « petits » pépins qui peuvent perturber la bonne marche de l’usine, et qui sont réglés neuf-cent-quatre-vingt-dix-neuf fois sur mille grâce à la compétence du personnel et à l’intervention d’un ensemble de dispositifs automatiques de sécurité redondants. Les dégâts lorsqu’il y en a restent confinés à l’intérieur du site, avec éventuellement quelques surdoses de radiations encaissées par le personnel en première ligne, et parfois quelques mois d’arrêt de l’exploitation.

Ce qui nous intéresse, c’est le un pour mille restant.

Nous voulons parler d’une situation de crise dans laquelle les dispositifs automatiques de sécurité ne suffisent plus à reprendre la main, ou lorsque ces dispositifs sont eux-mêmes hors d’état de fonctionner. De telles circonstances peuvent entraîner une perte de contrôle du système avec fusion partielle ou totale du cœur, ce qui constitue LA catastrophe majeure lorsqu’elle s’accompagne de pollution environnementale.

C’est la prévention et/ou la gestion de cette catastrophe majeure qui sont au cœur du concept de sécurité nucléaire.

Rappelons brièvement la séquence d’évènements susceptibles d’accompagner la fusion du cœur d’un réacteur ( nous parlerons plus tard des causes):

- L’emballement de la réaction non contrôlée conduit à une élévation de température jusqu’à 2 200 à 2 700 °C dans le cœur de la cuve.

- Tout ce qui est à l’intérieur de la cuve fond et s’agglomère en un mélange liquide appelé Corium, constitué donc de combustible fondu, du Zircaloy des gaines contenant les pastilles de combustible, et des structures métalliques internes, le tout violemment radioactif évidemment.

- Le Corium coule vers le fond de la cuve, où il rencontre l’eau résiduelle.

- Cette rencontre provoque une explosion de vapeur susceptible de briser la cuve si elle est fragilisée par la fatigue de flux neutronique subi au long des années.

- L’oxydation violente des produits du Corium et le craquage de l’eau dû à la haute température provoque un fort dégagement d’hydrogène qui ne demande qu’à se répandre dans l’enceinte de confinement où il explosera lorsque sa concentration sera suffisante.

- Ces explosions successives sont susceptibles d’entraîner des brèches supplémentaires dans le circuit primaire et/ou au niveau des générateurs de vapeur, et/ou la destruction de l’enceinte de confinement avec émission de produits radioactifs dans l’atmosphère, le fameux « nuage »  tant redouté.

- Le Corium au fond de la cuve est susceptible de la traverser et de se déverser dans le puisard.

- Ce Corium peut alors traverser le radier en béton pour contaminer le sous-sol.

Il suffit de se reporter aux analyses des catastrophes de Tchernobyl et de Fukushima pour obtenir des détails supplémentaires avec des photos et le nombre de morts présents et futurs résultants.

Ce scénario comporte de nombreuses variantes selon les causes des défaillances, leur enchaînement, la réactivité des automatismes de sécurité, les défaillances secondaires induites, etc, etc…

Quelles peuvent être les causes initiales d’une telle catastrophe ?

Plusieurs évènements peuvent enclencher le processus; un seul de ces évènements ne suffit pas à lui tout seul à entraîner le feu d’artifice*, il faut une cascade de dysfonctionnements.

* Sauf peut-être une rupture de cuve, évènement qui n’était même pas envisagé par la procédure jusqu’à présent, mais qui est sérieusement considéré aujourd’hui.

L’évènement principal, le plus redouté, est l’interruption de la circulation du fluide caloporteur. C’est le LOCA ( Lost Of Coolant Accident), qui prélude aux pires calamités.

Dans les REP ( Réacteurs à Eau Pressurisée) le fluide caloporteur est de l’eau. Cette eau récupère la chaleur de la réaction du cœur, et la transmet aux générateurs de vapeur, laquelle vapeur sert à actionner les turbines génératrices d’électricité. Pour des questions de rendement la vapeur doit être à haute température ( plus de 300 °C) et donc l’eau des serpentins également. Cette eau circule en boucle fermée dans le circuit primaire. Elle entre dans la cuve à 280 °C et en sort à 320°C. Pour qu’elle demeure liquide à ces températures, elle doit être sous forte pression ( 155 Kg ). Le débit et évidemment considérable puisqu’il faut évacuer une puissance thermique de 2 700 MW générée dans la cuve ( pour les réacteurs de 900 MW électriques). Ce débit est assuré par des pompes de très forte puissance (plusieurs Mégawatts).

Chaque réacteur de 900 MWe est raccordé à trois générateurs de vapeur et donc à trois boucles primaires.

Cette cocotte minute est maintenue dans un état d’équilibre convenable grâce à un automatisme qui surveille tous les paramètres ( Température, pression, débit, flux de neutrons, etc…) et régule la chaudière par le jeu des barres de contrôle et le dosage subtil d’acide borique dans l’eau de refroidissement. C’est en réalité un peu plus complexe, mais c’est l’idée.

Si cette eau de refroidissement vient à faire défaut ( Tuyau percé, pompe en panne) il est aisé d’imaginer la suite. Le cœur continue à fournir toute sa puissance et tout se met à fondre, produisant le fameux corium destructeur, et bien d’autres désagréments.

Heureusement il y a des dispositifs de sécurité:

La cuve du réacteur est équipée de capteurs de température et de pression. Le pressuriseur, qui ajuste la pression dans le circuit primaire, est lui-même muni de capteurs.

- En cas de brèche dans le circuit d’eau primaire, ou de défaillance de pompe, l’anomalie est détectée par des capteurs qui déclenchent en quelques secondes l’abaissement des barres de contrôle qui placent le réacteur en mode d’arrêt.

- Si besoin est le système automatique procède à l’injection d’acide borique ( le Bore est un bon absorbeur de neutrons et contribue efficacement à freiner la réaction).

- Si nécessaire, le système de secours ( accumulateurs sous pression) procède automatiquement à l’injection massive d’eau froide pour suppléer le manque d’eau principale. ( En effet le réacteur continue à chauffer même avec les barres descendues, et il doit être refroidi).

- Un autre système permet de déclencher l’aspersion de l’enceinte de confinement pour précipiter au sol les produits radioactifs (aérosols) échappés et pour neutraliser l’Hydrogène produit.

Si tout se passe comme décrit ci-dessus l’affaire en reste là et la catastrophe environnementale est évitée.

Mais il se peut que les choses ne se passent pas aussi bien, selon l’origine du défaut initial et selon la réactivité des dispositifs de sécurité. Dans ce cas on ne peut éviter un emballement avec fusion partielle ou totale du cœur.

Il existe de nombreux évènements susceptibles d’initier une séquence accidentelle s’ils ne sont pas immédiatement pris en charge par les automatismes de sécurité. Ces évènements peuvent concerner le matériel lui-même ( Cuve, Tuyauterie, générateurs de vapeur, soudures, robinetterie, barres de contrôle, gaines de combustible, pompes, etc… ), les systèmes de sécurité ( capteurs, pressuriseur, commande des barres de contrôle, système d’injection de sécurité, système d’aspersion dans l’enceinte, d’injection d’acide borique, etc…), la gestion des automatismes, les alimentations électriques, et d’autres dispositifs externes à l’enceinte de confinement mais qui lui sont connectés.

Donc beaucoup de sources potentielles d’ennuis si tout ce petit monde n’est pas surveillé comme le lait sur le feu.

Concernant la prévention et la gestion des risques de catastrophes majeures, les retours d’expérience sont (heureusement) rares, ce qui rend indispensable le développement de programmes de simulation d’accidents élaborés pour pallier le manque d’informations de terrain.

EDF et l’IRSN réalisent des simulations des différentes séquences d’évènements afin d’une part d’en déterminer la probabilité, et d’autre part d’optimiser les procédures de sécurité des centrales existantes et futures.

On pourra trouver des détails dans les documents suivants:

CEA - 2006/ 474 Rev 1

IRSN-2006 :73 Rev1

Cette approche est prise en charge au niveau européen par un PCRD (Programme Commun de Recherche et Développement) qui s’appuie sur le SARNET ( Severe Accident Research NETwork) coordonné par l’IRSN et regroupant 19 pays de L’Union Européenne et la Suisse.

Au niveau de l’OCDE c’est le CSNI ( Comité de Sureté des Installations Nucléaires) qui est chargé d’établir des règles se sureté internationales.

L’existence de ces infrastructures n’est malheureusement pas une garantie de risque zéro.

Elles sont une démarche qui vise à la minimisation de ce risque, ce qui n’est pas tout à fait la même chose. Elles procurent les outils matériels et logiciels permettant d’élaborer la sécurité, encore faut-il qu’ils soient correctement mis en œuvre, ce qui n’est pas toujours le cas si l’on en croit les rapports d’inspection des visites décennales de l’ASN.

On sait par ailleurs que les programmes de simulations, dans quelque domaine que ce soit, doivent être validés par les retours d’expériences sous peine de n’être que des prédictions. Or les retours d’expérience sur les accidents majeurs font défaut dans le nucléaire, ce dont il faut se réjouir pour notre sécurité, mais qui est bien fâcheux car les programmes de simulations d’accidents n’ont jamais pu être été vérifiés sur des cas concrets. Les informations recueillies à la suite des « précédents » déjà cités sont fragmentaires et non directement exploitables.

Notons que Three Mile Island, Tchernobyl et Fukushima ont tout de même fourni une brassée d’informations sur ce qui pouvait advenir dans la réalité, et qui n’était pas toujours pris en compte dans les simulations.

Par ailleurs, les nombreuses anomalies découvertes au cours des inspections ou à l’occasion d’un incident de bas niveau ( sur l’échelle INES), permettent de renforcer la connaissance des points faibles et d’enrichir le savoir faire en matière de sureté.

La perception de la sureté nucléaire par le public est le résultat d’influences médiatiques diverses, parfois sous tendues par des positions idéologiques et/ou politiques, voire même par des intérêts commerciaux.

- EDF , AREVA et le CEA développent le thème de la sureté maîtrisée, et sont moteurs dans les recherches sur ce domaine.

- L’IRSN émet des remarques et fait des suggestions, mais ne dispose d’aucun pouvoir réel sinon celui que lui confère son expertise reconnue.

- Les comités d’élus locaux et d’usagers ( CLIS) tentent d’y voir clair tout en restant attentifs à la sauvegarde des emplois et aux retombées financières. Un de leurs soucis est d’obtenir des expertises d’organismes indépendants à la fois des industriels, de l’exploitant et de l’autorité de tutelle, ce qui semble assez illusoire (En effet, un véritable expert nucléaire ne peut qu’appartenir au sérail, donc sans réelle indépendance dans l’expression de son jugement. Les risques de conflits d’intérêts sont évidents).

- Les écologistes font feu de tout bois pour obtenir la sortie sans nuance du nucléaire et le basculement sur les énergies nouvelles. Leur position manichéenne les place hors course pour la recherche d’un consensus.

- Le Gouvernement n’a qu’une hantise, ne pas mettre le pays en panne d’électricité, ce qui implique de ne rien arrêter avant d’avoir une solution de rechange disponible.

- Le consommateur continue de consommer imperturbablement, refusant à la fois des restrictions et/ou une quelconque augmentation de tarif du KWh.

Il est difficile dans ce contexte de décider une politique énergétique consensuelle garantissant à la fois la sécurité des populations et celle des approvisionnements.

Une chose est sûre: plus le parc nucléaire vieillit, et plus la probabilité d’accident majeur augmente.

Les premiers réacteurs français ( Palier CP0) ont été conçus selon les connaissances et la technologie de 1970. Il y en a deux à Fessenheim et quatre au Bugey. Fessenheim 1 est le prototype de la série. Ils sont en service depuis 35 ans et ont donc dépassé de 5 ans la durée prévue au départ. On peut donc s’interroger sur l’opportunité de les maintenir en service.

Malgré les savants programmes de simulations d’accidents ( EPS, Etudes Probabilistes de Sureté), rien ne permet d’indiquer une date précise au-delà de laquelle la sureté ne serait plus assurée. Les programmes de simulation mathématiques ne peuvent donner qu’un résultat probabiliste en termes de taux de défaut par unité de temps ( Lambda):

«  La probabilité qu’un accident de tel type se produise sur CE réacteur dans l’année qui vient est de tant… ».

Ce qui, concrètement, n’est pas très exploitable: Qui décidera que tel niveau de probabilité est acceptable ou non ?

Et de plus tous les programmes de simulation d’accidents ne sont pas d’accord sur les résultats prévisionnels, aucun d’entre eux n’ayant été testé sur des cas concrets, et pour cause.

Notons au passage que l’analyse des accidents ou incidents « célèbres » montre que les causes déclenchantes n’étaient en général pas prévues par les programmes de simulation d’accidents ( par exemple la surcote de la grande marée au niveau de la centrale du Blayais, pas plus que la hauteur de la vague du tsunami japonais, ni les manœuvres douteuses de Tchernobyl).

La décision d’arrêter ou non un réacteur pour des raisons de sécurité ne peut alors être prise qu’à partir d’éléments dont aucun n’est tout à fait probant tout seul, mais qui ensemble peuvent former un faisceau de présomptions convainquant. La décision finale restera toujours au Politique, dont les critères de jugement sont rarement fondés sur l’approche scientifique.

Il suffit de se remémorer les « affaires » de l’Amiante et du sang contaminé, pour comprendre de quoi nous voulons parler.

Dans une installation électro nucléaire on peut remplacer à peu près toutes les pièces sauf la cuve qui contient le cœur, et dont le remplacement n’est pas prévu lors de la conception, on peut d’ailleurs se demander pourquoi.

( On peut cependant remplacer le couvercle de cuve, qui est démontable pour permettre le changement de combustible).

On doit donc s’interroger sur le vieillissement de cette cuve.

Sur un réacteur de 900 MWe du palier CP0 ( Fessenheim et Bugey), c’est une pièce de chaudronnerie impressionnante de 13 mètres de hauteur, 4 mètres de diamètre, avec des parois de 20 cm d’épaisseur, le tout en acier pour un poids de 330 tonnes !

Il y a un couvercle démontable ( il faut bien pourvoir introduire le combustible et l’extraire quand il est usé), ce couvercle est percé d’orifices recevant des manchons frittés pour le passage des commandes de barres de contrôle et de divers capteurs. Quelques passages sont également disposés dans la paroi de fond de cuve. Tous ces passages sont soudés à l’Inconel.

La nuance d’acier de cuve ( 16 MND 5) a été choisie pour sa bonne résistance à la traction. Mais cet acier est vulnérable à la corrosion par l’acide borique mélangé à l’eau de refroidissement pour contrôler les neutrons. On a donc doublé l’intérieur de la cuve avec une paroi en acier inoxydable soudée de 5 mm d’épaisseur, qui résiste à la corrosion.

Sur les côtés il y a des orifices destinés à recevoir les tuyaux d’arrivée et de départ de l’eau de refroidissement. Ces tuyaux sont soudés à l’Inconel.

Cette cuve est soumise à diverses contraintes:

- La température, plus de 300 °.

- La pression, 155 kg nominal, plus de 200 kg en test.

- Les vibrations.

- Et surtout le flux de neutrons issus du cœur.

Le flux de neutrons fragilise l’acier en modifiant sa structure cristalline et en provoquant des migrations d’impuretés qui ont tendance à se concentrer dans des zones qui deviennent des sources de failles.

La température de transition ductile/fragile est également modifiée (augmentation), ce qui peut rendre l’acier plus vulnérable au choc thermique d’une injection d’eau froide en cas de perte de réfrigérant.

( Au-dessus de la température de transition Tt, l’acier est ductile et peut donc supporter des déformations. Au-dessous de cette température, il devient fragile et cassant. Or le flux de neutrons entraîne à la longue une augmentation de Tt, qui peut alors faire passer l’acier de la cuve dans le domaine fragile en cas de contact avec de l’eau froide).

Il y a donc des causes tout à fait objectives d’usure du matériau de la cuve par fragilisation du matériau et fissuration.

Les conséquences de cette usure sont aggravées par la présence de défauts du matériau à la fabrication, défauts pas nécessairement identifiés au départ, et qui peuvent aussi apparaître lors de la soudure du revêtement en acier inoxydable.

Par ailleurs les repiquages des tuyaux présentent des microfailles au niveau des soudures, qui évoluent également sous le flux des neutrons et s’aggravent avec les contraintes mécaniques( vibrations, contraintes thermiques, pression). Cela fragilise l’ensemble de la cuve.

Les microfailles présentes au niveau des passages de capteurs peuvent constituer des micro fuites d’eau borée qui va passer la barrière d’acier inox et venir ronger la paroi d’acier de cuve sensible à la corrosion.

( Evènement découvert fortuitement sur le réacteur de Davis Besse).

Au bout que quelques dizaines d’années de ce régime, la cuve se trouve donc fragilisée. S’il se produit alors un accident entraînant le dénoyage du cœur et une fusion même partielle, la cuve ne sera peut-être plus assez résistante pour contenir le corium, surtout s’il se produit une surpression explosive de vapeur d’eau au contact du corium avec l’eau de fond de cuve.

L’accident majeur est alors assuré.

Pour éviter d’en arriver là , chaque cuve est l’objet d’une surveillance attentive. A la mise en service, des éprouvettes du même métal sont placées à l’intérieur de la cuve à des endroits très exposés au flux de neutrons. Périodiquement, à l’occasion d’arrêts pour remplacement du combustible et à chaque visite décennale, on prélève quelques éprouvettes et on leur fait subir des tests pour vérifier l’évolution de leurs propriétés mécaniques. Ce procédé permet indirectement d’avoir une bonne information sur le vieillissement de l’acier de la cuve, du moins on l’espère.

(Il faut noter que la validité de ce procédé ne recueille pas l’unanimité. Certains considèrent que les tests sur éprouvettes ne représentent pas l’état réel de l’acier de la cuve).

On procède également à la surveillance de l’évolution des failles précédemment détectées, par une analyse en profondeur à l’aide d’ultrasons ou autres méthodes comme la radiographie ou les courants de Foucault.

Ces inspections sont effectuées à l’aide d’une équipement spécifique appelé MIS ( Machine d’Inspection en Service). Il s’agit d’un ensemble d’instruments de test in situ montés sur une structure de 10 m de hauteur et de 12 tonnes, introduite dans la cuve par la partie supérieure. Un cycle d’inspection dure 9 jours en 3x8.

Ces problèmes de vieillissement sont bien sûr parfaitement connus de EDF, qui en a tenu compte dans la conception des nouveaux réacteurs (EPR) afin de prolonger leur période d’exploitation sur 60 ans ou plus:

D’une part la cuve des EPR est munie à l’intérieur de réflecteurs de neutrons qui réduisent considérablement l’importance de la fragilisation de l’acier sous le flux neutronique.

D’autre part, il est prévu sous la cuve un dispositif récupérateur de corium permettant son étalement et son refroidissement pour assurer sa neutralisation en cas de rupture de cuve.

De plus les piquages de pénétration des instruments en fond de cuve ont été supprimés, pour limiter les risques de fuite à cet endroit stratégique.

L’absence de ces précautions sur les réacteurs d’ancienne génération plaide en faveur de leur mise à la retraite dans les meilleurs délais.

Une telle décision donnerait du corps au programme de sureté nucléaire en renforçant la crédibilité de l’Autorité de Sureté et de l’Industriel.

Les circonstances qui peuvent menacer la sécurité d’une installation constituent un faisceau de différents phénomènes dont il faut absolument éviter la convergence:

- Les défauts propres aux installations, et qui n’auraient pas été corrigés en temps réel ou à la suite des visites décennales. Défauts des structures, de la tuyauterie, des pompes, de la cuve, de la robinetterie, des soudures, des alimentations, des systèmes de sécurité, etc, etc…( Voir rapports d’inspection).

- Les remises à niveaux ( ou non) du matériel, des systèmes de commandes et des logiciels, en fonction des progrès de la technologie.

- Les problèmes de cohabitation de technologies inhomogènes datant d’époques différentes.

- La vulnérabilité du site aux risques extérieurs tels qu’inondations, séismes, chute d’aéronef, attentats, et les protections associées.

- La fiabilité du personnel qui assure la conduite et la surveillance des installations, sa capacité à gérer les situations de crises.

- Les structures d’intervention extérieures, leur compétence, leur disponibilité permanente et la logistique d’accompagnement de crise.

- Les dispositions visant à l’information, la protection et l’évacuation des populations.

Si ces différents domaines de responsabilité et d’action ne sont pas à leur niveau d’excellence, la sureté de l’installation n’est pas assurée.

La sureté nucléaire a donc un coût, certainement considérable, qui doit être pris en compte à son juste niveau dans les calculs de prix de revient.

Le bon équilibre entre la recherche de l’excellence et la recherche de la rentabilité implique des choix qui peuvent faire pencher la balance du mauvais côté.

La sureté d’une installation nucléaire ne doit pas relever des règles ordinaires, inadaptées à l’ampleur de l’enjeu collectif de santé publique .

Sauf à accepter la possibilité d’un accident majeur tout les dix ans, l’industrie nucléaire devra procéder à un changement d’échelle dans la prise en compte des risques spécifiques, et évaluer justement le coût de cette politique de sureté.

Il est évident que cette évaluation devra inclure le traitement des déchets et le démantèlement des installations mises à l’arrêt.

La France possède cinquante-huit réacteurs en service. Il aura fallu la catastrophe de Fukushima pour que l’autorité de sureté nucléaire procède à une inspection générale du parc, accompagnée de « stress tests » .

Cette inspection a mis en évidence des « anomalies » dont chacune est susceptible d’être à l’origine d’un évènement déclencheur, ou d’en aggraver les conséquences.

Malgré ces constats peu rassurants, l’Autorité a conclu que, moyennant quelques travaux de renforcement de principe, tout allait pour le mieux dans le meilleur des mondes nucléaires possibles.

La plus vieille centrale ( Fessenheim) vient de voir sa durée d’exploitation prolongée jusqu’à quarante ans ( 2017) malgré les mises en garde fondées sur des risques environnementaux reconnus:

- Position à 8m en contrebas du niveau du Grand canal d’Alsace.

- Implantation en zone sismique.

- Proximité immédiate de la plus grande nappe aquifère d’Europe.

- Insuffisance d’épaisseur du radier du réacteur N°1.

- Vétusté des installations.

Sans parler des autres défauts décrits dans les rapports de l’IRSN.

On peut donc conclure à l’absence de progrès dans la prise en compte effective du risque nucléaire, qui reste géré comme tout autre risque industriel malgré les annonces incantatoires des autorités de tutelle.

Ce qui n’est pas de nature à rassurer les populations dans un pays à forte densité d’urbanisation et au moment du passage à la génération EPR.

De même qu’il est impossible de garantir le risque zéro dans les transports aériens, il serait malhonnête de prétendre y atteindre avec le nucléaire.

La population est fondée à exiger la plus grande transparence ainsi que l’accès le plus large aux informations qui doivent pouvoir être analysées et interprétées en toute indépendance vis-à-vis de l’industriel, de l’exploitant, et de l’autorité de tutelle.

De grands progrès ont été réalisés dans le domaine de l’identification des points faibles du système. On sait ce qu’il ne faut pas faire, quelles sont les améliorations à apporter aux installations existantes, quelles sont les études à entreprendre pour développer les connaissances, quels sont les efforts à déployer pour atteindre l’excellence dans la formation du personnel, la gestion de la sous-traitance, la maîtrise des systèmes informatiques.

Le plus dur reste à faire: mettre tout cela en pratique…

Repost 0
3 juillet 2012 2 03 /07 /juillet /2012 16:58

 

03 Juillet 2012

En cette période de veillée d’armes, qui voit chacun fourbir ses arguments en faveur de telle ou telle politique énergétique, il n’est pas inutile de passer les troupes en revue afin d’essayer de mesurer les forces et les faiblesses des futurs candidats au remplacement du pétrole et de ses acolytes le gaz et le charbon.

Auparavant il est important de lever un malentendu à propos du challenge des énergies durables. Les médias évaluent souvent leurs possibilités en termes de pourcentage de remplacement dans le domaine de l’énergie électrique, l’objectif étant alors les 300 ou 400 TWh électriques actuellement consommés.

La réalité est toute autre car il s’agit en fait de remplacer à terme la totalité des énergies fossiles carbonées et du nucléaire, soit 87% de l’énergie finale consommée.

Ce qui change complètement la donne.

La consommation 2010 d’énergie finale en France a été d’environ

160 Mtep, ou encore 1 860 TWh , dont 320 TWh d’électricité nucléaire.

Le panier énergétique était le suivant:

Pétrole: 42,1%

Gaz naturel: 22,7%

Charbon: 4,7%

Total fossiles carbonées: 69,5%

Nucléaire: 17,1%

Bois/Biomasse: 6,4%

Hydraulique: 3,5%

Agro carburants/ 1,7%

PAC: 0,8%

Eolien: 0,6%

Solaire +

Biogaz +

Géothermie +

Déchets: 0,5%

Total renouvelables: 13,5%

Source: SOES/ 2011

Près de 87% de l’énergie finale consommée en France sont donc d’origine fossile carbonée et nucléaire, les énergies durables étant encore très minoritaires.

Le basculement vers les énergies durables ne peut être qu’un processus lent soumis aux aléas de la Politique d’une part, au coût des combustibles fossiles d’autre part, aux possibilités de financement et aux aléas du marché en général, et bien sûr à l’occurrence de la pénurie de combustibles fossiles.

On ne peut donc que faire des hypothèses sur la physionomie du futur mix énergétique, en ayant conscience de la fragilité du scénario.

Notre scénario pour 2050 est basé sur le mix énergétique suivant:

Consommation finale: 2 000 Twh ( 170 Mtep)

( Demande supposée stabilisée grâce aux économies d’énergie ).

Répartition: Fossiles et nucléaire: 50%

Renouvelables: 50%

(Le basculement total sur les énergies renouvelables ne nous paraît pas crédible avant la fin de ce siècle).

En 2050, 1 000 TWh seraient donc issus des énergies renouvelables, répartis comme suit:

- Eolien: 30% 300 TWh

- Solaire Thermique: 15% 150 TWh

- Solaire Photovoltaïque: 15% 150 TWh

- Hydraulique: 10% 100 TWh

- Géothermique: 10% 100 TWh

- Biomasse: 20% 200 TWh

( Incluant bois énergie et valorisation des déchets)

Cette répartition correspond à un scénario moyen, d’autres hypothèses seraient tout aussi recevables. Nous avons donné le rôle principal à l’Eolien et au Solaire, chargés de fournir 60% du renouvelable en 2050. L’Hydraulique ne semble pas susceptible d’une forte croissance, la biomasse parait plus prometteuse.

Cette énergie de substitution se présentera essentiellement sous forme d’électricité, soit directement par nature ( Eolien, photovoltaïque, hydraulique), soit convertie en électricité pour faciliter son transport par le réseau ( Centrale solaire thermique ). Une partie sera disponible sous forme de gaz et sous forme de carburants liquides pour les transports (Biomasse, déchets, GTL) ou directement sous forme de chaleur (Géothermie, bois énergie).

L’électricité restera le médium privilégié car elle seule permet le transport d’énormes quantités d’énergie instantanément sur de très longues distances, ce qui est indispensable car les lieux de production sont souvent loin des lieux de consommation, les lieux de production étant eux-mêmes fluctuants au gré des vents et de l’ensoleillement ( Solaire et éolien).

Le développement de cette stratégie restera fortement conditionné par la disponibilité de solutions de stockage de l’énergie électrique. Ce problème peut même s’avérer un obstacle insurmontable en cas d’impossibilité de pallier l’intermittence des sources.

Cette production électrique sera obtenue par la mise en œuvre de divers procédés connus: Eolien, Solaire, Hydraulique, Géothermie, Biomasse, etc.

La contribution de ces divers procédés dépendra de nombreux facteurs tels que le coût, l’acceptabilité par la population, la possibilité ou non de stockage de l’électricité, les capacités de gestion du réseau, etc…

Examinons le cas de l’Eolien:

La France ne manque pas d’air, ses façades maritimes lui garantissent un régime de vents propice à une exploitation efficace.

Nous exploiterons les données fournies par FEE ( France Energie Eolienne), qui est l’organe spécialisé du SER ( Syndicat professionnel des Energies Renouvelables).

Fin 2010, le parc éolien du territoire métropolitain comportait 2 909 éoliennes terrestres pour une puissance installée de 5 230 MW.

La puissance installée moyenne des machines, 1,8 MW, traduit la modernité des installations qui pour la plupart sont assez récentes.

La production annuelle 2010 effective de ce parc a été de 8,7 TWh.

La production annuelle potentielle théorique étant de 45,8 Twh.

Le facteur d’efficacité est donc d’environ 19%, valeur plutôt classique pour de l’éolien terrestre.

Ces données nous suggèrent quelques réflexions:

En termes économiques de coût de l’énergie primaire, un facteur d’efficacité de 19%, certes peu élevé, reste rentable puisque le vent est gratuit, contrairement au pétrole ou au gaz .

Les éoliennes off shore offrent une efficacité double ( environ 40%). Les premières éoliennes de ce type ne seront opérationnelles sur les côtes françaises qu’après 2015 ( ou 2018 ?).

En 2050 on peut estimer que le parc éolien français sera réparti ainsi, en termes de production:

Off shore: 60% / Machines de 5 MW.

Terrestres: 40% / Machines de 3 MW.

Une machine terrestre de 3 MW installés produit environ 5 GWh annuellement.

Une machine off shore de 5 MW produira 17,5 GWh.

Pour produire 300 TWh en 2050 ( selon notre scénario), le parc éolien devra donc comporter environ 24 000 éoliennes terrestres et 10 000 éoliennes off shore.

Ceci en 2050 et pour une participation des énergies durables à hauteur de 50% de l’énergie totale consommée.

Ces quantités sont à multiplier par deux dans la perspective d’une substitution complète des énergies fossiles et nucléaire par l’ensemble des énergies durables, à une échéance de la fin du siècle.

Serons-nous prêts à accepter un environnement peuplé de plus de 70 000 éoliennes ?

On peut raisonnablement penser que le développement de l’Eolien à un tel niveau rencontrera de gros problèmes d’acceptabilité par les populations.

Indépendamment bien sûr des problèmes de coût d’investissement et de prix de revient de l’énergie produite.

Qu’en est-il pour le Solaire ?

Dans notre hypothèse l’énergie solaire contribuerait en 2050 à hauteur de 300 TWh également, répartis pour moitié en centrales solaires thermiques et pour moitié en Photovoltaïque.

Les centrales solaires thermiques occuperaient une surface de l’ordre de 400 km2, selon les rendements retenus et l’ensoleillement disponible.

Ceci pourrait correspondre à une quinzaine d’unités de production de 25 km2, situées dans le Sud du pays.

La production photovoltaïque serait répartie entre des centrales de forte puissance et des unités de production réparties sur les surfaces disponibles du territoire ( toitures).

L’exploitation de l’énergie solaire posera donc infiniment moins de problèmes environnementaux que l’exploitation des vents, du moins ces problèmes seront-ils localisés. L’emprise foncière restera modérée, en tous cas très inférieure à celle des nouvelles constructions de logements et/ou des surfaces consacrées à la production d’agro carburants.

Les autres sources d’énergie durable poseront encore moins de problèmes.

Le développement de l’hydraulique sera limité par les contraintes environnementales, une croissance significative n’est possible qu’en se tournant vers la Mer.

La biomasse, le bois énergie, les agro carburants, la valorisation des déchets, sont des gisements d’énergie prometteurs mais d’une part leur contribution future est difficile à évaluer, et d’autre part leur impact sur l’environnement peut ne pas être négligeable( encouragement à la déforestation, emprise sur les terres agricoles, émission de fumées polluantes, bilan CO2 discutable).

De cette analyse très sommaire il ressort que le remplacement des énergies fossiles carbonées et du nucléaire par des énergies renouvelables propres sera une entreprise de grande ampleur et de longue durée qui nécessitera l’adhésion de la population car des sacrifices devront être consentis.

Les Etats auront le choix entre deux stratégies:

La première consiste à ne rien faire tant que les énergies fossiles restent disponibles à un coût acceptable. Stratégie compréhensible à la rigueur pour les Etats disposant de leurs propres réserves énergétiques, mais stratégie suicidaire en l’absence de ressources internes.

La seconde option consiste à établir un programme cadre pour le développement des énergies durables, fixer les objectifs dans les différents domaines énergétiques, établir un calendrier et un budget, définir les moyens et les ressources humaines, mettre en place des structures pérennes capables de gérer ce programme sur plusieurs décennies, sur le modèle de ce qui fut fait avec succès pour le développement du nucléaire.

Peut-être une ambition à la hauteur de la future nouvelle Europe ?

 

 

 

 

 

 

 

 

Repost 0
22 juin 2012 5 22 /06 /juin /2012 07:32
22 Juin 2012
La centrale nucléaire de Fessenheim est appelée à occuper le devant de la scène lorsque le programme énergétique de la France viendra à l’ordre du jour, ce qui ne saurait tarder.
L’affaire est désormais connue, inutile de refaire l’histoire.
Je voudrais parler de l’importance particulière de l’eau comme facteur de risque à Fessenheim.
La centrale est implantée au bord du grand canal d’Alsace.
Le schéma ci-dessous est une coupe transversale de la vallée.
Les-crues-du-Rhin_1.png
 
Le grand canal d’Alsace a été construit pour pallier les caprices du Rhin « naturel » dont les nombreux méandres fantaisistes rendaient la navigation très problématique.
Des travaux d’endiguement ont contribué à maintenir le fleuve dans un lit mineur en temps normal, lit bordé par des digues submersibles.
En période de crues, un lit majeur a été défini par des digues insubmersibles qui protègent en dernier ressort les habitations et les installations industrielles.
 
Les-crues-du-Rhin_3.png 
 
 
L’eau du fleuve est partagée entre le Rhin naturel d’une part, et le canal d’Alsace d’autre part, ce partage étant réalisé au niveau du barrage de Kembs situé en amont, grâce à cinq portes monumentales télécommandées. Le canal d’Alsace reçoit un débit régulier nécessaire pour la navigation et pour le fonctionnement des usines hydroélectriques classiques et nucléaire. Le débit max dans le canal est de 1 400 m3/s.
Le reste est envoyé dans le Rhin naturel.
La centrale nucléaire se contente d’utiliser l’eau du canal pour refroidir le circuit secondaire des réacteurs, l’eau utilisée est rejetée dans le canal.
(En effet, les deux réacteurs produisent à eux deux 5 400 MW thermiques, dont le tiers est transformé en électricité, le reste est évacué par les radiateurs et sert à chauffer l’eau du canal. Il y a tout de même 3 600 MW thermiques à évacuer, ce qui demande un débit d’eau colossal, équivalent à celui d’un fleuve moyen).
Le débit moyen du Rhin est de 1050 m3/s, mais il peut monter jusqu’à 5000 m3/s lors des crues de Juin/Juillet ( crue des cerises). Le fleuve occupe alors son lit majeur.
Les crues du fleuve sont gérées par un organisme Franco-Allemand qui s’appuie sur plusieurs échelons:
- D’abord la gestion prévisionnelle des niveaux du grand canal et de la retenue de Kembs afin de constituer des réserves de capacité.
- Ensuite l’occupation du lit majeur.
- Puis l’intervention des « barrages agricoles », côté allemand .
- Enfin l’ennoyage des polders.
( Les polders sont des grands bassins de rétention aménagés tout au long du cours du fleuve et qui sont remplis selon les besoins pour absorber le surplus d’eau. Ils fonctionnent à l’envers de leurs homologues néerlandais).
Ce dispositif complexe permet de contenir les crues du fleuve, même à l’occasion des crues centennales avec un débit de 5000 m3/s.
Inutile de préciser que la centrale nucléaire est située au-dessus du niveau des plus hautes eaux centennales, ainsi que les autres centrales.
Bien sûr, on peut toujours s’interroger sur les conséquences du réchauffement climatique sur le régime des crues du Rhin, et sur la capacité des moyens de contrôle à gérer des surcotes imprévues.
La centrale de Fessenheim se trouve donc théoriquement protégée contre tout risque d’inondation due aux crues du Rhin, dans la mesure où elles ne dépassent pas le maximum syndical fixé par les ingénieurs.
On peut se demander pourquoi les bâtiments de la centrale ont été installés au pied du Grand canal. Il y a à ce choix étrange plusieurs raisons:
- La première raison tient à la fiabilité de la source d’eau dont le débit est contrôlé par les portes du barrage de Kembs en amont, et à la protection vis-à-vis des crues maximales ( Protection réalisée par les digues du canal puisque la centrale se trouve rive gauche et que le danger vient de la rive droite).
- La deuxième raison tient à la nécessité d’avoir accès à l’eau directement, avec une dénivelée la plus faible possible. En effet, la puissance requise pour pomper l’eau augmente avec la dénivelée, et peut atteindre plusieurs mégawatts par mètre pour des débits de 50 m3/s.
Le choix de l’emplacement actuel permet de « limiter » la puissance des pompes à 6 Mégawatts !
- La troisième raison est liée au poids des installations. Il serait hasardeux de monter des bâtiments de réacteurs sur des structures artificielles en hauteur. Le poids énorme de ces structures entrainerait des risques de tassement de terrain préjudiciable à la sécurité. C’est pourquoi on se « limite » à un radier en béton posé sur le sol naturel éventuellement stabilisé.
Pour toutes ces raisons, la centrale se trouve au pied du canal , à environ 8 mètres en dessous du niveau des eaux.
Le schéma ci-dessous donne une vue transversale d’ensemble.
Coupe-grand-canal-d-Alsace.png
 
Il est évident qu’une rupture de la digue entraînerait une catastrophe nucléaire majeure avec fusion des cœurs, percement du radier et contamination de la nappe phréatique.
Parmi les causes de ruptures de la digue on de doit pas oublier un accident de navigation par un des nombreux navires qui transitent par les écluses de Fessenheim, à hauteur de la centrale. On ne doit pas écarter non plus la possibilité d’une explosion sur un navire, accident ou sabotage.
Mais cette digue , de par ses dimensions imposantes ( voir schéma) , semble à l’abri d’une rupture fortuite. Elle est l’objet d’une surveillance constante pour la détection des éventuelles fuites, et l’entretien du revêtement d’étanchéité en béton.
Cependant il faut tenir compte de la nature sismique de la région, siège de fréquents tremblements de terre de magnitudes modestes . On ne peut écarter le risque d’un séisme majeur, dont la date et la magnitude sont bien sûr inconnues. Il en a été tenu compte dans la conception de l’ouvrage , en prenant comme référence la magnitude la plus forte jamais enregistrée.
Hélas cette référence n’est pas fiable car elle n’est qu’une évaluation à partir d’indices fragiles.
Les partisans de la fermeture du site utilisent ce danger comme principal argument, non sans quelques raisons.
Le risque sismique ne concerne pas seulement la digue. Le danger principal concerne les bâtiments des réacteurs, les bâtiments des pompes, les bâtiments de contrôle, les équipements d’assistance, les équipements d’alimentation électrique, les piscines à combustibles, les pompes de secours, les accès aux sources auxiliaires de refroidissement.
Tout ce petit monde , interconnecté par des câbles, des tuyaux, etc , subirait de gros dégâts susceptibles de conduire à une catastrophe nucléaire majeure.
Mais hélas une autre donnée vient compliquer le problème.
Le schéma ci-dessous montre que la centrale est installée sur la nappe aquifère d’Alsace.
Nappe-phreatique-d-Alsace-1.png
 
Cette nappe est la plus grande réserve d’eau douce d’Europe. Les relevés de l’APRONA ci-dessous montrent que l’eau n’est qu’à quelques mètres de profondeur.
Profondeur-nappe-d-alsace-a-Fessenheim.png
 
On imagine sans peine l’ampleur des dégâts causés par un corium pénétrant dans la nappe après avoir traversé le radier de béton. Un accident qui créerait une situation de crise sans précédent.
Et ceci alors que la digue pourrait rester intacte.
Les opposants au maintien de la centrale en fonctionnement ne manquent donc pas d’arguments fondés pour exiger son arrêt.
Trois évènements externes ont donc été identifiés comme pouvant chacun entraîner une catastrophe majeure:
- Une rupture de la digue.
- Une inondation due à une crue de surcote.
- Un séisme.
A ces évènements externes viennent s’ajouter bien sûr les cause internes possibles d’accident nucléaire, inhérentes au système nucléaire lui-même.
A chacune de ces causes prises séparément on peut opposer la liste des mesures de sécurité préventives et curatives prévues.
Mais le cumul de toutes ces causes conduit à une probabilité d’accident majeur préoccupante.
La préoccupation est renforcée par le constat de certaines anomalies susceptibles d’aggraver les conséquences d’un éventuel accident:
- Implantation de la centrale à un niveau très inférieur au niveau de l’eau du canal.
- Epaisseur du radier notoirement trop faible ( 1,5 m ). Les autres centrales ont des radiers de 3m d’épaisseur.
- Absence de dispositif d’étalement et de récupération du corium. Ce dispositif est prévu sur les futurs EPR.
- Absence de solution de secours pour le refroidissement en cas de défaillance du circuit principal ou d’obstruction des grilles de captation.
- Trop grande proximité de la nappe phréatique.
- Protection insuffisante des bâtiments stratégiques contre les inondations (seule une digue de 1 m entoure la zone stratégique).
L’accumulation de ces défauts et de ces facteurs de risques laisse penser que la centrale est une bombe à retardement, et qui le restera malgré les quelques travaux d’aménagement prévus par EDF.
C’est une lourde responsabilité qui sera engagée par l’autorité qui prendra la décision de poursuivre l’exploitation de ce site, en laissant peser sur la région, les populations et l’environnement, une menace aussi bien identifiée.
Repost 0
18 juin 2012 1 18 /06 /juin /2012 11:47

 

18 Juin 2012

L’OMS vient donc d’annoncer le classement des émissions des moteurs Diesel en Groupe1, qui réunit les produits dont le caractère cancérigène est prouvé.

Quelles peuvent être les conséquences d’un tel classement ?

Rassurez-vous, aucune conséquence fâcheuse directe à court terme n’est attendue pour les pourvoyeurs de ces produits et leurs usagers.

Ce fameux Groupe 1 comporte 107 produits dont beaucoup sont encore d’usage courant, comme l’alcool et le tabac. Et, comme chacun peut le constater, ces produits ne sont l’objet d’aucune mesure d’interdiction de vente ou de consommation.

L’Amiante, déclaré cancérigène en 1973, n’a été interdit que 24 ans plus tard.

Le consommateur, qui ne peut ignorer les ravages provoqués par l’alcool et le tabac, continue cependant de consommer ces produits en toute indifférence.

Le groupe 1 comprend également les radiations solaires ultraviolettes, et cependant l’exposition des personnes, et surtout des jeunes enfants, n’est toujours pas interdite, ni même règlementée.

Il ne faut pas s’attendre à une réaction de rejet des consommateurs contre les moteurs Diesel, du moins tant que la fiscalité sur le carburant restera attractive.

L’annonce de l’OMS n’aura donc pas plus d’effet qu’un pet sur une toile cirée.

Les industriels de tout secteurs ont depuis longtemps entrepris des études pour réduire les émissions polluantes de leurs matériels, sous la pression des règlements Européens dans le cadre de la lutte contre la pollution de l’air ambiant. Le Diesel notamment a été particulièrement soigné grâce au montage des filtres à particules, qui restent cependant très controversés dans leur usage citadin, là où ils seraient le plus utile.

D’autre part les pouvoirs publics disposent de l’outil ZAPA ( Zones d’Actions Prioritaires pour l’Air) leur permettant de gérer de manière souple et progressive les éventuelles mesures restrictives de circulation.

Huit projets de ZAPA sont en cours d’études préliminaires.

Le classement de l’OMS, en offrant une base juridique, pourrait être une incitation à accélérer ces projets.

Mais une interdiction des centres villes aux véhicules les plus polluants, en principe les plus anciens, aurait un caractère socialement discriminatoire qui provoquerait un rejet de la population, avec des retombées électorales que tout élu aura à cœur d’éviter. Si seuls les véhicules de moins de cinq ans sont autorisés par exemple, c’est l’ensemble d’une classe sociale qui sera exclue, ce qui paraît assez surréaliste.

L’expérience malheureuse de feu la pastille verte aura au moins permis de toucher du doigt la complexité du problème.

La dépollution des centres villes n’est pas une mince affaire. La solution semble se trouver du côté de la promotion des moyens de transport collectifs électriques plutôt que par l’appel à des mesures discriminatoires fort impopulaires.

La généralisation des tramways et/ou métros avec extension des réseaux en banlieues est une première étape en voie de réalisation.

L’étape suivante pourrait être réalisée grâce aux véhicules hybrides à condition qu’ils puissent être généralisés sous peine de retomber dans des mesures discriminatoires.

Réduire les émissions polluantes des véhicules ne suffira pas à réduire la pollution urbaine. Les autres sources de pollution, notamment les chaudières au fuel, au charbon, ou au bois, devront faire l’objet de mesures aussi sévères sous peine de résultats globaux insuffisants.

Il s’agit donc d’une démarche généralisée qui passe par les économies d’énergie, le recours aux énergies durables, et le développement de solutions de transport écologiques.

Prendre le contre-pied des méthodes actuelles dispendieuses et indifférentes à l’environnement ne se fera pas sans remise en question de nos modes de vie, ce qui peut prendre plusieurs décennies.

Repost 0