Overblog Suivre ce blog
Administration Créer mon blog
17 septembre 2012 1 17 /09 /septembre /2012 11:52

 

17 Septembre 2012

La conférence de Vendredi et Samedi derniers se proposait de traiter d’un programme extrêmement large puisqu’il s’agissait ni plus ni moins que de l’Environnement.

La majuscule est de mise eu égard à l’ampleur du sujet et à l’imprécision de son contenu.

Que l’on rebaptise le sujet sous l’étiquette « Diversité et Transition énergétique » ne change rien puisque ces deux termes contiennent à peu près la même chose, c’est-à-dire tout.

L’intention de traiter de tout dans une même conférence est certes louable puisqu’elle traduit la volonté de tout prendre à bras le corps, mais le risque est grand de tomber dans la confusion et surtout de parfois se tromper d’interlocuteur.

Une assemblée de quatorze ministres et trois cent élus et représentants d’ONG , employeurs et salariés, ne pouvait en deux jours que prendre la forme d’une grand messe inaugurale au cours de laquelle quelques grandes lignes directrices seraient évoquées, puisées pour l’essentiel dans le programme électoral du nouveau Président.

La panoplie dont souhaite s’équiper le Gouvernement pour atteindre ses objectifs comprend des mesures industrielles, sociales, fiscales, commerciales, règlementaires, que l’on peut essayer de mettre en ordre:

D’abord, les mesures décidées sinon actées:

- Confirmation de la décision de fermeture de la centrale électronucléaire de Fessenheim fin 2016, annoncée pour 2017 dans le programme électoral.

- Lancement imminent d’un nouvel appel d’offre éolien off shore, également déjà antérieurement programmé.

- Annulation des permis d’exploration et d’extraction des huiles et gaz de schistes, confirmation du moratoire existant.

- Pour l’éolien, suppression de l’obligation d’appartenir à une ZDE ( Zone de Développement de l’Eolien) , et mise en place d’un tarif d’achat adapté à l’Outre-mer.

- Interdiction de l’épandage aérien de produits phytosanitaires sauf en l’absence de solutions alternatives.

- Augmentation du malus automobile par abaissement de 5g du seuil de CO2 par km.

- Confirmation du soutien du Gouvernement à la proposition de loi sur la suppression du Bisphénol A dans les contenants alimentaires.

- Pour l’électricité et le gaz, extension du bénéfice du tarif social à 4 millions de ménages modestes au lieu de 1 million aujourd’hui.

Ensuite les promesses:

- Pour mi 2013, Loi fixant la stratégie pour la réduction de la part du nucléaire à l’horizon 2025 ( de 75% à 50%).

- Simplification des procédures administratives pour l’éolien et le photovoltaïque.

- Création d’un guichet unique pour la rénovation thermique des logements.

- Tarification progressive de l’énergie.

- Lutte contre l’artificialisation des sols.

- Hausse de la taxe générale sur les activités polluantes ( TGAP).

- Création en 2013 d’une Agence nationale de la biodiversité.

- Proposition de relance de la taxe carbone aux frontières de l’Europe.

- Baisse des taux de défiscalisation des biocarburants à partir de 2014 pour extinction en 2015.

- Maintien du moratoire sur la mise en culture des OGM.

- Lancement d’un nouveau plan pour l’agriculture biologique.

Des incitations pour les industriels et les particuliers:

- Développer dans les dix ans un véhicule consommant 2 litres d’essence aux 100 Kms.

- Mettre en œuvre un vaste plan de rénovation thermique des bâtiments.

Il s’agit donc d’un programme général d’orientation pour le quinquennat, qui ne vaudra que par la concrétisation des mesures promises.

Quels commentaires tirer de la lecture de cette panoplie ?

Les grincheux regretteront l’absence ( confirmée par le premier Ministre) de mesures d’harmonisation de la taxe sur les carburants, qui laisse la part belle au diesel et donc va à l’encontre des préconisations de Bruxelles sur la pollution urbaine.

Les comptables regretteront que rien ne soit dit concernant le financement de ce vaste programme.

Les tatillons s’étonneront que l’on s’oppose aux gaz de schiste en France tout en acceptant le pétrole off shore guyanais.

Les ingénieurs se demanderont de quel chapeau a été tiré cet objectif de développement d’un véhicule consommant 2 L d’essence aux 100 Kms.

Les usagers voudront savoir pourquoi le soutien du Gouvernement va à un véhicule à essence plutôt qu’à la voiture électrique.

Les urbanistes voudront savoir quelles grandes idées présideront au programme de lutte contre l’artificialisation des sols.

Enfin la plupart s’étonneront de n’avoir rien entendu concernant un éventuel grand plan d’amélioration des transports en commun, pourtant la clé de la diminution de consommation d’énergie dans les transports.

Cette grand messe aura eu quand même le mérite de poser quelques jalons, mais également d’ouvrir une période de débats car de nombreuses questions restent ouvertes.

Il faudra attendre un an ou deux pour que ces idées généreuses atterrissent sur un programme concret tenant compte des possibilités de financement.

 

 

 

Repost 0
17 septembre 2012 1 17 /09 /septembre /2012 11:25

 

17 Septembre 2012

Droit de réponse.

Notre article du 15 Septembre

«  Le nouveau compteur Linky, quelques idées reçues »

A fait l’objet d’un commentaire qui se veut destructeur, mais dont le contenu renforce notre volonté de combattre les idées reçues.

Le commentateur fait un amalgame entre le système de communication à courants porteurs basse fréquence ( utilisés par Linky) et la norme GPRS, qui est une norme pour la téléphonie mobile qui n’a évidemment rien à voir avec le compteur Linky.

Ce genre d’amalgame, que nous attribuons à l’ignorance plutôt qu’à la malveillance, est de nature à fausser le jugement de lecteurs peu familiers de la technique des communications.

D’autre part le même commentateur déclare qu’il n’y a pas une ligne de vrai dans notre exposé, sans pour autant donner le moindre détail sur les éventuelles contre-vérités relevées.

Nous sommes toujours disposés à débattre de tous les sujets abordés et bien sûr à reconnaître nos erreurs, encore faut-il apporter des arguments sérieux.

 

 

Repost 0
15 septembre 2012 6 15 /09 /septembre /2012 16:13

Le nouveau compteur Linky, quelques idées reçues.

15 Septembre 2012

Comme toujours lorsqu’une application nouvelle est « imposée » sans explication, une polémique s’engage, ce qui révèle une saine vigilance du consommateur usager.

L’introduction du nouveau compteur électrique Linky n’échappe pas à la règle.

Parmi les arguments présentés ici et là, il circule quelques idées reçues qu’il n’est pas inutile d’essayer de démonter, ne serait-ce que pour préserver le sérieux des vrais arguments.

«Ce nouveau compteur communique grâce à des ondes nocives, comme celles du téléphone portable mis en accusation par l’OMS » .

Cette accusation résulte d’une confusion. Les transmissions CPL (Courants Porteurs en ligne) consistent en la superposition d’un signal de communication sur la tension du secteur 230 Volt.

Au début de cette technologie on n’utilisait que des signaux de communication à basse fréquence, les signaux à transmettre étant simples comme allumer les réverbères par exemple.

Puis la technologie et la règlementation ont évolué, jusqu’à permettre aujourd’hui la transmission de signaux à haute fréquence de plusieurs Mhz.

Ces signaux de haute fréquence sont effectivement perturbateurs car le réseau domestique 230 V n’est pas blindé et donc les fils du secteur servent d’antenne et rayonnent de manière sauvage.

Mais les transmissions CPL utilisées par EDF n’utilisent que le domaine basse fréquence qui lui n’émet aucune onde électromagnétique:

Deux fréquences: 63,3 KHz et 74 KHz

( Il s’agit de Kilo Hertz et non de Méga Hertz )

Modulation S-FSK.

Débit 2 400 bauds.

Il existe dans le résidentiel des applications communicantes qui utilisent des liaisons radio à haute fréquence, mais qui n’on rien à voir avec le compteur Linky. On les trouvent par exemple dans la Domotique, les systèmes d’alarme sans fil, les télécommandes, etc, etc…

EDF n’a rien à voir dans tout çà.

«Les ondes émises provoquent des troubles chez les personnes électro sensibles ».

Même réponse que ci-dessus.

Des manifestations d’électro sensibilité, qui n’ont rien à voir avec Linky, ont été rapportées et seraient dues à la proximité de lignes à haute tension ou d’un transformateur de distribution.

D’autres cas d’électro sensibilité seraient liés aux micro ondes émises par le réseau de téléphonie mobile. EDF et Linky y sont bien entendu étrangers.

« Ce compteur n’apporte aucune économie d’énergie»

Par lui-même ce nouveau compteur n’apporte techniquement aucun gain d’énergie dans une installation existante. Il n’est pas en lui-même un système d’économie d’énergie.

Par contre il offre de nombreuses possibilités qui, elles, conduiront à des économies lorsque le client voudra bien s’équiper pour en tirer profit. C’est un équipement pour l’avenir, prévu pour accompagner la transition énergétique.

Dans l’immédiat, sur une installation basique, le client ne verra aucune différence après remplacement de son compteur bleu électronique (CBE) par un Linky.

Par contre si son ancien compteur était un vieux truc électromécanique (encore 60 % du parc), il bénéficiera des possibilités de l’actuel CBE. Possibilités limitées mais non négligeables et susceptibles de permettre d’optimiser sa consommation dès maintenant.

«  C’est une dépense inutile qui n’apportera rien en échange »

C’est faux, EDF ne facture pas le remplacement du compteur au client.

Bien évidemment l’opération a un coût qui sera intégré dans les dépenses d’investissement de EDF. Ce coût est annoncé à 4 Milliards d’euros pour équiper 35 millions de clients sur une période d’une dizaine d’années.

Cette dépense est à mettre en face des économies que ce système permettra à EDF de réaliser dans le futur, et qui se chiffrent en nombre de centrales économisées par une meilleure gestion de la consommation globale rendue possible grâce à Linky.

« Mes données personnelles vont circuler sur le réseau et pourront être piratées ».

Les échanges entre le compteur et le concentrateur sont cryptées par un système conforme au Green Book COSEM, avec une clé de 128 Bits.

La protection des données transitant par le réseau ERDF est donc assurée par des protocoles de haut niveau.

Par contre l’usage qui sera fait de ces données par le destinataire ( EDF ou tout autre fournisseur d’énergie comme Poweo, Direct Energie, GDF-Suez, etc…) devra être transparent et parfaitement encadré.

La CNIL doit être garante du respect de la vie privée, de la confidentialité, et de la protection des droits et intérêts du consommateur.

C’est un point qui aujourd’hui n’est pas encore très clair.

«Mes données pourront être utilisées par mon fournisseur d’électricité à des fins de marketing pour m’inciter à souscrire à des options coûteuses ».

Peut-être, mais le client n’est pas obligé d’accepter n’importe quelle proposition.

Les consommateurs reçoivent déjà aujourd’hui des propositions de la part de fournisseurs alternatifs et Linky n’y est pour rien.

Là encore la CNIL et les associations de consommateurs devront être attentives et exiger une grande clarté des diverses propositions tarifaires.

 

« Je ne serais plus maître chez moi si le fournisseur m’impose des délestages ».

Les délestages ne sont jamais pratiqués de manière impromptue. Ils sont négociés avec le client sur des bases contractuelles et avec des incitations tarifaires.

Lorsque, au cours d’une période de pointe de consommation, le gestionnaire de réseau constate un risque de saturation, il procède à des délestages pour éviter une panne générale par disjonction automatique.

Les zones touchées par le délestage sont évidemment intégrées dans un plan tenant compte des besoins des clients de la zone, et ceux-ci sont bien sûr informés.

Le compteur Linky permettra d’optimiser cette fonction client par client, et de lisser la consommation pour éviter le risque de saturation. L’objectif étant d’éviter tout délestage intempestif.

Aujourd’hui la puissance moyenne consommée par la France est de

45 GW, alors que les pointes de consommation atteignent 100 GW.

Le gestionnaire de réseau doit dont installer des capacités de puissance pour 100 GW, alors que la moitié devrait suffire. Il y a là un surcoût colossal qui sera atténué grâce à la transition vers un réseau intelligent, dont la première brique est le compteur Linky.

De plus il faut savoir que, au-delà de 80 GW consommés, la France doit importer de l’électricité. Or cette électricité est chère et d’autre part nos voisins s’orientent vers une sortie du nucléaire et donc ne pourront plus nous dépanner.

Il y a donc de multiples raisons qui rendent incontournable l’évolution vers un réseau intelligent.

En gros il s’agit de faire en sorte d’éviter que tous les clients démarrent leurs appareils de puissance en même temps. Pour cela il faut utiliser une programmation différée en concertation avec les clients d’une zone desservie.

Aujourd’hui, en cas de délestage, le client est totalement privé de courant, c’est le délestage sauvage.

L’objectif est de pratiquer un délestage partiel du client, en ne coupant que un ou deux appareils gros consommateurs, avec l’accord préalable de l’usager.

Ces applications ne peuvent être réalisées qu’avec un compteur communicant comme Linky.

« Big Brother va rentrer chez moi, on va tout savoir de mon mode d’existence »

La plupart des matériels électriques, sinon tous, sont alimentés par le secteur. S’il advient un jour que tous ces appareils sont équipés d’une interface communicante CPL, la confidentialité de l’usage de ces appareils dépendra du type de données qui circulera sur ces interfaces et à qui elles sont envoyées.

Ce sera à l’usager de veiller à ce que ses appareils ne soient pas trop « bavards ».

Le fournisseur d’énergie électrique n’a aucun besoin ( ni aucune envie) de savoir quand l’usager prend sa douche ou quand il regarde la télé.

Les informations transmises au fournisseur, et les possibilités d’intervention qui lui seront concédées sont à la discrétion du client.

A terme, lorsque la gestion intelligente de l’énergie sera une réalité, l’installation domestique sera équipée d’une interface client communicante globale ( Domotique) qui, seule, dialoguera avec le fournisseur.

C’est cette interface client qui d’une part recevra les données du fournisseur ( Offres tarifaires selon l’heure ou le jour, informations heures de pointe, alarme dépassement de puissance, demandes de délestage, données de comptage, etc…), et d’autre part gèrera l’installation du client en fonction des données Linky reçues.

Il n’a jamais été question d’envoyer à EDF des données signalant qu’un téléviseur était allumé ! Encore moins quel programme était regardé !

Seule l’interface Domotique du client saura quel appareil est en fonction et quand, et qui gèrera la programmation différée des appareils de puissance.

« Grâce à la possibilité de modulation tarifaire en temps réel je ne saurai jamais combien va me coûter le KWh que je suis en train d’utiliser »

On peut effectivement se poser la question.

Aujourd’hui le client connaît une fois pour toute le coût du KWh . Selon l’abonnement souscrit, il y a un tarif HP et un tarif HC, et les tranches horaires relevant de HP ou de HC sont fixes, ceci pour la très grande majorité des usagers. Le compteur est même équipé d’un interrupteur qui permet de mettre automatiquement en service les appareils de puissance que le client souhaite allumer seulement en HC.

Avec le compteur intelligent le fournisseur aura la possibilité de proposer en temps réel des aménagements tarifaires pour inciter le client à se reporter sur une tranche horaire plutôt que sur une autre. Bien sûr l’usager sera informé du détail de ces offres, mais encore faut-il que la signalétique soit bien visible et claire.

Le déploiement du nouveau compteur Linky est la clé qui permettra de réaliser le réseau intelligent sans lequel il sera tout simplement impossible de gérer la complexité de la distribution électrique bidirectionnelle du futur intégrant les énergies nouvelles.

PS. L’auteur déclare sur l’honneur n’avoir aucun lien d’intérêt avec EDF ou toute autre entreprise du secteur de l’Energie électrique.

 

 

 

 

 

 

 

Repost 0
13 septembre 2012 4 13 /09 /septembre /2012 19:18

 

13 Septembre 2012

Dans un article récent ( « Gaz à tous les étages ») nous avons montré que les perspectives de retrait du nucléaire et de tension sur le pétrole avaient rendu quasiment obligatoire un repli sur le gaz afin de maintenir à moyen terme les fournitures d’électricité en attendant que la relève soit prise par les énergies durables ( la fameuse transition énergétique).

Nous avons succinctement présenté le programme de construction de nouvelles centrales à gaz à cycle combiné, destinées d’une part à remplacer la production des centrales nucléaires qui doivent être arrêtées, et d’autre part à soutenir les futures centrales solaires et éoliennes dont la production est par nature intermittente.

Le résultat de cette stratégie sera donc une augmentation mécanique de nos importations de gaz naturel, c’est-à-dire du déficit du commerce extérieur.

Ce qui va exactement à contresens de la recherche de l’équilibre budgétaire.

Certains n’hésitent pas à se demander si aujourd’hui le pays peut vraiment se permettre d’augmenter ses importations de gaz alors que la balance des paiements est déjà plombée et que les caisses sont vides.

Et de regarder avec insistance vers les possibles réserves de gaz de schiste du sous-sol français, qui, si elles étaient confirmées, nous permettraient d’économiser des milliards d’euros.

Ce raisonnement, qui peut paraître simpliste, a évidemment traversé l’esprit du ministre du redressement productif qui aimerait bien avoir ces milliards d’euros pour financer sa politique industrielle. Le ministre des finances, qui ne dit rien mais n’en pense pas moins, est probablement du même avis.

La ministre de l’écologie, du développement durable et de l’énergie est bien embarrassée: sa casquette de ministre de l’énergie l’inciterait à ne pas négliger à priori une réserve d’énergie gratuite disponible, mais sa casquette écologique lui impose de rester ferme sur le rejet des gaz de schiste.

La conférence environnementale qui commence demain nous réserve certainement des débats animés et des conclusions surprenantes dont les attendus ne manqueront pas de sel.

 

Repost 0
12 septembre 2012 3 12 /09 /septembre /2012 19:25

 

13 Septembre 2012

 

Dans un article précédent ( 07/12/2011, rubrique énergie, «Un compteur (trop) intelligent » ) nous avons présenté le nouveau compteur Linky destiné à équiper la totalité des usagers professionnels ou particuliers raccordés au réseau électrique.

 

Une phase de validation sur le terrain a permis d’obtenir l’approbation du système, qui a pris une existence officielle par la parution au JO de l’arrêté du 4 Janvier 2012 autorisant le déploiement des compteurs intelligents.

 

Jusqu’à présent, le fournisseur d’énergie se bornait à raccorder l’abonné à un réseau commun, par l’intermédiaire d’un dispositif de comptage d’énergie. Quelques signaux rudimentaires étaient transmis par CPL (Courants Porteurs en Ligne) afin de commuter le mode tarifaire et d’actionner un contact Heures creuses.

 

Il n’existait aucun canal de communication de données permettant au fournisseur d’énergie d’interfacer avec l’installation d’usager en aval du compteur.

 

Ce système très rustique présentait l’avantage de garantir la protection de la vie privée dans son aspect utilisation de l’énergie. Seule la quantité d’énergie était mesurée périodiquement et facturée, la manière d’utiliser cette énergie ( comment et quand) demeurait du domaine privé.

 

Mais le monde de l’énergie est en train de changer:

 

Le vieux système de distribution de l’énergie électrique était fondé sur un concept dépassé, celui de l’adaptation de l’offre à la demande, quelle que soit cette demande et quelle que soit son augmentation d’une année sur l’autre. Le fournisseur d’énergie devait prévoir des surcapacités déraisonnables pour être en mesure de satisfaire les pointes de consommation.

 

L’arrivée des énergies nouvelles, essentiellement solaire et éolienne, ne permet plus cette gestion à sens unique d’adaptation de l’offre à la demande. En effet, les énergies nouvelles sont intermittentes par définition et la courbe de la demande n’est pas superposable à la courbe de l’offre.

 

Il est donc devenu indispensable de développer un véritable système de gestion de l’énergie, sur un nouveau concept qui introduit la possibilité d’adapter la demande à l’offre.

 

La gestion de la distribution de l’électricité doit alors être conçue en tant que réseau de communication bidirectionnelle entre les fournisseurs d’énergie et les usagers.

 

Pour des raisons évidentes de simplicité et de coût le support physique de la communication est le réseau de distribution lui-même. Les données échangées utilisent la technologie CPL déjà largement en usage par ailleurs.

 

Les nouveaux compteurs intelligents intègrent les interfaces nécessaires à la communication avec les fournisseurs d’énergie d’une part, et avec l’installation de l’usager d‘autre part, selon le niveau communicant des matériels installés.

 

L’installation d’un nouveau compteur n’oblige en aucune façon l’usager à remplacer ses matériels, la rétro-compatibilité est assurée.

 

Les fonctionnalités nouvelles rendues possibles grâce à ces nouveaux compteurs n’entreront en service que très progressivement, il s’agit d’une démarche long terme. Dans un premier temps l’usager ne verra pas de différence avec l’ancien système et pourra se demander à quoi cela peut servir. Un gros travail de communication auprès du public sera nécessaire pour expliquer qu’en fait il s’agit de préparer l’après 2020-2030 et qu’une transition énergétique réussie suppose des investissements programmés longtemps à l’avance.

 

Par contre, ce qui changera immédiatement, c’est la fin du secret sur l’utilisation de l’énergie électrique. Le quand et comment le client consomme son électricité cessera d’être du domaine privé puisque les fournisseurs sauront en temps réel quelle est la consommation instantanée.

 

Ces informations permettront de définir un profil d’utilisateur, sans pour autant connaître le détail de sa consommation énergétique.

 

Sauf si l’usager accepte de s’équiper en matériels communicants, chaque appareil possédant une interface capable de dialoguer avec une centrale domotique et avec le ou les fournisseurs d’énergie à travers le compteur intelligent.

 

Par le biais d’une politique tarifaire incitative, les fournisseurs d’énergie pourront alors négocier avec l’usager des contrats incluant des possibilités de délestage sur certains matériels et/ou le démarrage programmé d’appareils gros consommateurs tels que chauffe-eau, machine à laver, secteurs de chauffage, chargement de batterie de véhicule électrique, etc…

 

Cette gestion distribuée permettra de lisser la consommation globale et d’atténuer fortement les pointes de consommation à l’échelon régional ou national.

 

Ce réseau communicant est perçu par certains comme une violation de la vie privée. Il existe une crainte, en partie justifiée, de voir les données particulières tomber entre des mains indésirables et de les voir utilisées à des fin commerciales ou frauduleuses.

 

Contre ce risque, le protocole de communication est crypté. Il reste bien sûr à faire la preuve de l’efficacité de cette protection.

 

Le CEPD ( Contrôleur Européen de la Protection des Données) se préoccupe de l’évaluation de ce risque de détournement de données.

 

En France, l’UFC Que choisir a engagé un recours devant le Conseil d’Etat dans le but d’obtenir l’annulation de la généralisation du compteur intelligent Linky.

 

La CNIL a émis bien sûr des recommandations pour renforcer la protection et surtout le contrôle de l’usage de ces données.

 

Ce problème, qui devrait trouver une solution assez rapidement, est une retombée inattendue de la transition énergétique. D’autres retombées, autrement dérangeantes, sont à attendre car nos habitudes de consommation devront être révisées drastiquement.

 

 

 

 

 

 

Repost 0
10 septembre 2012 1 10 /09 /septembre /2012 18:04

 

10 Septembre 2012

Le battage médiatique autour de ce que l’on a nommé la transition énergétique, sous tendu par la condamnation populaire quasi unanime des énergies fossiles et du nucléaire, a créé un climat d’incertitude quant au devenir de nos politiques énergétiques dans les prochaines décennies.

On peut craindre que la fameuse transition ne soit affectée par des fortes turbulences, que la conférence environnementale de la semaine prochaine aura beaucoup de mal à prévenir.

Quelle que soit la compétence des intervenants, ils devront composer avec la réalité du terrain.

Or, que dit cette réalité ?

- Le nucléaire n’a plus la cote, il sera très difficile de faire accepter un renouvellement du parc vieillissant. Il faut donc se préparer à réduire significativement l’apport de l’atome dans le mix énergétique.

- Mais, malgré les exhortations en faveur des économies d’énergie, la demande continue de croître, il faut donc impérativement prévoir de compenser la baisse de production nucléaire par le recours à une autre source d’énergie.

- Le pétrole devient de plus en plus une denrée rare dont le prix ne peut que croître inéluctablement sur le long terme, pesant de manière insupportable sur la balance commerciale des pays non producteurs.

Il serait donc déraisonnable pour ces pays de fonder une stratégie énergétique sur ce produit.

- Le gaz paraît retrouver un regain d’intérêt pour plusieurs raisons: Les réserves conventionnelles seraient supérieures à celles du pétrole; les gaz de schiste constituent des réserves supplémentaires disponibles sous conditions; le recours au biogaz vient compléter le panel de sources possibles.

- Tôt ou tard le recours aux énergies vertes deviendra massif, le solaire et l’éolien constituant l’essentiel de leur participation.

Or ces énergies sont intermittentes, ce qui impose de disposer de ressources complémentaires fiables pour prendre le relais lors de l’absence de vent et/ou de soleil.

Faute de solutions de stockage de masse de l’électricité, il sera alors nécessaire de recourir à des centrales conventionnelles.

Ces éléments de réflexion sont évidemment pris en compte par les autorités responsables de l’approvisionnement énergétique du pays, indépendamment d’une quelconque conférence environnementale qui ne saurait en elle-même modifier la réalité des besoins.

Dans ce cadre a été lancé depuis plusieurs années un programme de construction de centrales thermiques à flamme de nouvelle génération. Ces centrales utilisent la cogénération et affichent des rendements pouvant atteindre 60%, contre 37% pour les centrales anciennes.

En voici une liste non exhaustive:

En 2005: Centrale DK6 de Dunkerque, 790 MWe .

En 2009: Centrale de Pont-sur-Sambre, par POWEO, 412 MWe.

En 2010: Centrale CycoFos, par GDF-SUEZ, 424 MWe.

En 2010: Centrale Combi Golfe, par GDF-SUEZ, 432 MWe.

En 2011: Centrale de Saint-Avold, par E-ON, 2x430 MWe.

En 2011: Centrale de Bayet, par ALPIQ , 408 MWe.

En construction:

Par EDF: Martigues, Pont-à-Mousson.

Par Direct-Energie, dans l’Oise.

Etc…

Ce programme énergétique, jugé selon les critères écologiques, paraît parfaitement hérétique puisqu’il exalte le recours aux énergies fossiles.

Il rencontre des manifestations d’opposants, par exemple à Landivisiau contre une centrale de 422 MWe devant entrer en fonction en 2016.

En fait c’est grâce à de tels programmes que la sortie du nucléaire et le développement des énergies durables seront possibles.

Un gros travail de communication sera nécessaire pour expliquer aux populations que les centrales à gaz sont un passage obligé vers les énergies durables et l’indépendance énergétique du futur.

Repost 0
8 septembre 2012 6 08 /09 /septembre /2012 16:39

 

8 Septembre 2012

Sans passer nécessairement pour un détrousseur de cadavres, il doit être possible d’analyser la catastrophe de Fukushima afin de tâcher d’en tirer des leçons pour l’avenir, si toutefois le nucléaire possède encore un avenir.

Que s’est-il réellement passé, quelles furent les circonstances déclenchantes, quel fut l’enchaînement des évènements, quelles sont les responsabilités ?

Les informations exploitées ici sont extraites du rapport du Forum Nucléaire Suisse de Juillet 2011. Ce document est une analyse du rapport du 7 Juin 2011 du Gouvernement Japonais, destiné à l’AIEA ( Agence Internationale de l’Energie Atomique).

(Cette tentative d’analyse ne vaut donc que ce que valent les informations délivrées par le Gouvernement japonais dans ce document).

Sur les côtes touchées par la catastrophe naturelle ( Séisme + tsunami), sont (étaient) installés cinq sites comportant 15 tranches nucléaires ( 15 réacteurs):

11 réacteurs étaient en fonctionnement et 4 étaient à l’arrêt pour entretien programmé.

Du Nord au Sud:

Higashidori: 1 réacteur A l’arrêt.

Onagawa: 3 réacteurs En fonctionnement.

Fukushima-Daiichi: 3 réacteurs En fonctionnement

3 réacteurs A l’arrêt.

Fukushima-Daini: 4 réacteurs En fonctionnement

Tokai: 1 réacteur En fonctionnement

Tout a commencé le 11 Mars 2011 à 14 H 46 ( Heure locale) par un séisme de magnitude 9 suivi d’une centaine de répliques dont certaines très importantes.

Selon les autorités gouvernementales japonaises:

L’ensemble des installations a résisté au séisme, et les procédures de mise à l’arrêt automatique se sont enclenchées normalement sur tous les réacteurs en fonctionnement.

Par contre, le réseau électrique du Nord Est du pays n’a pas résisté, et l’alimentation à haute tension des sites nucléaires a été interrompue à l’exception de la ligne qui alimente Onagawa et Fukushima-Daini.

Il faut rappeler qu’un réacteur mis en procédure d’arrêt continue de produire de la puissance pendant un certain temps:

6% de la puissance nominale juste après l’arrêt.

1,5% après une heure.

0,7% au bout d’une journée.

Il faut donc continuer à le refroidir jusqu’à l’arrêt à froid, défini par une pression nulle et une température inférieure à 100 °C, ce qui peut prendre plusieurs jours. Pour cela il faut de l’électricité pour alimenter les pompes et les divers circuits de sécurité et de commande.

L’interruption de l’alimentation extérieure électrique provoque le basculement automatique sur les alimentations de secours ( Groupes électrogènes à moteurs Diesel et batteries) pour actionner les pompes qui assurent le refroidissement des cœurs des réacteurs afin d’évacuer la puissance résiduelle, et fournir en électricité les éléments de régulation et de commande de l’installation.

Toujours selon les autorités responsables japonaise:

Cette phase de basculement sur les générateurs de secours s’est déroulée normalement sur tous les réacteurs concernés.

A ce stade du déroulement des évènements, la catastrophe aurait pu être évitée à condition que les groupes électrogènes de secours soient capables d’assurer leur fonction jusqu’à l’arrêt à froid des réacteurs, ce qui est du domaine du cahier des charges d’une installation de bon aloi.

Hélas, en zone littorale, après un séisme off shore vient le tsunami.

La première vague du tsunami a frappé la côte 30 à 40 minutes après la secousse principale.

A Higashidori ( Tout au Nord) il n’y a pas eu de dégât, le réacteur était à l’arrêt pour entretien, les groupes électrogènes ont fourni normalement de courant nécessaire pour les travaux divers. Le tsunami n’a pas eu de conséquences fâcheuses.

A Onagawa les installations avaient été construites à une hauteur de 14,8 mètres au-dessus du niveau de la mer. Le séisme a provoqué un affaissement du sol de 1 mètre, réduisant d’autant la marge de sécurité contre le tsunami. Le flot a réussi à envahir les galeries souterraines et à endommager quelques installations . Les dispositifs de sécurité ont résisté et les procédures d’arrêt ont pu être menées à bien avec les groupes de secours.

A Tokai, le tsunami a envahi une partie du site et noyé un groupe électrogène, mais les deux autres groupes ont pu mener à bien l’arrêt à froid.

A Fukushima-Daini, les installations étaient à 12 mètres au-dessus du niveau de la mer, mais la vague de retour a atteint 15 mètres et submergé une partie des installations dont les pompes.

Les moteurs de pompes ont pu être remplacés, et l’alimentation électrique maintenue en partie de l’extérieur et en partie par les groupes encore en service.

L’arrêt à froid a été obtenu.

Par contre, à Fukushima-Daiichi les choses ont tourné à la catastrophe à cause du tsunami. La vague a atteint 15 à 16 mètres et submergé les installations.

Avec la défaillance de l’alimentation électrique extérieure, les six réacteurs ( Dont trois à l’arrêt pour entretien) se sont trouvés pris en charge par les groupes électrogènes de secours.

Mais la vague du tsunami a tout mis hors d’usage:

Tous les groupes électrogènes diesel de secours ont été inondés, ainsi que les pompes, les postes de distribution électrique et les postes de commande.

( Un seul groupe électrogène auxiliaire est resté en service car situé plus haut que les autres. Il a permis d’alimenter la tranche 6 et plus tard également la tranche 5 .

Le problème s’est alors concentré sur les réacteurs 1 à 4, spécialement 1 à 3, le 4 étant déjà à l’arrêt sans combustible dans la cuve.

( Rappelons que seules les tranches 1 à 3 étaient en fonctionnement).

Sur ces trois réacteurs, les cœurs ont fondu, le corium répandu au fond des cuves qui n’ont pas résisté, s’est déversé sur le radier.

Du fait de la défaillance totale de l’alimentation électrique, aucun dispositif d’urgence n’a pu être mis en œuvre, et donc les dégagements d’Hydrogène dus au vapo craquage de l’eau et aux diverses réactions ont provoqué une surpression dans les cuves, suivi d’explosions dans les enceintes de confinement.

Même l’enceinte du réacteur 4 y a eu droit malgré l’absence de combustible dans sa cuve ! On pense que l’Hydrogène s’y est insinué par des conduites de service.

Le résultat de ce feu d’artifice est connu, émission d’un nuage de produits radioactifs, pollution de la mer par les rejets d’eau de refroidissement chargée de radioéléments, et pollution du sol par les coriums dont on ne connait pas bien le destin futur.

( La catastrophe est en fait toujours en cours).

Dans l’article du 22 Juillet 2012 nous évoquions les sept lignes de défense du nucléaire. Voyons un peu comment se sont comportées ces défenses à Fukushima Daiichi:

De l’aveu même du Gouvernement Japonais, l’ensemble des installations nucléaires a souffert d’un mal endémique qui est l’insuffisance généralisée de culture de la sécurité nucléaire.

La ligne de défense n°7 laissait donc à désirer. Elle était confiée essentiellement à l’exploitant TEPCO, les inspections étaient de pure forme et les éventuelles préconisations de sécurité n’ont jamais, ou rarement, été appliquées, malgré les recommandations des scientifiques. On imagine alors facilement que l’ensemble des installations était vulnérable à n’importe quel évènement déclencheur un peu vicieux.

(On peut d’ailleurs s’étonner que, en présence d’un tel laisser aller, une catastrophe ne se soit jamais produite auparavant).

Compte tenu de ce qui vient d’être dit, il ne faut pas s’étonner si la ligne de défense N°6 était elle aussi inefficace:

Cette ligne est chargée s

assurer par des moyens spécifiques le soutien des installations de secours et leur protection contre les submersions, ou contre toute autre mauvaise surprise.

Tous les groupes électrogènes de secours étaient situés trop bas et donc submersibles, ils ont été mis hors jeu très rapidement.

L’ensemble des installations des réacteurs 1 à 3 s’est trouvé complètement dépourvu d’alimentation électrique, la catastrophe était dès lors inévitable, quelles que soient les lignes de défenses rapprochées existantes.

La ligne de défense suivante est la N°5: dispositif de récupération du corium et contention jusqu’à son refroidissement.

Cette ligne était tout simplement inexistante à Fukushima. Les coriums ont donc pu s’échapper des cuves brisées et se répandre dehors, générant une suite de calamités non encore toutes identifiées.

La ligne de défense N°4 a fonctionné : Déclenchement de la procédure d’arrêt des réacteurs, basculement de l’alimentation électrique sur les groupes électrogènes de secours, mise en œuvre de la procédure d’arrêt à froid. Mais cette défense n’a pu être efficace à cause de la mise hors service par le tsunami des groupes électrogènes de secours.

Les cœurs des trois réacteurs se sont alors trouvés livrés à eux-mêmes sans aucune possibilité de contrôle.

Les importants dégagement de gaz provoqués par le contact des corium avec l’eau et le béton ont entraîné une augmentation de pression dans l’enceinte de confinement ( Ligne de défense N°3) et un dégagement d’Hydrogène.

La ligne de défense N°4 étant neutralisée, il n’a pas été possible de contrôler les gaz des enceintes de confinement par les dispositifs adéquats, les explosions étaient dès lors inévitables.

La ligne de défense N°3 ( Enceintes de confinement) était donc éliminée.

La fusion des cœurs ayant entraîné la rupture des cuves, la ligne de défense N°2 se trouvait à son tour éliminée ( Circuit primaire).

Quant à la ligne de défense N°1 ( Les gaines de combustible) il y a longtemps qu’elle avait disparu, l’alliage de Zirconium n’ayant pas résisté à la température atteinte par la réaction de fission non contrôlée ( près de 3000 °C).

Ce triste scénario nous enseigne un tas de choses:

- Les séismes d’amplitudes inhabituelles, cela existe et pas seulement dans l’imagination des opposants au nucléaire. Les références historiques à des séismes passés sont peu fiables, eu égard à l’absence de données scientifiques dignes de ce nom. Surtout pour ce qui concerne les effets conjugués d’un séisme et d’un tsunami.

- Un séisme peut entraîner localement un affaissement de terrain, réduisant d’autant la marge de sécurité par rapport au risque d’inondation.

Cette éventualité n’est pas prise en compte dans les évaluations préalable des risques d’une installation nucléaire.

Ce séisme peut éventuellement entraîner une rupture de barrage dont les conséquences seraient équivalentes à celles d’un tsunami.

- Les sites nucléaires actuels sont manifestement trop vulnérables à l’envahissement par l’eau, quelles que soit l’origine de cette eau (Tsunami, rupture de barrage, crue exceptionnelle, rupture de conduite d’alimentation).

Le cas d’un glissement de terrain, bien que rarement évoqué, est une éventualité qui doit être également considérée.

- Le maintien de l’intégrité du circuit de refroidissement du cœur d’un réacteur est un impératif absolu qui doit faire l’objet d’une attention spéciale.

Les accidents de TMI2 ( Three Mile Island), Tchernobyl, Fukushima, et le « quasi » accident de la centrale du Blayais en France, confirment ce point.

Il est inadmissible que les pompes primaires , leurs circuits de commande, et leur alimentation électrique ne soient pas mises hors de portée de toute submersion.

Même chose pour les alimentations de secours ( Groupes électro diesels).

- Les lignes du réseau d’alimentation électrique des réacteurs doivent être construites selon des normes anti sismiques au même titre que les bâtiments des réacteurs eux-mêmes.

- Nous savons maintenant que la cuve d’un réacteur peut céder en cas de fusion du cœur.

Or, dans un document de synthèse de l’ASN publié en 2000, on peut lire au paragraphe 3-5-1 / Chapitre 11:

«  La rupture de la cuve est un accident jugé inenvisageable, dont les conséquences ne sont donc pas prises en compte dans l’évaluation de la sureté du réacteur ».

C’est pourquoi aucun réacteur français ne possède de récupérateur de corium…Nos trapézistes travaillent sans filet…

Fukushima nous a prouvé hélas que cette fameuse cuve n’est pas invulnérable.

- La concentration de plusieurs réacteurs sur le même site maximise les difficultés d’intervention des secours qui doivent répartir leurs forces et donc perdre de l’efficacité.

De plus cette concentration crée le risque d’effet domino. Un accident sur un réacteur peut se propager aux autres par effet de proximité et/ou de mise en commun de certaines installations.

Il est donc impératif de séparer physiquement les différentes tranches d’un même site, et d’en limiter le nombre.

( Une tranche est constituée d’un réacteur avec l’ensemble des dispositifs fonctionnels et de secours. Chaque tranche doit être complètement indépendante de sa ou ses voisines, ce qui est rarement le cas ).

- L’existence de dispositifs de secours ultra perfectionnés n’est d’aucune utilité si ces dispositifs sont eux-mêmes vulnérables à des évènements extérieurs insuffisamment pris en compte.

Cette liste, non exhaustive, est un plaidoyer pour une révision en profondeur de notre politique de sureté nucléaire, trop longtemps fondée sur des certitudes, des convictions, des rapports de sureté à la limite de la complaisance, des arguments d’autorité, et insuffisamment à l’écoute des mises en garde négligées du seul fait qu’elles ne proviennent pas du sérail.

Tout ceci n’est pas nouveau, ce n’est un secret pour personne que les lignes de défense sont comme des dominos alignés dont l’ensemble est vulnérable à la chute d’un seul d’entre eux.

Mais alors, pourquoi un tel laisser aller ?

Parce que la sureté nucléaire coûte très cher, et que la production électronucléaire est mise en concurrence avec les méthodes classiques de production d’électricité ( Centrales thermiques à flamme essentiellement), qui ne présentent évidemment pas les mêmes risques d’exploitation.

Le faible coût relatif du combustible nucléaire et le quasi amortissement du parc existant permet à la France de pratiquer artificiellement des tarifs du KWh parmi les plus bas d’Europe. Le prolongement envisagé des installations actuelles jusqu’à quarante ans, voire plus, sera financièrement intéressant, à condition de ne pas investir des sommes considérables dans la recherche de l’amélioration de la sureté.

Le conflit entre la sureté et la rentabilité est dès lors évident.

Surtout si ce secteur d’activité doit être en partie transféré au secteur privé comme suggéré dans le rapport Roussely.

De plus, la nature humaine est ainsi faite qu’un risque n’est vraiment pris au sérieux que lorsque l’accident s’est produit.

En France, EDF a accumulé une expérience de plus de 1000 années réacteur sans avoir eu à déplorer une seule catastrophe.

Pour certains ce résultat suffit à démontrer l’efficacité de la stratégie de sureté dans les conditions normales d’exploitation.

( Les conditions « anormales » sont alors purement et simplement niées et évacuées comme « hautement improbables », ce qui n’a évidemment aucun sens).

Pour d’autres, exciper d’un cumul important d’heures sans accident comme justification d’une sureté accomplie est tout simplement stupide; c’est ignorer que la sureté d’un système ne se déduit pas de l’historique des évènements passés de ce système, mais bien plutôt de l’évaluation probabiliste du taux de défaut par unité de temps ( Appelé « lambda ») des nombreux facteurs qui contribuent à la marche de ce système.

Le simple constat du bon fonctionnement d’un réacteur pendant trente ans ne doit pas suffire à justifier sa prolongation sur quarante ans. Sinon, pourquoi pas cinquante ou soixante ?

Le rapport Roussely (16 Juin 2010) établi à la demande de Nicolas Sarkozy, contient un certain nombre de propositions préoccupantes, par exemple:

« (Nous devons) préparer la prolongation de la durée de vie des centrales actuelles au-delà de quarante ans… »

« La filière nucléaire doit atteindre une compétitivité attractive pour l’investissement privé… »

« Principaux axes de progrès: …construction de plusieurs tranches sur le même site… »

« La seule logique raisonnable ne peut pas être une croissance continue des exigences de sureté… »

« Associer au mieux exigences de sureté et contraintes économiques…. »

« Soutenir l’extension du fonctionnement des centrales à soixante ans, à sureté constante … »

Il faut noter qu’aucune des quinze principales recommandations de ce rapport ne met l’accent sur l’urgence d’un programme d’amélioration de la sureté des « vieilles » centrales.

Le changement de l’équipe gouvernementale en France ne semble pas devoir être accompagné d’une révision profonde de notre politique énergétique. Certains s’en réjouirons, d’autres seront déçus, qui attendaient notamment l’amorce d’un abandon du nucléaire.

L’absence d’une politique énergétique commune européenne est de nature à créer un flottement entre d’une part les Etats qui, comme l’Allemagne, ont choisi d’investir massivement dans les énergies durables et de prendre de la distance vis-à-vis du nucléaire, et d’autre part les Etats qui, comme la France, recherchent dans le nucléaire une réponse à leur problème de dépendance énergétique. Flottement alimenté par un fond d’incertitude quant au sérieux de la lutte contre le CO2 au plan mondial et quant à l’opportunité d’exploiter les gaz de schiste en Europe.

La persistance de l’accroissement de la demande énergétique laisse peu de place à des décisions drastiques dont les conséquences seraient une baisse de production d’électricité.

La prochaine conférence environnementale ( 14 et 15 Septembre 2012) traitera entre autres de la transition énergétique. Il serait souhaitable que le problème de la sureté nucléaire soit au centre des débats. Il ne serait pas acceptable qu’il soit balayé sous le tapis comme ce fut le cas jusqu’à présent.

 

Repost 0
6 septembre 2012 4 06 /09 /septembre /2012 17:07

 

6 Septembre 2012

Le nouveau Gouvernement a trouvé dans la cheminée un magnifique cadeau du père Noël ( ou de saint Nicolas au choix), une bombe à retardement dépourvue du manuel d’utilisation permettant notamment de la désamorcer.

Il s’agit d’une bombe énergétique dont le mécanisme est réglé pour nous péter au nez dans un délai diaboliquement incertain, en tous cas probablement avant 2050 selon les meilleurs artificiers du moment.

La tâche d’un Gouvernement responsable doit (devrait) être, toutes affaires cessantes, de désamorcer cette machine infernale sous peine de précipiter le pays dans le gouffre qui va s’ouvrir sous nos pieds dans quelques décennies.

Le nôtre (de Gouvernement) n’échappe pas à cette obligation, même si les préoccupations de court terme continuent de mobiliser son énergie.

Les solutions techniques théoriques permettant d’échapper à la crise énergétique sont connues, elles reposent sur la convergence de deux démarches complémentaires:

- D’une part la réduction de la demande par une réorientation de la société vers des pratiques moins énergivores, et par une mutation industrielle orientée vers la recherche de l’efficacité énergétique ( Consommer peu, mais bien).

- D’autre part le développement des énergies alternatives, dont les possibilités sont connues sans qu’il soit besoin d’y revenir.

Ceci est la théorie, très bien développée par exemple par le collectif Négawatt auquel le lecteur pourra se rapporter.

Mais chacun sait, ou devrait savoir, qu’entre la théorie et la mise en pratique de la théorie il y a de nombreux obstacles de nature politique, économique, financière, technologique, environnementale, dont le franchissement nécessite des moyens qui ne sont pas toujours disponibles.

Là où le théoricien du « Yaka » prouve sur le papier que le paradis est à portée de main, le responsable politique en charge des affaires doit composer avec les impératifs du monde réel qui le placent face à des logiques contradictoires, car il doit à la fois préserver le court terme tout en préparant le long terme:

- Le court terme lui impose de ne pas mettre le pays en panne face à une demande d’énergie croissante. Le long terme lui impose de se retirer des énergies fossiles pour cause de pénurie proche et de lutte contre le CO2.

- Le court terme lui interdit de casser un outil électronucléaire existant, en l’absence d’une solution de remplacement disponible. Le long terme lui fait un devoir de renoncer à l’atome au nom de la protection des populations.

- Le court terme lui suggère d’exploiter les gaz de schiste et le pétrole non conventionnel car c’est bon pour l’indépendance énergétique et la balance extérieure. Le long terme le lui interdit par respect pour l’environnement.

- Le court terme lui demande d’investir massivement dans le développement des énergies nouvelles. Le long terme lui impose plutôt de prévoir un plan de remboursement de la dette de l’Etat.

Etc…

Il y a donc des conflits entre les nécessités du court terme et les impératifs du long terme. Or notre responsable doit satisfaire à la fois les uns et les autres tout en composant avec les problèmes économiques et sociaux du moment et tout en respectant les accords internationaux et en particulier les traités européens.

Face à un horizon aussi inextricable, des compromis seront nécessaires pour placer le curseur dans une position optimale qui permettra une transition rationnelle entre le court terme et le long terme.

La nécessité des compromis exclue les positions extrémistes qui ne peuvent aboutir qu’à des situations de blocage.

La tâche des responsables politiques sera rude car la patate est vraiment très chaude…

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
23 juillet 2012 1 23 /07 /juillet /2012 19:04

 

23 Juillet 2012

Nous avons vu dans l’article précédent que la sureté nucléaire est un concept qui repose sur le principe de convergence de diverses démarches dont chacune doit être à son niveau d’excellence.

La machine la mieux conçue ne sera pas sûre si l’une de ses pièces laisse à désirer.

L’usine la mieux assemblée ne fonctionne pas correctement si elle est

confiée à du personnel mal qualifié.

Les procédures les mieux élaborées ne valent que si elles sont appliquées correctement.

Les règlementations les plus sévères sont inefficaces si elles ne sont pas respectées.

Les programmes de simulation les plus savants sont inutiles s’ils n’incorporent pas les données convenables.

Les automatismes les plus sophistiqués ne sont pas fiables si les logiciels ne sont pas robustes.

Les constructions les plus solides seront fragiles si l’environnement n’est pas sécurisé.

La sureté est obtenue grâce au concours d’un ensemble de facteurs, c’est un travail d’équipe dans lequel la part de chacun conditionne le résultat final.

L’accident majeur, celui qu’il faut à tout prix empêcher, est la dissémination de produits radioactifs dans l’environnement.

Pour cela l’installation d’un réacteur comporte plusieurs lignes de défense successives:

- La première ligne est constituée par l’encapsulation des pastilles de combustible dans des gaines de Zircaloy ( alliage de Zirconium) qui sont plongées dans la cuve. Les produits radioactifs y sont enfermés et la réaction nucléaire porte la température de l’eau du circuit primaire à 350°C environ dans les conditions nominales ( Réacteur REP).

Le métal des gaines peut résister jusqu’à 1 400 °C environ, ce qui permet de garder la première barrière efficace même en cas de début de dénoyage du coeur.

Les produits de fission demeurent à l’intérieur des gaines, et ne disséminent pas hors de leur domaine assigné. Seuls les neutrons s’échappent à travers l’eau de la cuve et sont arrêtés par la paroi en acier de 20 cm d’épaisseur.

- La deuxième ligne de défense est constituée par le circuit primaire, chargé de transporter la chaleur du cœur de la cuve vers les générateurs de vapeur, grâce à un fluide caloporteur ( Qui est de l’eau dans les réacteurs à eau pressurisée). Ce circuit primaire comprend la cuve, les tubes échangeurs des générateurs de vapeur, la tuyauterie correspondante, les pompes primaires, et divers raccordements. L’eau circule en circuit fermé étanche, dans des tuyaux en acier sous une pression de 155 Kg et à une température de 300°C environ.

La réaction de fission dans les pastilles de combustible provoque un fort dégagement de chaleur qui est transmis à l’eau à travers les gaines.

Dans la cuve, cette eau est exposée aux neutrons qui s’échappent des pastilles de combustible, lesquels neutrons interfèrent avec les produits additifs présents, générant des composants radioactifs d’activité modérée. L’étanchéité du circuit primaire empêche ces résidus radioactifs de se répandre ou de contaminer l’eau des générateurs de vapeur.

La radioactivité ne va donc pas au-delà du circuit primaire, dans les conditions nominales.

- La troisième ligne est constituée par l’enceinte de confinement, sorte de blockhaus en béton précontraint enfermant la cuve, les trois boucles du circuit primaire, les trois générateurs de vapeur, et tout les ustensiles nécessaires au fonctionnement et au contrôle: Les pompes primaires, le bloc de pressurisation, les accumulateurs, les dispositifs de secours, le mécanisme de commande des barres de contrôle, les mécanismes d’injection de secours, le mécanisme d’aspersion, les interfaces des capteurs de couvercle et de fond de cuve, etc...

Sur les réacteurs de la première tranche ( Fessenheim) l’enceinte de confinement est en béton précontraint de 90 cm d’épaisseur, doublée intérieurement d’une paroi d’acier qui assure l’étanchéité.

L’enceinte est construite sur un radier en béton de plusieurs mètres d’épaisseur, qui supporte l’ensemble cité ci-dessus, dont le poids dépasse le millier de tonnes .

Le tout est agencé pour résister à des séismes, des inondations, ou tout autre catastrophe naturelle ou pas, selon un cahier des charges propre à chaque site.

Ces précautions permettent de garder les émanations de produits radioactifs à l’intérieur de l’enceinte de confinement, même en cas d’accident significatif, à condition bien évidemment que les automatismes de sécurité remplissent correctement leur fonction, que le personnel qualifié puissent intervenir dans les délais prévus, et que l’ampleur de l’accident n’outrepasse pas les limites fixées au cahier des charges.

( On aura compris que cette dernière clause est le talon d’Achille de la sureté nucléaire, car l’avenir n’est écrit nulle part et surtout pas en matière de catastrophes naturelles. Ce n’est pas la TEPCO qui nous dira le contraire).

Le principe des trois lignes de défense n’est pas critiquable en soi, mais il faut se poser la question subsidiaire:

«  Qu’est-ce qui est prévu pour défendre les lignes de défense ? »

Les moyens mis en œuvre pour assurer l’efficacité d’une défense sont au moins aussi importants que la défense elle-même.

(Les murailles d’une forteresse ne valent que ce que valent les troupes chargées de les défendre).

Nous voulons parler de tout ce qui contribue à parer une défaillance susceptible d’enclencher une cascade d’évènements qui conduiraient à une situation incontrôlable.

On peut alors ajouter une quatrième barrière sans laquelle les trois autres seraient inefficaces. Cette garde rapprochée se compose de trois unités:

- Une première unité comprend le dispositif de surveillance. C’est lui qui donnera l’alerte, identifiera l’anomalie et son origine, et déclenchera les premiers secours, en l’occurrence les manœuvres d’urgence prévues dans la procédure de conduite.

Cette unité comprend une partie matérielle ( Capteurs de température, de pression, de niveau, commande des barres de contrôle, accumulateurs pour l’injection d’eau de sécurité, robinets automatiques, circuits électriques, centrale de commande, etc…), une partie logicielle supportant les procédures d’intervention, et une partie humaine constituée des équipes d’intervention et éventuellement de secours extérieurs.

- La deuxième unité est chargée de prendre la relève lorsque les mesures d’urgence ont fait leur œuvre, et de « normaliser » la situation jusqu’à disparition du risque. Selon la nature et l’importance de l’accident, les moyens à mettre en œuvre sont variés, par exemple:

Contrôle de l’atmosphère de l’enceinte de confinement pour éviter les conditions d’une explosion, fourniture d’eau de refroidissement de secours, ennoyage du cœur du réacteur, récupération des produits radioactifs éventuellement répandus, alimentation électrique de secours, matériel de pompage de secours, contrôle de la température du cœur pour garantir « l’arrêt à froid », gestion d’un éventuel corium, gestion des dégâts d’une éventuelle explosion, etc…

- La troisième unité est l’équipe de gestion des situations d’accident, chargée de coordonner les différentes unités d’intervention, les unités d’intervention extérieures, les relations avec les autorités territoriales, l’information de la population, et le suivi du retour à la normale.

L’importance de cette quatrième barrière apparaît à l’analyse du déroulement des catastrophes de Tchernobyl et de Fukushima.

Les enseignements tirés de l’analyse des catastrophes de Tchernobyl et Fukushima ont montré qu’une cinquième barrière est nécessaire: Il s’agit d’un dispositif permettant de recueillir, de canaliser et de refroidir le corium qui se serait déversé à la suite d’une rupture de cuve d’un réacteur.

Cette cinquième barrière équipera les futurs EPR.

Son absence sur les réacteurs du parc actuel pose le problème de l’opportunité de prolonger leur durée d’exploitation à quarante années.

L’analyse de la ruine collective des réacteurs de Fukushima a montré que le bon fonctionnement des procédures d’urgence ne suffit pas à éviter le drame si les installations restent vulnérables à l’interruption durable des alimentations électriques extérieures, et/ou à l’inondation des équipements de secours.

( Rappelons que les installations japonaises ont résisté au séisme, résisté aussi à l’interruption de l’alimentation électrique extérieure, mais ont été débordées par le tsunami qui a submergé les alimentations électriques de secours).

Il faut donc ajouter une sixième ligne de défense, chargée s’assurer par des moyens spécifiques le soutien des installations de secours et leur protection contre les submersions, ou contre toute autre mauvaise surprise.

La sureté nucléaire exige en fait une septième ligne de défense, constituée de la structure d’inspection des différents sites, et dont le rôle doit être préventif.

Les inspections périodiques jouent un rôle essentiel:

- Vérifier l’état des installations en référence aux normes existantes, évaluer l’usure des différentes composantes, préconiser les mesures correctrices.

- Demander des évaluations particulières sur des points litigieux, ou des tests complémentaires.

- Vérifier la bonne application des procédures d’exploitation, et des procédures d’urgence. Demander leur modification si nécessaire.

- Préconiser toutes mesures d’adaptation des installations à l’état de l’art de la technologie et en fonction de l’expérience de terrain accumulée.

- Evaluer la qualification des personnels dans les différentes situations.

- Analyser les rapports d’incidents et en tirer les conséquences.

- Mettre en œuvre toutes procédures de test ou d’expertise jugées nécessaires.

- Veiller à la bonne exécution des préconisations.

C’est donc un rôle tout à fait essentiel qui ne peut être efficace que s’il est conduit dans la plus grande indépendance vis-à-vis de l’industriel exploitant, du constructeur, et de l’autorité de tutelle.

La sécurité nucléaire ne peut donc jamais être considérée comme acquise. Elle doit être une recherche constante de l’excellence et une remise en question permanente qui ne supporte ni l’opacité, ni la suffisance, ni l’approximation, ni les conflits d’intérêts, ni la négligence ou le laisser aller.

Les sept lignes de défense doivent constituer une chaîne sans maillon faible et sans solution de continuité.

Où trouverons-nous les hommes capables d’accomplir une telle mission avec autant de vertu ?

Tel un Prométhée moderne, l’Homme est fier d’avoir dérobé le feu du ciel, mais saura-t-il déjouer les pièges de Pandore et se rendre maître du contenu de la fameuse boîte ?

Certains en doutent…

Repost 0
22 juillet 2012 7 22 /07 /juillet /2012 15:13

 

22 Juillet 2012

Notre Société a pris son parti de devoir payer le prix du sang en échange du droit à la voiture, au tabac et à l’alcool, même si ces trois addictions sont pratiquées avec modération, chacun ayant par ailleurs sa définition personnelle de la modération.

Les dizaines de milliers de victimes sacrifiées annuellement à ces trois vices modernes sont une malédiction collectivement consentie, la nature humaine ayant ceci de merveilleux que l’individu est persuadé que le risque est toujours pour les autres.

Interrogez votre voisin sur son sentiment vis-à-vis des risques de la vie courante; immanquablement il vous répondra que tout ces morts c’est bien triste mais que lui, il est bon conducteur, qu’il ne boit que très peu d’alcool, et qu’il ne fume plus depuis dix ans, que donc il n’est pas concerné par cette hécatombe.

Reconnaître le risque collectif tout en niant le risque personnel, encore une preuve, s’il en était besoin, de l’irrationalité de nos comportements.

Mais ne nous égarons pas.

Le risque nucléaire, c’est autre chose.

Tout le monde a entendu parler de Three Mile Island, de Tchernobyl, et de Fukushima. Les plus curieux sont informés de l’accident de la centrale du Blayais, et de quelques autres. Certains fouineurs connaissent même le problème du couvercle de la cuve de Davis Besse.

Bref, un citoyen responsable ne peut plus ignorer aujourd’hui le risque de se trouver un jour ou l’autre irradié par des émanations répandues au hasard des vents à la suite de la saute d’humeur d’une cuve de réacteur ou de la rupture de quelques tuyaux facétieux, quand ce n’est pas la distraction d’un opérateur qui se trompe de robinet ( Si, si, cela existe !).

Et dans ces circonstances il est difficile de s’estimer personnellement à l’abri d’un tel danger à la fois invisible et imprévisible, qui toucherait une région entière, tous êtres vivants confondus.

C’est pourquoi avec le nucléaire on ne plaisante plus. Pas question d’accepter une seule victime parmi la population, car personne ne peut prétendre y échapper par sa seule vertu personnelle .

Le concept de sureté nucléaire est né de la nécessité de garantir les populations contre tout risque de contamination par des substances radioactives rejetées par les installations nucléaires, que ce soit lors du fonctionnement normal, ou à la suite d’un accident.

Est-ce à dire que l’on aurait enfin trouvé le saint Graal du risque zéro ?

Pas du tout.

Le risque zéro, hélas, n’existe toujours pas; les mauvaises langues diront même qu’il a tendance à s’éloigner avec les progrès de la technologie.

Les installations électro nucléaires, même de bon aloi ( Si tant est que cela existe), émettent normalement des effluents porteurs de radioéléments nocifs, sous forme de gaz, de liquides, ou de déchets solides.

En théorie ces produits sont parfaitement contrôlés et leur présence dans l’environnement reste inférieure aux taux limites établis par la règlementation, laquelle est souvent bonne fille. Leur nocivité est alors déclarée négligeable.

Acceptons-en l’augure.

La sureté nucléaire « standard » est donc réglée par le respect des normes, pour autant que les installations fonctionnent normalement dans leurs conditions nominales.

Le problème se pose lorsque les conditions cessent d’être nominales, en clair lors d’un accident.

Qu’est-ce donc qu’un accident nucléaire ?

Rassurez-vous nous n’allons pas vous imposer la description détaillée d’une installation, ni de tous les « petits » pépins qui peuvent perturber la bonne marche de l’usine, et qui sont réglés neuf-cent-quatre-vingt-dix-neuf fois sur mille grâce à la compétence du personnel et à l’intervention d’un ensemble de dispositifs automatiques de sécurité redondants. Les dégâts lorsqu’il y en a restent confinés à l’intérieur du site, avec éventuellement quelques surdoses de radiations encaissées par le personnel en première ligne, et parfois quelques mois d’arrêt de l’exploitation.

Ce qui nous intéresse, c’est le un pour mille restant.

Nous voulons parler d’une situation de crise dans laquelle les dispositifs automatiques de sécurité ne suffisent plus à reprendre la main, ou lorsque ces dispositifs sont eux-mêmes hors d’état de fonctionner. De telles circonstances peuvent entraîner une perte de contrôle du système avec fusion partielle ou totale du cœur, ce qui constitue LA catastrophe majeure lorsqu’elle s’accompagne de pollution environnementale.

C’est la prévention et/ou la gestion de cette catastrophe majeure qui sont au cœur du concept de sécurité nucléaire.

Rappelons brièvement la séquence d’évènements susceptibles d’accompagner la fusion du cœur d’un réacteur ( nous parlerons plus tard des causes):

- L’emballement de la réaction non contrôlée conduit à une élévation de température jusqu’à 2 200 à 2 700 °C dans le cœur de la cuve.

- Tout ce qui est à l’intérieur de la cuve fond et s’agglomère en un mélange liquide appelé Corium, constitué donc de combustible fondu, du Zircaloy des gaines contenant les pastilles de combustible, et des structures métalliques internes, le tout violemment radioactif évidemment.

- Le Corium coule vers le fond de la cuve, où il rencontre l’eau résiduelle.

- Cette rencontre provoque une explosion de vapeur susceptible de briser la cuve si elle est fragilisée par la fatigue de flux neutronique subi au long des années.

- L’oxydation violente des produits du Corium et le craquage de l’eau dû à la haute température provoque un fort dégagement d’hydrogène qui ne demande qu’à se répandre dans l’enceinte de confinement où il explosera lorsque sa concentration sera suffisante.

- Ces explosions successives sont susceptibles d’entraîner des brèches supplémentaires dans le circuit primaire et/ou au niveau des générateurs de vapeur, et/ou la destruction de l’enceinte de confinement avec émission de produits radioactifs dans l’atmosphère, le fameux « nuage »  tant redouté.

- Le Corium au fond de la cuve est susceptible de la traverser et de se déverser dans le puisard.

- Ce Corium peut alors traverser le radier en béton pour contaminer le sous-sol.

Il suffit de se reporter aux analyses des catastrophes de Tchernobyl et de Fukushima pour obtenir des détails supplémentaires avec des photos et le nombre de morts présents et futurs résultants.

Ce scénario comporte de nombreuses variantes selon les causes des défaillances, leur enchaînement, la réactivité des automatismes de sécurité, les défaillances secondaires induites, etc, etc…

Quelles peuvent être les causes initiales d’une telle catastrophe ?

Plusieurs évènements peuvent enclencher le processus; un seul de ces évènements ne suffit pas à lui tout seul à entraîner le feu d’artifice*, il faut une cascade de dysfonctionnements.

* Sauf peut-être une rupture de cuve, évènement qui n’était même pas envisagé par la procédure jusqu’à présent, mais qui est sérieusement considéré aujourd’hui.

L’évènement principal, le plus redouté, est l’interruption de la circulation du fluide caloporteur. C’est le LOCA ( Lost Of Coolant Accident), qui prélude aux pires calamités.

Dans les REP ( Réacteurs à Eau Pressurisée) le fluide caloporteur est de l’eau. Cette eau récupère la chaleur de la réaction du cœur, et la transmet aux générateurs de vapeur, laquelle vapeur sert à actionner les turbines génératrices d’électricité. Pour des questions de rendement la vapeur doit être à haute température ( plus de 300 °C) et donc l’eau des serpentins également. Cette eau circule en boucle fermée dans le circuit primaire. Elle entre dans la cuve à 280 °C et en sort à 320°C. Pour qu’elle demeure liquide à ces températures, elle doit être sous forte pression ( 155 Kg ). Le débit et évidemment considérable puisqu’il faut évacuer une puissance thermique de 2 700 MW générée dans la cuve ( pour les réacteurs de 900 MW électriques). Ce débit est assuré par des pompes de très forte puissance (plusieurs Mégawatts).

Chaque réacteur de 900 MWe est raccordé à trois générateurs de vapeur et donc à trois boucles primaires.

Cette cocotte minute est maintenue dans un état d’équilibre convenable grâce à un automatisme qui surveille tous les paramètres ( Température, pression, débit, flux de neutrons, etc…) et régule la chaudière par le jeu des barres de contrôle et le dosage subtil d’acide borique dans l’eau de refroidissement. C’est en réalité un peu plus complexe, mais c’est l’idée.

Si cette eau de refroidissement vient à faire défaut ( Tuyau percé, pompe en panne) il est aisé d’imaginer la suite. Le cœur continue à fournir toute sa puissance et tout se met à fondre, produisant le fameux corium destructeur, et bien d’autres désagréments.

Heureusement il y a des dispositifs de sécurité:

La cuve du réacteur est équipée de capteurs de température et de pression. Le pressuriseur, qui ajuste la pression dans le circuit primaire, est lui-même muni de capteurs.

- En cas de brèche dans le circuit d’eau primaire, ou de défaillance de pompe, l’anomalie est détectée par des capteurs qui déclenchent en quelques secondes l’abaissement des barres de contrôle qui placent le réacteur en mode d’arrêt.

- Si besoin est le système automatique procède à l’injection d’acide borique ( le Bore est un bon absorbeur de neutrons et contribue efficacement à freiner la réaction).

- Si nécessaire, le système de secours ( accumulateurs sous pression) procède automatiquement à l’injection massive d’eau froide pour suppléer le manque d’eau principale. ( En effet le réacteur continue à chauffer même avec les barres descendues, et il doit être refroidi).

- Un autre système permet de déclencher l’aspersion de l’enceinte de confinement pour précipiter au sol les produits radioactifs (aérosols) échappés et pour neutraliser l’Hydrogène produit.

Si tout se passe comme décrit ci-dessus l’affaire en reste là et la catastrophe environnementale est évitée.

Mais il se peut que les choses ne se passent pas aussi bien, selon l’origine du défaut initial et selon la réactivité des dispositifs de sécurité. Dans ce cas on ne peut éviter un emballement avec fusion partielle ou totale du cœur.

Il existe de nombreux évènements susceptibles d’initier une séquence accidentelle s’ils ne sont pas immédiatement pris en charge par les automatismes de sécurité. Ces évènements peuvent concerner le matériel lui-même ( Cuve, Tuyauterie, générateurs de vapeur, soudures, robinetterie, barres de contrôle, gaines de combustible, pompes, etc… ), les systèmes de sécurité ( capteurs, pressuriseur, commande des barres de contrôle, système d’injection de sécurité, système d’aspersion dans l’enceinte, d’injection d’acide borique, etc…), la gestion des automatismes, les alimentations électriques, et d’autres dispositifs externes à l’enceinte de confinement mais qui lui sont connectés.

Donc beaucoup de sources potentielles d’ennuis si tout ce petit monde n’est pas surveillé comme le lait sur le feu.

Concernant la prévention et la gestion des risques de catastrophes majeures, les retours d’expérience sont (heureusement) rares, ce qui rend indispensable le développement de programmes de simulation d’accidents élaborés pour pallier le manque d’informations de terrain.

EDF et l’IRSN réalisent des simulations des différentes séquences d’évènements afin d’une part d’en déterminer la probabilité, et d’autre part d’optimiser les procédures de sécurité des centrales existantes et futures.

On pourra trouver des détails dans les documents suivants:

CEA - 2006/ 474 Rev 1

IRSN-2006 :73 Rev1

Cette approche est prise en charge au niveau européen par un PCRD (Programme Commun de Recherche et Développement) qui s’appuie sur le SARNET ( Severe Accident Research NETwork) coordonné par l’IRSN et regroupant 19 pays de L’Union Européenne et la Suisse.

Au niveau de l’OCDE c’est le CSNI ( Comité de Sureté des Installations Nucléaires) qui est chargé d’établir des règles se sureté internationales.

L’existence de ces infrastructures n’est malheureusement pas une garantie de risque zéro.

Elles sont une démarche qui vise à la minimisation de ce risque, ce qui n’est pas tout à fait la même chose. Elles procurent les outils matériels et logiciels permettant d’élaborer la sécurité, encore faut-il qu’ils soient correctement mis en œuvre, ce qui n’est pas toujours le cas si l’on en croit les rapports d’inspection des visites décennales de l’ASN.

On sait par ailleurs que les programmes de simulations, dans quelque domaine que ce soit, doivent être validés par les retours d’expériences sous peine de n’être que des prédictions. Or les retours d’expérience sur les accidents majeurs font défaut dans le nucléaire, ce dont il faut se réjouir pour notre sécurité, mais qui est bien fâcheux car les programmes de simulations d’accidents n’ont jamais pu être été vérifiés sur des cas concrets. Les informations recueillies à la suite des « précédents » déjà cités sont fragmentaires et non directement exploitables.

Notons que Three Mile Island, Tchernobyl et Fukushima ont tout de même fourni une brassée d’informations sur ce qui pouvait advenir dans la réalité, et qui n’était pas toujours pris en compte dans les simulations.

Par ailleurs, les nombreuses anomalies découvertes au cours des inspections ou à l’occasion d’un incident de bas niveau ( sur l’échelle INES), permettent de renforcer la connaissance des points faibles et d’enrichir le savoir faire en matière de sureté.

La perception de la sureté nucléaire par le public est le résultat d’influences médiatiques diverses, parfois sous tendues par des positions idéologiques et/ou politiques, voire même par des intérêts commerciaux.

- EDF , AREVA et le CEA développent le thème de la sureté maîtrisée, et sont moteurs dans les recherches sur ce domaine.

- L’IRSN émet des remarques et fait des suggestions, mais ne dispose d’aucun pouvoir réel sinon celui que lui confère son expertise reconnue.

- Les comités d’élus locaux et d’usagers ( CLIS) tentent d’y voir clair tout en restant attentifs à la sauvegarde des emplois et aux retombées financières. Un de leurs soucis est d’obtenir des expertises d’organismes indépendants à la fois des industriels, de l’exploitant et de l’autorité de tutelle, ce qui semble assez illusoire (En effet, un véritable expert nucléaire ne peut qu’appartenir au sérail, donc sans réelle indépendance dans l’expression de son jugement. Les risques de conflits d’intérêts sont évidents).

- Les écologistes font feu de tout bois pour obtenir la sortie sans nuance du nucléaire et le basculement sur les énergies nouvelles. Leur position manichéenne les place hors course pour la recherche d’un consensus.

- Le Gouvernement n’a qu’une hantise, ne pas mettre le pays en panne d’électricité, ce qui implique de ne rien arrêter avant d’avoir une solution de rechange disponible.

- Le consommateur continue de consommer imperturbablement, refusant à la fois des restrictions et/ou une quelconque augmentation de tarif du KWh.

Il est difficile dans ce contexte de décider une politique énergétique consensuelle garantissant à la fois la sécurité des populations et celle des approvisionnements.

Une chose est sûre: plus le parc nucléaire vieillit, et plus la probabilité d’accident majeur augmente.

Les premiers réacteurs français ( Palier CP0) ont été conçus selon les connaissances et la technologie de 1970. Il y en a deux à Fessenheim et quatre au Bugey. Fessenheim 1 est le prototype de la série. Ils sont en service depuis 35 ans et ont donc dépassé de 5 ans la durée prévue au départ. On peut donc s’interroger sur l’opportunité de les maintenir en service.

Malgré les savants programmes de simulations d’accidents ( EPS, Etudes Probabilistes de Sureté), rien ne permet d’indiquer une date précise au-delà de laquelle la sureté ne serait plus assurée. Les programmes de simulation mathématiques ne peuvent donner qu’un résultat probabiliste en termes de taux de défaut par unité de temps ( Lambda):

«  La probabilité qu’un accident de tel type se produise sur CE réacteur dans l’année qui vient est de tant… ».

Ce qui, concrètement, n’est pas très exploitable: Qui décidera que tel niveau de probabilité est acceptable ou non ?

Et de plus tous les programmes de simulation d’accidents ne sont pas d’accord sur les résultats prévisionnels, aucun d’entre eux n’ayant été testé sur des cas concrets, et pour cause.

Notons au passage que l’analyse des accidents ou incidents « célèbres » montre que les causes déclenchantes n’étaient en général pas prévues par les programmes de simulation d’accidents ( par exemple la surcote de la grande marée au niveau de la centrale du Blayais, pas plus que la hauteur de la vague du tsunami japonais, ni les manœuvres douteuses de Tchernobyl).

La décision d’arrêter ou non un réacteur pour des raisons de sécurité ne peut alors être prise qu’à partir d’éléments dont aucun n’est tout à fait probant tout seul, mais qui ensemble peuvent former un faisceau de présomptions convainquant. La décision finale restera toujours au Politique, dont les critères de jugement sont rarement fondés sur l’approche scientifique.

Il suffit de se remémorer les « affaires » de l’Amiante et du sang contaminé, pour comprendre de quoi nous voulons parler.

Dans une installation électro nucléaire on peut remplacer à peu près toutes les pièces sauf la cuve qui contient le cœur, et dont le remplacement n’est pas prévu lors de la conception, on peut d’ailleurs se demander pourquoi.

( On peut cependant remplacer le couvercle de cuve, qui est démontable pour permettre le changement de combustible).

On doit donc s’interroger sur le vieillissement de cette cuve.

Sur un réacteur de 900 MWe du palier CP0 ( Fessenheim et Bugey), c’est une pièce de chaudronnerie impressionnante de 13 mètres de hauteur, 4 mètres de diamètre, avec des parois de 20 cm d’épaisseur, le tout en acier pour un poids de 330 tonnes !

Il y a un couvercle démontable ( il faut bien pourvoir introduire le combustible et l’extraire quand il est usé), ce couvercle est percé d’orifices recevant des manchons frittés pour le passage des commandes de barres de contrôle et de divers capteurs. Quelques passages sont également disposés dans la paroi de fond de cuve. Tous ces passages sont soudés à l’Inconel.

La nuance d’acier de cuve ( 16 MND 5) a été choisie pour sa bonne résistance à la traction. Mais cet acier est vulnérable à la corrosion par l’acide borique mélangé à l’eau de refroidissement pour contrôler les neutrons. On a donc doublé l’intérieur de la cuve avec une paroi en acier inoxydable soudée de 5 mm d’épaisseur, qui résiste à la corrosion.

Sur les côtés il y a des orifices destinés à recevoir les tuyaux d’arrivée et de départ de l’eau de refroidissement. Ces tuyaux sont soudés à l’Inconel.

Cette cuve est soumise à diverses contraintes:

- La température, plus de 300 °.

- La pression, 155 kg nominal, plus de 200 kg en test.

- Les vibrations.

- Et surtout le flux de neutrons issus du cœur.

Le flux de neutrons fragilise l’acier en modifiant sa structure cristalline et en provoquant des migrations d’impuretés qui ont tendance à se concentrer dans des zones qui deviennent des sources de failles.

La température de transition ductile/fragile est également modifiée (augmentation), ce qui peut rendre l’acier plus vulnérable au choc thermique d’une injection d’eau froide en cas de perte de réfrigérant.

( Au-dessus de la température de transition Tt, l’acier est ductile et peut donc supporter des déformations. Au-dessous de cette température, il devient fragile et cassant. Or le flux de neutrons entraîne à la longue une augmentation de Tt, qui peut alors faire passer l’acier de la cuve dans le domaine fragile en cas de contact avec de l’eau froide).

Il y a donc des causes tout à fait objectives d’usure du matériau de la cuve par fragilisation du matériau et fissuration.

Les conséquences de cette usure sont aggravées par la présence de défauts du matériau à la fabrication, défauts pas nécessairement identifiés au départ, et qui peuvent aussi apparaître lors de la soudure du revêtement en acier inoxydable.

Par ailleurs les repiquages des tuyaux présentent des microfailles au niveau des soudures, qui évoluent également sous le flux des neutrons et s’aggravent avec les contraintes mécaniques( vibrations, contraintes thermiques, pression). Cela fragilise l’ensemble de la cuve.

Les microfailles présentes au niveau des passages de capteurs peuvent constituer des micro fuites d’eau borée qui va passer la barrière d’acier inox et venir ronger la paroi d’acier de cuve sensible à la corrosion.

( Evènement découvert fortuitement sur le réacteur de Davis Besse).

Au bout que quelques dizaines d’années de ce régime, la cuve se trouve donc fragilisée. S’il se produit alors un accident entraînant le dénoyage du cœur et une fusion même partielle, la cuve ne sera peut-être plus assez résistante pour contenir le corium, surtout s’il se produit une surpression explosive de vapeur d’eau au contact du corium avec l’eau de fond de cuve.

L’accident majeur est alors assuré.

Pour éviter d’en arriver là , chaque cuve est l’objet d’une surveillance attentive. A la mise en service, des éprouvettes du même métal sont placées à l’intérieur de la cuve à des endroits très exposés au flux de neutrons. Périodiquement, à l’occasion d’arrêts pour remplacement du combustible et à chaque visite décennale, on prélève quelques éprouvettes et on leur fait subir des tests pour vérifier l’évolution de leurs propriétés mécaniques. Ce procédé permet indirectement d’avoir une bonne information sur le vieillissement de l’acier de la cuve, du moins on l’espère.

(Il faut noter que la validité de ce procédé ne recueille pas l’unanimité. Certains considèrent que les tests sur éprouvettes ne représentent pas l’état réel de l’acier de la cuve).

On procède également à la surveillance de l’évolution des failles précédemment détectées, par une analyse en profondeur à l’aide d’ultrasons ou autres méthodes comme la radiographie ou les courants de Foucault.

Ces inspections sont effectuées à l’aide d’une équipement spécifique appelé MIS ( Machine d’Inspection en Service). Il s’agit d’un ensemble d’instruments de test in situ montés sur une structure de 10 m de hauteur et de 12 tonnes, introduite dans la cuve par la partie supérieure. Un cycle d’inspection dure 9 jours en 3x8.

Ces problèmes de vieillissement sont bien sûr parfaitement connus de EDF, qui en a tenu compte dans la conception des nouveaux réacteurs (EPR) afin de prolonger leur période d’exploitation sur 60 ans ou plus:

D’une part la cuve des EPR est munie à l’intérieur de réflecteurs de neutrons qui réduisent considérablement l’importance de la fragilisation de l’acier sous le flux neutronique.

D’autre part, il est prévu sous la cuve un dispositif récupérateur de corium permettant son étalement et son refroidissement pour assurer sa neutralisation en cas de rupture de cuve.

De plus les piquages de pénétration des instruments en fond de cuve ont été supprimés, pour limiter les risques de fuite à cet endroit stratégique.

L’absence de ces précautions sur les réacteurs d’ancienne génération plaide en faveur de leur mise à la retraite dans les meilleurs délais.

Une telle décision donnerait du corps au programme de sureté nucléaire en renforçant la crédibilité de l’Autorité de Sureté et de l’Industriel.

Les circonstances qui peuvent menacer la sécurité d’une installation constituent un faisceau de différents phénomènes dont il faut absolument éviter la convergence:

- Les défauts propres aux installations, et qui n’auraient pas été corrigés en temps réel ou à la suite des visites décennales. Défauts des structures, de la tuyauterie, des pompes, de la cuve, de la robinetterie, des soudures, des alimentations, des systèmes de sécurité, etc, etc…( Voir rapports d’inspection).

- Les remises à niveaux ( ou non) du matériel, des systèmes de commandes et des logiciels, en fonction des progrès de la technologie.

- Les problèmes de cohabitation de technologies inhomogènes datant d’époques différentes.

- La vulnérabilité du site aux risques extérieurs tels qu’inondations, séismes, chute d’aéronef, attentats, et les protections associées.

- La fiabilité du personnel qui assure la conduite et la surveillance des installations, sa capacité à gérer les situations de crises.

- Les structures d’intervention extérieures, leur compétence, leur disponibilité permanente et la logistique d’accompagnement de crise.

- Les dispositions visant à l’information, la protection et l’évacuation des populations.

Si ces différents domaines de responsabilité et d’action ne sont pas à leur niveau d’excellence, la sureté de l’installation n’est pas assurée.

La sureté nucléaire a donc un coût, certainement considérable, qui doit être pris en compte à son juste niveau dans les calculs de prix de revient.

Le bon équilibre entre la recherche de l’excellence et la recherche de la rentabilité implique des choix qui peuvent faire pencher la balance du mauvais côté.

La sureté d’une installation nucléaire ne doit pas relever des règles ordinaires, inadaptées à l’ampleur de l’enjeu collectif de santé publique .

Sauf à accepter la possibilité d’un accident majeur tout les dix ans, l’industrie nucléaire devra procéder à un changement d’échelle dans la prise en compte des risques spécifiques, et évaluer justement le coût de cette politique de sureté.

Il est évident que cette évaluation devra inclure le traitement des déchets et le démantèlement des installations mises à l’arrêt.

La France possède cinquante-huit réacteurs en service. Il aura fallu la catastrophe de Fukushima pour que l’autorité de sureté nucléaire procède à une inspection générale du parc, accompagnée de « stress tests » .

Cette inspection a mis en évidence des « anomalies » dont chacune est susceptible d’être à l’origine d’un évènement déclencheur, ou d’en aggraver les conséquences.

Malgré ces constats peu rassurants, l’Autorité a conclu que, moyennant quelques travaux de renforcement de principe, tout allait pour le mieux dans le meilleur des mondes nucléaires possibles.

La plus vieille centrale ( Fessenheim) vient de voir sa durée d’exploitation prolongée jusqu’à quarante ans ( 2017) malgré les mises en garde fondées sur des risques environnementaux reconnus:

- Position à 8m en contrebas du niveau du Grand canal d’Alsace.

- Implantation en zone sismique.

- Proximité immédiate de la plus grande nappe aquifère d’Europe.

- Insuffisance d’épaisseur du radier du réacteur N°1.

- Vétusté des installations.

Sans parler des autres défauts décrits dans les rapports de l’IRSN.

On peut donc conclure à l’absence de progrès dans la prise en compte effective du risque nucléaire, qui reste géré comme tout autre risque industriel malgré les annonces incantatoires des autorités de tutelle.

Ce qui n’est pas de nature à rassurer les populations dans un pays à forte densité d’urbanisation et au moment du passage à la génération EPR.

De même qu’il est impossible de garantir le risque zéro dans les transports aériens, il serait malhonnête de prétendre y atteindre avec le nucléaire.

La population est fondée à exiger la plus grande transparence ainsi que l’accès le plus large aux informations qui doivent pouvoir être analysées et interprétées en toute indépendance vis-à-vis de l’industriel, de l’exploitant, et de l’autorité de tutelle.

De grands progrès ont été réalisés dans le domaine de l’identification des points faibles du système. On sait ce qu’il ne faut pas faire, quelles sont les améliorations à apporter aux installations existantes, quelles sont les études à entreprendre pour développer les connaissances, quels sont les efforts à déployer pour atteindre l’excellence dans la formation du personnel, la gestion de la sous-traitance, la maîtrise des systèmes informatiques.

Le plus dur reste à faire: mettre tout cela en pratique…

Repost 0