Overblog
Suivre ce blog Administration + Créer mon blog
22 juin 2015 1 22 /06 /juin /2015 16:23

22 Juin 2015

L’ire des antinucléaires se focalise sur l’EPR de Flamanville qui, il faut bien le reconnaître, y met beaucoup du sien.

Il y a peu c’était la cuve elle-même et son couvercle qui faisaient la une des gazettes.

Louons au passage cette transparence nouvelle qui permet au grand public d’être informé quasiment en temps réel des aléas du chantier, il n’en fut pas toujours ainsi dans le passé. Faut-il en remercier Internet ou bien faut-il saluer une réelle volonté de communication sur la chose nucléaire?

Probablement un peu les deux.

Aujourd’hui les annonces alarmistes concernent certaine soupape de sureté du pressuriseur qui manifesterait une volonté d’indépendance de très mauvais aloi dans un milieu où tout doit être sous contrôle et se comporter selon un cahier des charges rigoureux.

Lancer une alerte, c’est bien. Mais condamner avant d’avoir instruit le dossier, c’est de la justice expéditive.

Il paraît qu’il y aurait beaucoup à dire sur les fameuses soupapes, mais assez curieusement les média n’en disent rien et se bornent à proférer une condamnation de l'ensemble de la filière nucléaire.

Il est vrai que la suppression des juges d’instruction est dans l’air du temps, du moins chez certains…

Il nous a paru nécessaire de rectifier cette négligence en tentant d’apporter quelques éclaircissements sur ces fameuse soupapes dont les soubresauts sont pain béni pour les antinucléaires, et certains autres qui ne sont pas mécontents d’avoir du grain à moudre pour régler quelques comptes entre gentlemen ( et gentlewoman) de l’énergie en général et du nucléaire en particulier. De quoi également fournir quelque arguments supplémentaires au dossier de passation de pouvoir de AREVA à EDF, s’il en était besoin.

Il faut dire que ces soupapes, ou leurs sœurs, sont à l'origine de l'accident de three mile Island qui a marqué les esprits et a été à l'origine d'une prise de conscience du milieu du nucléaire civil qui, jusque là, baignait dans la tranquille certitude de maîtriser tous les risques possibles.

Tchernobyl et Fukushima ont achevé le travail de prise de conscience entamé par Three Mile Island (TMI) ; aujourd'hui la communication autour de la sécurité nucléaire se fait sur un mode plus modeste, chat échaudé craint l'eau froide.

Certains accidents, autrefois considérés impossibles, sont maintenant pris en compte dans la conception des installations électronucléaires.

Par son statut exemplaire, l'affaire de TMI vaut d'être contée.

A la suite d'un banal incident de conduite d'un réacteur, une soupape de dépressurisation fut ouverte, opération conforme à la procédure et qui permet de gérer une surpression passagère en évacuant un peu de fluide primaire dans un réservoir ad-hoc, le tout à l'intérieur de l'enceinte de confinement. A la suite de quoi la soupape reçoit un ordre de fermeture auquel elle est censée obéir.

En l'occurrence, le voyant de confirmation de l'ordre de fermeture s'est bien allumé, mais la soupape est restée ouverte, entraînant la vidange du circuit primaire ! Le responsable de la conduite du réacteur, persuadé que la soupape était bien refermée, a été induit en erreur pour la suite des procédures, ce qui à conduit à une perte de réfrigérant primaire suivi de la fusion partielle du cœur, le pire qui puisse arriver.

Il faut dire qu'en plus le système de vérification du niveau de réfrigérant primaire dans le pressuriseur laissait à désirer, accentuant la confusion du contrôleur impuissant à éviter la catastrophe.

Cet accident, le premier du genre, a eu l'effet d'un électrochoc. Des dizaines de milliers de personnes ont été évacuées, heureusement pour rien puisque les dégâts sont restés à l'intérieur de l'enceinte de confinement.

On a du déplorer tout de même quelques dizaines de fausses couches déclenchées par la panique.

Cette affaire a permis de prendre conscience du rôle clé de ces fameuses soupapes dans la chaîne de sureté du fonctionnement d'un réacteur.

La façon de penser la sécurité a été remise en question et les procédures actuelles et l'architecture des composants sont censés garantir un niveau de sureté accru.

Par exemple il n'est plus acceptable de se contenter de vérifier qu'un ordre a bien été transmis, mais on exige de recevoir un signal confirmant que l'ordre a bien été physiquement exécuté ( Ces deux conditions n'étaient pas remplies à Three Mile Island).

Il ne suffit pas de savoir que l'ordre de fermer une soupape a bien été envoyé, il faut pouvoir constater que la soupape s'est effectivement mécaniquement fermée.

Il est assez curieux que cette règle, bien connue et appliquée depuis des lustres dans l'industrie, n'ait pas été intégrée par principe au sein de certains matériels nucléaires.

N’ayant pas la science infuse, nous puiseront les éléments du dossier à la source, c’est-à-dire dans le rapport de réunion du 13 Février 2015 à laquelle participait ASN/DEP - ASN/DCN -IRSN sur le sujet des soupapes de sureté du pressuriseur équipant le réacteur EPR-FA3, celui de Flamanville précisément.

Rapport accessible ici:

http://sciences.blogs.liberation.fr/files/soupapes-pr%C3%A9sentation-irsn.pdf

Voir également:

http://www.edf.com/html/epr/rps/chap05/chap05.pdf

Sans entrer dans des détails qui nous entraîneraient trop loin, il est bon de décrire brièvement les circonstances de l’affaire:

La chaleur dégagée par la réaction nucléaire dans la chaudière du réacteur (La cuve) est évacuée par un fluide caloporteur qui est de l’eau en phase liquide. Cette eau est à une pression de # 150 kg et une température de # 300 °C pour un débit équivalent à celui d’un petit cours d’eau, débit entretenu par d’énormes pompes.

Cette chaleur est transmise aux générateurs de vapeur grâce à des échangeurs, puis ladite vapeur actionne une turbine couplée à un alternateur qui fournit de l’électricité.

L’énergie transmise par le fluide caloporteur est proportionnelle au produit du débit par la température du fluide ( pour faire simple). Pour cela il faut conjuguer un débit très élevé, équivalent à celui d’un petit fleuve, et une température élevée, ici # 300 °C.

La pression doit être maintenue au-dessus de la valeur de transition de phase car il est essentiel que l’eau reste en phase liquide en toutes circonstances, sinon l’apparition de bulles nuirait au refroidissement du combustible et conduirait à un accident majeur par surchauffe et fusion du cœur.

C’est le rôle d’un organe appelé pressuriseur, que l’on pourrait assimiler vaguement au vase d’expansion d’une automobile, mais en beaucoup plus sophistiqué comme on peut s’en douter.

Ce « vase d’expansion » est un énorme réservoir de 75 m3 en acier, pour une longueur de 14m, un diamètre de 2,80 m, et un poids de 225 tonnes en charge.

Il joue un rôle majeur dans le bon fonctionnement de l’ensemble. Il remplit plusieurs fonctions:

- Il assure la protection du circuit primaire contre les surpressions grâce à des soupapes de sureté.

- Il absorbe les variation de volume liées aux variations de température du fluide.

- Il assure le maintien du fluide en phase liquide grâce au contrôle de l’équilibre entre phase liquide et phase gazeuse réalisé à l’intérieur du pressuriseur. Pour cela le liquide peut être chauffé par des résistances, comme un cumulus, et la phase gazeuse peut recevoir des pulvérisations d’eau « froide » pour l’effet contraire.

Sur les réacteurs REP du parc existant (58 réacteurs) La sécurité du système comporte trois lignes de protection contre les surpressions et une ligne pour les vannes de dépressurisation en cas d’accident grave, chaque dispositif étant raccordé au pressuriseur par une tubulure propre.

Les trois soupapes de sécurité ont une capacité de décharge de 300 Tonnes/h de vapeur saturée à 176 bar.

Elles sont tarées à des valeurs de seuils différentes, correspondant à des incidents de surpression de gravités différentes.

Les vannes de dépressurisation en cas d’accident grave ont une capacité de 900 Tonnes/h de vapeur saturée à 176 bar.

Sur le parc actuel de réacteurs REP ces soupapes sont fournies par la société WEIR Power & Industrials ( Robinetterie SEBIM) avec des résultats satisfaisants et un retour sur expérience (REX) très important.

Le réacteur EPR ( European Pressurized water Reactor) est comme son nom l'indique une collaboration européenne, essentiellement franco-allemande. Il était donc logique d'utiliser des composants européens dans la mesure du possible.

SEMPELL AG ( Société allemande) a donc été retenue pour la fourniture des soupapes de sécurité. Cette société a fourni les soupapes des réacteurs du parc allemand et possède donc la compétence et l'expérience requise.

Par contre, AREVA ayant imposé une modification du design de la soupape, le retour d'expérience acquis sur le modèle initial n'est pas utilisable. Une requalification est donc requise.

C'est pourquoi l'ASN s'est penchée avec attention sur ce composant dont dépend la sécurité du réacteur.

Le compte rendu de la réunion citée ci-dessus contient essentiellement une comparaison des deux concepts de soupape, celui de SEBIM et celui de SEMPELL.

Les différences y sont détaillées et le spécialiste pourra se faire son opinion.

Les principales observations de l'IRSN relativement au concept SEMPELL sont les suivantes:

"

- Suite à la modification technologique demandée par AREVA, le retour d'expérience (REX) allemand n'est pas applicable.

- AREVA ne possède pas d'expertise dans ce domaine.

- Le concept SEMPELL est complexe et comporte un grand nombre de joints et de liaisons vissées.

- Le système de ressort à rondelles Belleville provoque un fonctionnement saccadé.

- La fenêtre d'ouverture de la soupape SEMPELL est très large ( 33 bar) contre 6 bar pour la soupape SEBIM.

Les essais de qualification et de robustesse ont conduit aux conclusions suivante de l'IRSN:

- Risques de fuites de fluide primaire.

- Risques d'échec à l'ouverture et/ou à la refermeture ( observés au cours des essais).

- Risques d'ouverture intempestive.

- Risques d'ouverture prématurée.

- Risques d'ouverture retardée avec risque de dépassement de la pression de seuil.

- Modes de défaillance multiples.

- Il existe des états possibles du pilote qui génèrent un dysfonctionnement de la soupape principale.

Les essais de qualification sont non probants à l'heure actuelle.

"

Il apparaît donc que le concept SEMPELL modifié est pour le moins suspecté de fonctionnement peu sur, en tous cas pas assez sur pour recevoir une qualification sur l'EPR.

Les "anomalies" notées par l'IRSN révèlent des lacunes dans la conception du produit et dans les procédures de qualification usine.

Il paraît difficile, à partir d'un tel constat de l'IRSN, de trouver une argumentation justifiant de passer outre et de déclarer le produit "bon pour le service" .

A tout le moins un longue phase de mise au point technologique s'impose pour améliorer le fonctionnement du système et le qualifier.

L'autre solution pourrait être le retour au concept classique éprouvé sur le parc actuel…

Partager cet article
Repost0
12 juin 2015 5 12 /06 /juin /2015 10:56

12 Juin 2015

Les panneaux photovoltaïques intégrés aux toitures constituent une solution technique déplorable pour les raisons suivantes:

La production maximale d’un panneau est obtenue lorsque les rayons solaire sont perpendiculaires au plan du panneau, ce qui ne peut être réalisé qu’en orientant automatiquement le panneau en fonction de la course du Soleil ( Tracking solaire à deux axes, genre héliostat). Le toit d’un bâtiment étant évidemment fixe, la condition optimale ne sera jamais réalisée, sinon par hasard une fois par an ! Or dans nos régions tempérées la perte de production par rapport à l’optimal peut atteindre 45% voire plus.

Le photovoltaïque intégré au toit est ainsi la seule technologie dans laquelle un tel gâchis est toléré, et qui plus est financé par l’Etat qui achète l’électricité ainsi produite !

Mais ce n’est pas tout. Le matériau photovoltaïque est conçu pour absorber le maximum d’énergie solaire afin de délivrer le maximum de courant; il y a donc très peu d’énergie réfléchie. La transformation de l’énergie solaire en électricité s’effectue avec un rendement très faible, de l’ordre de 15% à 25 °C jonction pour les meilleurs panneaux. Le reste de l’énergie reçue est dissipé en chaleur dans le matériau et la température de jonction augmente considérablement si le panneau est mal refroidi, ce qui est le cas d’une installation intégrée au toit car la ventilation est très mauvaise, voire inexistante. Le rendement R du matériau photovoltaïque décroît quand la température augmente, réduisant ainsi les performances. La perte de rendement est en moyenne de 0,4 % par °C :

R = Ro x 0,996 Exp ( dT)

Un rendement de 15% à 25°C se trouve réduit à 12,5% à 70°C jonction, et 11% à 90 °C, ce qui n’est pas rare en été. Avec un panneau mal ventilé la température de jonction peut atteindre 100°C, et la limite opérationnelle de 90°C est dépassée. ( Ces conditions sont courantes en été dans le Sud de la France en absence de vent).

Par ailleurs la durée de vie des panneaux est raccourcie pour ces températures élevées, ce que prouvent les essais de vieillissement accéléré.

Enfin les panneaux sur toitures sont en permanence exposées aux intempéries, et ne disposent d’aucun dispositif de protection.

Ajoutons l’inconvénient supplémentaire d’une installation qui nécessite des modifications de charpente et de couverture avec les problèmes d’étanchéité associés, et la complexité ( et le coût) des interventions en hauteur pour l’entretien et la maintenance.

Ce système est cependant largement répandu car il a la réputation ( jamais démontrée) d’être un placement financier sûr en raison du tarif de rachat garanti par le fournisseur d’énergie. Il s’agit alors d’exploiter un effet d’aubaine financière plutôt que de faire œuvre écologique.

La manière écologique de construire une installation solaire est celle qui vise à obtenir la production maximale de la surface consacrée au captage de l’énergie, tout en préservant la durée de vie du matériau. L’énergie solaire reçue sur une surface donnée doit être entièrement convertie en électricité et/ou en chaleur « noble ».

Les installations solaires « sérieuses » mettent en œuvre des procédés qui minimisent les inconvénients cités plus haut. Le minimum est de ménager la possibilité d’une bonne ventilation naturelle ou artificielle par circulation de fluide ( panneaux hybrides). La production est grandement améliorée par l’adjonction d’un système de tracking solaire.

Aujourd’hui les installations photovoltaïques domestiques sont conçues dans un but de profit financier, l’efficacité énergétique passant au second plan. Peut importe le rendement pourvu que le bilan financier global soit positif grâce au prix de rachat avantageux.

Demain l’autosuffisance énergétique sera recherchée, il faudra justifier d’un minimum d’efficacité énergétique en affichant une production d’électricité et/ou de chaleur respectant un seuil d’équivalent kWh annuels par m2 de sol occupé. Vis-à-vis de l’énergie solaire la ressource est constituée par des m2 disponibles. Leur nombre étant limité, leur utilisation devra être optimale.

Aujourd’hui le prix de l’électricité de réseau au tarif réglementé est l’un des plus bas d’Europe. Demain cette énergie devra être vendue à son prix réel, c’est-à-dire pour l’électricité deux ou trois fois le prix actuel. Rechercher l’autosuffisance énergétique ne sera alors plus seulement un acte écologique mais une démarche de saine gestion, car le prix des installations photovoltaïques ne peut que baisser dans l’avenir. Il sera alors important de tirer le maximum de cette technologie car les mètres carrés disponibles sont limités.

Une alternative aux classiques panneaux intégrés aux toitures est proposée par une start-up Autrichienne ( Encolution) dont les produits sont distribués en exclusivité par EDF-ENR, il s’agit du concept Smart-Flower.

Le « Smart Flower » est un dispositif autonome plug and play qui comporte 12 panneaux en forme de pétales de fleur disposés autour d’un axe qui leur permet de se déplier à la façon d’un éventail. Une fois déplié l’ensemble présente une surface circulaire de 4,80 m de diamètre pour une surface active de 18 m2 environ pour une puissance de 2,7 kWc. L’axe de la « fleur » est fixé au sommet d’un pilier de 3,40 m de hauteur et peut être orienté ( motorisé) pour maintenir la surface des « pétales » perpendiculaire aux rayons solaires. En cas de nécessité les pétales se replient et se placent automatiquement dans un coffre abri.

Cette disposition supprime donc tous les inconvénients des panneaux fixes sur toitures et présente une esthétique plus acceptable. De plus l’entretien et la maintenance sont facilités par un dispositif automatique de nettoyage. La pose est simplifiée puisque la machine est livrée complète incluant l’onduleur et qu’il suffit de la fixer au sol ( Un petit socle en béton et quatre boulons) et de la raccorder à l’installation domestique. En cas de déménagement l’appareil se transporte aisément.

Pour une puissance crête comparable à celle d’une installation intégrée en toiture, la production est supérieure de 40% grâce au tracking solaire et à un meilleur refroidissement des panneaux. Il s’agit d’un exemple intéressant de ce qu’il est possible de proposer en relève ou en complément des solutions classiques intégrées aux toitures.

Une autre solution permettant d’améliorer significativement le rendement énergétique consiste à utiliser des panneaux hybrides. Ces panneaux intègrent une surface photovoltaïque refroidie par la circulation d’un fluide caloporteur qui recueille la chaleur normalement perdue dans l’Atmosphère. Cette chaleur est transférée à un ballon pour usages ECS ou chauffage. De plus la production des panneaux PV est améliorée grâce au contrôle de la température des cellules par le fluide de refroidissement. Le rendement énergétique global de cette cogénération atteint plus de 60% contre 12 à 13% pour un panneau classique bien souvent surchauffé.

Nul doute que ces solutions, et d’autres, remplaceront dans l’avenir les solutions actuelles peu efficaces énergétiquement.

Partager cet article
Repost0
12 juin 2015 5 12 /06 /juin /2015 10:48

12 Juin 2015

Les panneaux photovoltaïques intégrés aux toitures constituent une solution technique déplorable pour les raisons suivantes:

La production maximale d’un panneau est obtenue lorsque les rayons solaires sont perpendiculaires au plan du panneau, ce qui ne peut être réalisé qu’en orientant automatiquement le panneau en fonction de la course du Soleil ( Tracking solaire à deux axes, genre héliostat). Le toit d’un bâtiment étant évidemment fixe, la condition optimale ne sera jamais réalisée, sinon par hasard une fois par an ! Or dans nos régions tempérées la perte de production par rapport à l’optimal peut atteindre 45% voire plus.

Le photovoltaïque intégré au toit est ainsi la seule technologie dans laquelle un tel gâchis est toléré, et qui plus est financé par l’Etat qui achète l’électricité ainsi produite !

Mais ce n’est pas tout. Le matériau photovoltaïque est conçu pour absorber le maximum d’énergie solaire afin de délivrer le maximum de courant; il y a donc très peu d’énergie réfléchie. La transformation de l’énergie solaire en électricité s’effectue avec un rendement très faible, de l’ordre de 15% à 25 °C jonction pour les meilleurs panneaux. Le reste de l’énergie reçue est dissipée en chaleur dans le matériau et la température de jonction augmente considérablement si le panneau est mal refroidi, ce qui est le cas d’une installation intégrée au toit car la ventilation est très mauvaise, voire inexistante.

Le rendement R du matériau photovoltaïque décroît quand la température augmente, réduisant ainsi les performances. La perte de rendement est en moyenne de 0,4 % par °C :

R = Ro x 0,996 Exp ( dT)

Un rendement de 15% à 25°C se trouve réduit à 12,5% à 70°C jonction, et 11% à 90 °C, ce qui n’est pas rare en été.

Avec un panneau mal ventilé la température de jonction peut atteindre 100°C, et la limite opérationnelle de 90°C est dépassée. ( Ces conditions sont courantes en été dans le Sud de la France en absence de vent). Par ailleurs la durée de vie des panneaux est raccourcie pour ces températures élevées, ce que prouvent les essais de vieillissement accéléré.

Enfin les panneaux sur toitures sont en permanence exposées aux intempéries, et ne disposent d’aucun dispositif de protection.

Ajoutons l’inconvénient supplémentaire d’une installation qui nécessite des modifications de charpente et de couverture avec les problèmes d’étanchéité associés, et la complexité ( et le coût) des interventions en hauteur pour l’entretien et la maintenance.

Ce système est cependant largement répandu car il a la réputation ( jamais démontrée) d’être un placement financier sûr en raison du tarif de rachat garanti par le fournisseur d’énergie. Il s’agit alors d’exploiter un effet d’aubaine financière plutôt que de faire œuvre écologique.

La manière écologique de construire une installation solaire est celle qui vise à obtenir la production maximale de la surface consacrée au captage de l’énergie, tout en préservant la durée de vie du matériau. L’énergie solaire reçue sur une surface donnée doit être entièrement convertie en électricité et/ou en chaleur « noble ».

Les installations solaires « sérieuses » mettent en œuvre des procédés qui minimisent les inconvénients cités plus haut. Le minimum est de ménager la possibilité d’une bonne ventilation naturelle ou artificielle par circulation de fluide ( panneaux hybrides). La production est grandement améliorée par l’adjonction d’un système de tracking solaire.

Aujourd’hui les installations photovoltaïques domestiques sont conçues dans un but de profit financier, l’efficacité énergétique passant au second plan. Peut importe le rendement pourvu que le bilan financier global soit positif grâce au prix de rachat avantageux.

Demain l’autosuffisance énergétique sera recherchée, il faudra justifier d’un minimum d’efficacité énergétique en affichant une production d’électricité et/ou de chaleur respectant un seuil d’équivalent kWh annuels par m2 de sol occupé. Vis-à-vis de l’énergie solaire la ressource est constituée par des m2 disponibles. Leur nombre étant limité, leur utilisation devra être optimale.

Aujourd’hui le prix de l’électricité de réseau au tarif réglementé est l’un des plus bas d’Europe. Demain cette énergie devra être vendue à son prix réel, c’est-à-dire pour l’électricité deux ou trois fois le prix actuel. Rechercher l’autosuffisance énergétique ne sera alors plus seulement un acte écologique mais une démarche de saine gestion, car le prix des installations photovoltaïques ne peut que baisser dans l’avenir. Il sera alors important de tirer le maximum de cette technologie car les mètres carrés disponibles sont limités.

Une alternative aux classiques panneaux intégrés aux toitures est proposée par une société Autrichienne ( Encolution) dont les produits sont distribués en exclusivité par EDF-ENR, il s’agit du concept Smart-Flower.

Le « Smart Flower » est un dispositif autonome plug and play qui comporte 12 panneaux en forme de pétales de fleur disposés autour d’un axe qui leur permet de se déplier à la façon d’un éventail. Une fois déplié l’ensemble présente une surface circulaire de 4,80 m de diamètre pour une surface active de 18 m2 environ pour une puissance de 2,7 kWc. L’axe de la « fleur » est fixé au sommet d’un pilier de 3,40 m de hauteur et peut être orienté ( motorisé) pour maintenir la surface des « pétales » perpendiculaire aux rayons solaires. En cas de nécessité les pétales se replient et se placent automatiquement dans un coffre abri.

Cette disposition supprime donc tous les inconvénients des panneaux fixes sur toitures et présente une esthétique plus acceptable. De plus l’entretien et la maintenance sont facilités par un dispositif automatique de nettoyage. La pose est simplifiée puisque la machine est livrée complète incluant l’onduleur et qu’il suffit de la fixer au sol ( Un petit socle en béton et quatre boulons) et de la raccorder à l’installation domestique.

En cas de déménagement l’appareil se transporte aisément.

Pour une puissance crête comparable à celle d’une installation intégrée en toiture, la production est supérieure de 40% grâce au tracking solaire et à un meilleur refroidissement des panneaux.

Il s’agit d’un exemple intéressant de ce qu’il est possible de proposer en relève ou en complément des solutions classiques intégrées aux toitures.

Une autre solution permettant d’améliorer significativement le rendement énergétique consiste à utiliser des panneaux hybrides. Ces panneaux intègrent une surface photovoltaïque refroidie par la circulation d’un fluide caloporteur qui recueille la chaleur normalement perdue dans l’Atmosphère. Cette chaleur est transférée à un ballon pour usages ECS ou chauffage.

De plus la production des panneaux PV est améliorée grâce au contrôle de la température des cellules par le fluide de refroidissement. Le rendement énergétique global de cette cogénération atteint plus de 60% contre 12 à 13% pour un panneau classique bien souvent surchauffé.

Nul doute que ces solutions, et d’autres, remplaceront dans l’avenir les solutions actuelles peu efficaces énergétiquement.

Partager cet article
Repost0
9 juin 2015 2 09 /06 /juin /2015 14:38

9 Juin 2015

La France émet bon an mal an 500 millions de tonnes eq CO2.

Ces émissions sont dues pour la plupart (95%) à l’exploitation des énergies fossiles, Pétrole, Charbon, Gaz naturel. Les données suivantes sont extraites des statistiques du Ministère de l’Ecologie, du Développement durable et de l’Energie, et concernent l’année 2012.

Emissions de GES en Mt eq CO2 :

- Transports: 136,4 Mt 26,6 %

- Résidentiel/Tertiaire: 115 Mt 22,4 %

- Industries manufacturières: 86,2 Mt 16,8 %

- Industries de l’Energie: 57,5 M t 11,2 %

- Agriculture: 105 Mt 20,5 %

- Traitement des déchets: 12,6 Mt 2,5 %

Pour un total de 512,7 Mt.

Les émissions dues aux transports sont à 90% imputables au trafic routier, le reste au trafic aérien, maritime et fluvial. Dans le trafic routier, la part des voitures particulières est de 57%, soit 70 Mt eq CO2, ou encore 13,6 % du total des émissions de GES.

Voici le détail reconstitué:

Le parc automobile français compte 32 millions de véhicules particuliers, qui consomment annuellement 29 Milliards de litres de carburant ( 64% gazole et 36% essence), soit environ 875 litres par voiture. La consommation moyenne du parc est de 7 L/100 km, pour une distance moyenne parcourue de 12 500 km/an.

La combustion d’un litre d’essence dégage 2,28 kg de CO2, celle d’un litre de gazole en dégage 2,6 . L’émission moyenne de nos voitures est donc de 168 g/km, soit 70,2 millions de tonnes de CO2 par an.

Grâce aux normes européennes, de plus en plus sévères, la consommation des voitures neuves se réduit d’année en année, et donc aussi leurs émissions. Un gain de 1 L/100 km se traduit par une baisse des émissions de 22,8 g CO2/km ( ou 26 g s’il s’agit de gazole).

L’âge moyen de nos voitures est de 8,5 ans. Le renouvellement du parc s’effectue en 15 ans approximativement. En quinze ans, grâce à l’application des normes européennes et à un réajustement des gammes vers des véhicules mieux adaptés à l’usage réel, la consommation moyenne devrait normalement descendre à 5 L/100, et les émissions moyennes passer de 168 g à 114 g CO2/km ( 50 Mt au lieu de 70 Mt).

Dans cette période on peut attendre une amélioration supplémentaire substantielle grâce à deux phénomènes:

Le développement de la voiture électrique d’une part, sous ses différentes formes (Tout électrique, hybride rechargeable, pile à Hydrogène), à condition que l’électricité et/ou l’Hydrogène soit produits à partir de sources renouvelables et/ou décarbonées.

Rappelons ici que l’on peut déjà acheter de l’électricité verte certifiée auprès de fournisseurs qui approvisionnent des quantités équivalentes auprès de producteurs d’énergies renouvelables.

Pour l’Hydrogène il faudra attendre encore un peu, mais çà vient puisque ce gaz servira de véhicule de stockage d’énergie électrique grâce à l’électrolyse. Il sera alors utilisé dans le réseau domestique en mélange, ou distribué pur pour les transports. Des véhicules alimentés en Hydrogène circulent déjà.

En quinze ans le parc automobile pourrait être électrifié à 20% à condition que les pouvoirs publics encouragent concrètement l’installation des bornes de rechargement rapide des batteries, et définissent une politique de tarification claire et pérenne pour l’électricité de recharge, notamment l’éventuelle taxation. Faute de quoi l’absence de visibilité à long terme dissuadera l’usager d’abandonner un système qui marche pour une solution incertaine.

La deuxième source d’optimisme est la perspective de croissance de la part des biocarburants de troisième génération, émettant du CO2 recyclable et évitant les changement d’affectation des sols. Là aussi la balle est dans le camp des pouvoirs publics auxquels il appartient de promouvoir la production de ce nouveau type de carburants.

On peut donc considérer que, dès à présent, l’Automobile est un secteur qui représente moins de 14% des émissions de GES, et que grâce aux normes européennes et à l’effort engagé par les constructeurs, les mesures sont d’ores et déjà prises pour réduire de 50% au moins ces émissions à l’échéance de 2030 par le mécanisme du renouvellement naturel du parc.

Au-delà de 2030 la généralisation des biocarburants et de la voiture électrique conduira à l’élimination du problème du CO2, au moins dans ce secteur d’activité et à condition que les pouvoirs publics prennent les choses en mains. Ainsi, du point de vue des émissions de CO2, l’Automobile sera le premier secteur d’activité ayant satisfait aux exigences de la transition énergétique.

Partager cet article
Repost0
4 juin 2015 4 04 /06 /juin /2015 10:54

4 Juin 2015

La chasse au CO2 bat son plein; désormais la moindre de nos actions est jugée non pas en termes de services rendus mais en fonction de son empreinte Carbone.

Parmi les objets de la civilisation qui sont visés, l’Automobile constitue un gibier de choix. Il faut dire que l’homme moderne a fait de la bagnole une prothèse désormais indispensable, ou du moins ressentie comme telle. C’est ainsi que chaque année en France 29 Milliards de litres de carburants sont brûlés sur l’Autel du progrès ( essence + diesel). Les lois de la combustion étant non négociables, chaque litre de carburant correctement brûlé émet une quantité de CO2 qui ne dépend que de la composition dudit carburant. La seule échappatoire est la réduction de la consommation.

La combustion complète d’un litre de supercarburant produit, entre autres, 2,28 kg de CO2. Un litre de gazole en fournit davantage, 2,6 kg; mais comme la consommation d’un diesel est environ les 2/3 de celle d’un essence, le bilan global est meilleur. Du strict point de vue des émissions de CO2, il vaut donc mieux rouler au diesel.

Ce constat est à nuancer car la nouvelle génération de moteurs à essence affiche une efficacité énergétique très nettement améliorée et l’écart avec le diesel se réduit fortement. La question de savoir si ces nouveaux moteurs polluent davantage que les anciens et seraient aussi nocifs voire plus que les diesels reste ouverte. On en parlera encore longtemps, notamment pour savoir à qui attribuer la fameuse pastille verte sur laquelle le Gouvernement compte pour afficher sa position écologique lors de la conférence de Décembre sur le climat.

De belles joutes en perspective…

Bon an mal an environ 70 millions de tonnes de CO2 sont émises par nos voitures (Essence + Diesel) . Il est donc raisonnable de chercher à réduire ce montant. Le CO2 n’étant pas un gaz polluant, il n’est donc pas sanctionné par la norme Euro anti pollution, qui se contente de le mesurer. Par contre il entre dans le cadre du programme européen de réduction globale des émissions de CO2.

Pour faire simple, les Gouvernements et les constructeurs sont convenus d’un objectif de limite des émissions moyennes de CO2 par kilomètre pour les véhicules neufs, aujourd’hui c’est 100 g . La performance actuelle du parc européen est de 127 g CO2/ km ( Sur les véhicules neufs). Il s’agit d’une moyenne dans laquelle les performances des petites voitures compensent les gaspillages des gros 4x4.

( Pas très moral, mais statistiquement efficace).

La tendance est d’abaisser l’objectif limite à 95g, voire même 90 g dans le futur, si Angela Merkel ne proteste pas trop fort car les grosses bagnoles d’outre-Rhin sont défavorisées. En effet, la quantité de CO2 émise étant peu ou prou proportionnelle à la consommation, et celle-ci étant corrélée à la grosseur du bahut et à la puissance de son moteur, les constructeurs de grosses berlines sont à la peine.

De plus le prochain remplacement de la norme antipollution NEDC par la norme WLTP moins laxiste rendra le challenge encore plus difficile.

La course aux 100 g CO2/km, saint graal de la transition énergétique, impose aux constructeurs des efforts de recherche et une remise en question sur d’une part la technologie ( Moteurs, réduction des frottements, pneumatiques, aérodynamique, etc…) et d’autre part sur le positionnent des gammes sur le marché ( Moins de gros bahuts, pour davantage de petits et moyens modèles).

Les lois de la thermodynamiques étant elles aussi non négociables, il sera extrêmement difficile de descendre en dessous de 80 g CO2/km avec un moteur thermique, puisque cela suppose une consommation inférieure à 3,5 L/100, possible seulement si le véhicule est très allégé et les performances très dégradées, ce qui ne correspond pas au marché (Qui achèterait aujourd’hui une voiture ayant les performances d’une 2 CV ?)

Bien sûr le passage à l’électrique est la solution idéale, mais encore inaccessible sauf dans certaines niches très minoritaires, à cause de l’autonomie encore très insuffisante.

Remarquons au passage que le problème des émissions de CO2 disparaîtra avec l’utilisation des biocarburants puisque le CO2 émis sera recyclable. Il restera le problème de la pollution, que les solutions actuelles pourront résoudre.

Il n’en demeure pas moins que l’objectif de réduction des consommations restera d’actualité, cette fois pour une question de coût les carburants bio.

Pour que les émissions de CO2 d’une voiture à essence soient inférieures à 100 g par km, il faut donc que sa consommation soit inférieure à 4,4 L/100 km. ( Petite règle de trois valable aussi pour le diesel avec des nuances). Et bien entendu il faut également que la combustion soit aussi complète que possible pour éviter l’émission d’hydrocarbures imbrûlés, vivement déconseillée, cette fois par la norme sur la pollution automobile ( Euro 6).

Les émissions de CO2 des véhicules neufs, même si elles ne sont pas sanctionnées par la norme Euro antipollution, sont mesurées au cours du test d’homologation, qui mesure également la consommation et les polluants. Les résultats figurent au catalogue des constructeurs et donc sont portés à la connaissance des futurs acheteurs pour lesquels ils constituent un argument en faveur ou en défaveur du modèle convoité. Une lettre est attribuée au modèle, le A étant bien sûr le top du top, du moins pour le CO2 car pour les performances c’est une autre histoire…On ne peut pas avoir le beurre et l’argent du beurre.

Même si ce test n’est pas représentatif des performances réelles du véhicule, il est donc primordial pour un constructeur d’y obtenir de bons résultats, peu importe ce qui se passera ensuite en utilisation réelle.

Oui c’est idiot, mais c’est ainsi.

( On n’a encore jamais vu, du moins en France, des groupes d’usagers entamer un action en justice contre un constructeur au motif que ses voitures consomment 20% de plus que les valeurs indiquées dans les prospectus).

Une autre norme, WLTP, plus réaliste, est en cours de préparation. Elle devrait être applicable à partir de 2017 . Elle sera moins laxiste et donnera une meilleure image du comportement réel du véhicule, du moins on peut l’espérer.

On peut atteindre le seuil de 100 g CO2/100 km( et même descendre en-dessous) en conservant une technologie classique à laquelle on applique le « downsizing », Par exemple en réduisant la cylindrée du moteur et le poids de la voiture. Mais sans précautions particulières la puissance obtenue sera faible et le véhicule peu attractif.

Pour être efficace, le downsizing doit être accompagné d’un travail sur l’alimentation du moteur (Injection directe, turbo), sur les chambres et la distribution, et sur la gestion (cartographie), sur les frottements, sur le graissage, éventuellement utiliser trois cylindres au lieu de quatre.

L’équation est simple: il s’agit d’obtenir de bons résultats en consommation et émissions de CO2 durant les tests d’homologation, et un comportement brillant en utilisation réelle, là où personne ne viendra mesurer la consommation ni les émissions.

La solution idéale dépourvue d’émission de CO2 est le tout électrique, hélas réservé aujourd’hui à des utilisations spécifiques en raison de son autonomie insuffisante. Et encore faut-il que l’électricité soit produite à partir de sources renouvelables et/ou à carbone recyclable.

Mais l’électricité a un rôle à jouer dans la voiture à moteur thermique pour réduire significativement les émissions de CO2 dans le cadre du test d’homologation, et pour satisfaire à l’obligation du « zéro émission » qui menace de s’installer dans certaines agglomérations.

On entre alors dans le domaine de l’hybride, domaine mystérieux par sa complexité qui cache parfois des pièges.

Les voitures hybrides utilisent une technologie relativement complexe, en sorte que l’usager moyen, déjà peu familier des arcanes de la motorisation thermique classique, se trouve démuni d’éléments de jugement sur la cuisine électrico-thermo-mécanique mijotée sous les capots des modèles hybrides proposés sur le marché.

Le terme même d’hybride est utilisé pour désigner toutes sortes de véhicules très différents combinant un moteur thermique et un ou plusieurs moteurs électriques avec une batterie Li-Ion ou NiMH de capacité variable donnant à l’ensemble des performances elles-mêmes très différentes.

Les moteurs peuvent être couplés, ou non, pour augmenter momentanément la puissance. La présence ou non d’un prolongateur d’autonomie, d’un récupérateur d’énergie au freinage, d’une prise de rechargement de la batterie, sont des éléments importants .

Les constructeurs, profitant d’une part de cette complexité technologique impénétrable par le client moyen, et d’autre part du laxisme des normes officielles de mesure, affichent des performances de consommation susceptibles de séduire un client non prévenu.

On trouve sur le marché deux grandes familles appartenant au genre hybride, qui se distinguent par la philosophie qui a présidé à leur design.

Le premier concept vise une voiture multi usages capable d’une autonomie comparable à celle d’une grande routière à moteur thermique, et susceptible de rouler électrique sur au moins cinquante kilomètres voire plus avec possibilité de rechargement sur le secteur.

Un exemple est l’OPEL Ampera qui est équipée d’un moteur électrique de 110 kW (!) et d’un moteur thermique de 63 kW. La traction est électrique, le moteur thermique est utilisé en prolongateur d’autonomie pour recharger une batterie de 16 kWh. L’autonomie électrique est de 50 à 80 km, ce qui permet largement une utilisation journalière, l’assurance de traverser une agglomération en mode électrique sans émission de CO2, et d’afficher au test d’homologation des émissions de CO2 quasiment nulles ( 27 g CO2/km).

La batterie est rechargeable sur le secteur ou à l’aide du moteur thermique. La consommation d’essence est nulle en mode tout électrique, elle est celle du moteur thermique lorsque la batterie est déchargée. Elle est affichée à 1,2 L/100 au test d’homologation qui est un mix de mode électrique et thermique.

Sur un long parcours routier, donc en mode thermique seul, la consommation est plutôt de 6,5 L, soit une consommation « normale » pour un moteur thermique de 1,4 L et 86 CV, vu le poids de la berline.

Le prix est à la hauteur des prestations: 40 000 euros.

Le second concept, qui vise le marché des véhicules entre 15 et 20 000 euros, donc doit faire appel à des solutions plus économiques. L’économie porte essentiellement sur la partie électrique, qui constitue le surcoût par rapport à un véhicule classique.

Le moteur électrique sera moins puissant, 50 à 60 kW suffiront, et surtout la batterie sera beaucoup plus « légère », 2 à 4 kWh et la technologie pourra être NiMH plutôt que Lithium-ion très onéreuse.

Le moteur thermique associé sera également de puissance modeste. Evidemment l’autonomie en mode électrique sera très faible, de l’ordre de deux kilomètres, presque symbolique, mais suffisant pour donner des résultats intéressants au test d’homologation.Il sera facile d’obtenir moins de 100 g CO2/km.

Un exemple est la TOYOTA Yaris Hybrid. Elle contient un moteur thermique de puissance très modeste (54 kW) et un moteur électrique de 59 kW. Un accouplement mécanique permet de fonctionner sur l’un des deux moteurs au choix, ou sur les deux ensemble pour obtenir une forte puissance.

On voit la grosse ficelle: Le « petit » moteur thermique de 54 kW permet de revendiquer une faible consommation d’essence sur route à condition d’avoir le pied léger: 3,8 L aux cent selon la norme NEDC. La possibilité de coupler les deux moteurs permet d’afficher une puissance max de 100 CV , très attrayante dans les encarts publicitaires.

Ce que le client intéressé ne réalise pas c’est que cette puissance de 100 CV n’est disponible que pendant un très court moment, juste le temps de décharger la petite batterie LiMh ( qui pèse 80 kg quand même).

Le dépliant souligne l’intérêt de rouler électrique en ville. Mais là encore il faudra déchanter car la petite batterie ne lui permettra pas d’aller au-delà de 2 (deux) kilomètres à 50 km/h, ensuite il faudra continuer sur le moteur thermique.

Partant du pont de Saint-Cloud pour aller au centre de Paris, la batterie sera vide avant d’arriver à Billancourt!

Au-delà de cette distance le moteur thermique prend le relais soit pour propulser, soit pour recharger la batterie, ou les deux. Quant aux émissions de CO2 elles descendent à 80 g /km seulement au cours du test d’homologation.

Toutes les voitures hybrides se situent dans l’une ou l’autre de ces familles.

Le poids de la règlementation antipollution d’une part (Normes Euro 6 et la suite), et les contraintes apportées par la création de zones de restriction de circulation d’autre part, entraîneront à terme un bouleversement de la composition du parc automobile.

Il s’y ajoutera une plus grande diversification technologique liée au foisonnement de solutions électriques et ou hybrides ( EV, HEV, PHEV, Full Hybride, Micro Hybride, etc…).

Il s’y ajoutera également une composante sociale liée à l’aspect financier de cette mutation, qui ne pourra être suivie que par la classe aisée dans un premier temps. Aujourd’hui les deux tiers des transactions automobiles portent sur des véhicules d’occasion. Ce marché sera bouleversé par la mise au rebut rapide de véhicules qui, autrefois, auraient eu une seconde vie entre les mains d’usagers peu fortunés.

Le Législateur devra tenir compte de ce problème pour éviter l’émergence d’un pôle de discrimination sociale préjudiciable à l’ordre public.

Partager cet article
Repost0
31 mai 2015 7 31 /05 /mai /2015 14:07

31 Mai 2015

Les préoccupations des scientifiques concernant le changement climatique ne datent pas d’hier.

Le GIEC , chargé au plan international politique de préciser le phénomène et d’en déterminer les causes et les conséquences, a été créé en 1988. Dès l’origine le rôle de l’accroissement du taux atmosphérique de CO2 a été mis en évidence et l’implication des activités humaines dans cet accroissement a été démontré.

Près de trois décennies se sont donc écoulées depuis la mise en alerte des gouvernements de la Planète sur le risque de catastrophe climatique lié à l’utilisation abusive des ressources énergétiques fossiles.

Que s’est-il passé depuis ?

En 1990 la production mondiale d’énergie primaire était de 8 800 Mtep, dont 81% de fossiles ( Charbon, Gaz naturel, Pétrole).

En 2012 elle a atteint 13 400 Mtep, soit + 52%, avec toujours 81% d’énergie fossile.

La tendance est toujours à l’accroissement au taux de 2,3% par an, et la part des fossiles demeure au même niveau.

En presque trois décennies il ne s’est donc strictement rien passé, et le taux de CO2 atmosphérique continue imperturbablement de monter vers les sommets, les 400 ppm ayant été dépassés en 2014.

Le taux annuel d’augmentation de 2,3% de production d’énergie primaire, remarquablement constant dans la durée, prouve la totale inefficacité des avertissements de la communauté scientifique. On peut donc légitimement se demander si ce grand battage Scientifico-Politico-Médiatique aura, un jour, une influence quelconque sur le taux de CO2.

Dans cette grande mise en scène nous avons d’une part un consensus de scientifiques qui prédit une catastrophe climatique si les émissions de CO2 ne sont pas réduites drastiquement, et d’autre part des Etats et des Industriels qui regardent ailleurs et continuent à extraire et exploiter les produits énergétiques fossiles fortement émetteurs du même CO2.

Comme il fallait d’ailleurs s’y attendre, le pétrole, le gaz, le charbon, seront fort probablement brûlés jusqu’à la dernière goutte et peut-être au-delà si l’existence de sources naturelles d’hydrocarbures abiotiques sont confirmées.

Certes, certains Etats manifestent une volonté d’assainir leurs mœurs énergétiques, en améliorant leur efficacité énergétique d’une part, et en développant les sources d’énergie propres et durables d’autre part, mais le bilan global de la Planète n’en est pas affecté, comme le montrent les chiffres ci-dessus. Les améliorations constatées ici et là sont contrebalancées par l’accroissement de la demande toujours servie à 80% par les fossiles.

Le Dioxyde de Carbone est un gaz persistant dans l’Atmosphère, on parle de plusieurs centaines d’années, et encore plus longtemps dans les océans qui subissent une acidification préjudiciable à la vie. Même si les émissions anthropiques sont maîtrisées un jour, ce qui ne semble pas devoir se produire de sitôt, la concentration de dioxyde de Carbone ne retombera pas à sa valeur d’avant l’ère industrielle avant un siècle ou deux.

Comme le fait remarquer le Secrétaire Général de l’OMM Michel Jarraud: « Les lois de la Physique ne sont pas négociables ».

Nous devons donc probablement nous attendre à affronter la kyrielle des calamités annoncées par le GIEC:

- Augmentation de la température moyenne de la basse Atmosphère de 4 à 6 °C d’ici la fin de ce siècle, et combien au-delà ?

- Augmentation du niveau des océans, déjà 30 cm durant le XXè siècle, combien en 2 100 et après ?

- Acidification des océans.

- Augmentation du nombre et de la puissance des évènements climatiques.

- Pénurie sur la ressource en eau douce.

- Extension des zones désertiques.

- Etc… ( Lire le rapport du GIEC).

Avec le cortège des conséquences humanitaires que l’on peu imaginer.

La COP 21 sera certainement l’occasion pour les pays développés de se féliciter mutuellement des progrès accomplis vers une transition énergétique nous garantissant un avenir radieux. De nombreuses réalisations seront mises en avant, on parlera éolien offshore, économies d’énergie, voiture électrique, biocarburants, transports collectifs et même peut-être de nucléaire propre. La France mettra en avant son savoir faire qui lui permet de réduire sa part de nucléaire sans fermer un seul réacteur. L’Allemagne démontrera qu’elle réduit son empreinte carbone en augmentant l’exploitation du lignite. Les autres expliqueront pourquoi ils ont construit des éoliennes sans prévoir le moyen de stocker l’électricité en période creuse.

Des objectifs ambitieux seront fixés et des milliards seront brandis, prouvant la bonne volonté des uns et des autres. Les participants se quitteront en ayant conscience d’avoir donné au monde les bonnes clés pour survivre.

Et puis les choses continueront leur train.

Au fait, à propos de train, la SNCF envisage de remplacer certaine liaisons ferroviaires par des liaisons routières, lesquelles seront desservies par des autocar à moteur Diesel.

Vive la COP 21...

Partager cet article
Repost0
22 mai 2015 5 22 /05 /mai /2015 13:45

22 Mai 2015

Nous avons vu précédemment ( Article du 17 Mai ) que l’EPR aura une capacité de production annuelle de 13 TWh.

Pour lui substituer un parc éolien offshore de production équivalente, la puissance nominale cumulée des machines devraient être de 4 370 MW. ( sur la base d’un facteur de charge de 0,34 qui est celui constaté sur les parcs offshore existants en Mer du Nord).

Le nec-plus-ultra de cette technologie permet ( permettra) de construire des machines de 8 MW (nominal). Il en faudrait donc 546 pour produire annuellement autant qu’un seul EPR.

Aujourd’hui sont exploitées des machines de 5 MW ( Europe du Nord). Hormis le coût, dont nous avons déjà évoqué l’énormité, ces machines occuperont beaucoup de place. Selon les standards observés en Europe du Nord, les machines sont écartées de 500m en largeur et 800m en profondeur ( par rapport au lit moyen du vent), soit une surface de 250 km2 ( 30 km x 8 km ) pour notre exemple de 546 machines.

Un tel parc couvrirait largement la totalité de la baie du Mont Saint-Michel !

Nous avons vu également que, dans une première étape du retrait du nucléaire, il faudrait arrêter une vingtaine de réacteurs anciens. Leur remplacement par des fermes éoliennes offshore conduirait à installer douze parcs de 546 machines chacun. Ce n’est donc plus 30 km de littoral qui seraient « occupés », mais bien 360 km.

Et pour une production annuelle qui ne dépasserait pas 15% de notre consommation électrique interne.

Cette simulation montre à l’évidence que l’avenir de l’éolien offshore n’est pas dans l’invasion du littoral par un « mur de l’Atlantique » qui perturberait de manière intolérable la vie des professionnels de la mer et l’attrait touristique de centaines de kilomètres d’un littoral qui contribue majoritairement dans le budget du pays.

Mais alors, que faire ?

La seule solution consiste à repousser ces parcs encombrants en haute mer, dans des zones hors des routes maritimes évidemment, ce qui implique des installations flottantes, dépourvues d’ancrage matériel, positionnées de manière géostationnaire par un système de navigation automatique. ( Au-delà d’une profondeur de 50m il devient très difficile d’envisager un ancrage sur le fond).

Cette nécessaire mutation n’a bien sûr pas échappé aux industriels de la chose, qui ont dans leurs cartons, voire même déjà in situ en mer, des « plateformes » éoliennes flottantes en cours de mise au point.

Aujourd’hui il n’existe encore en Europe aucun parc industriel éolien équipé de machines flottantes, seuls quelques démonstrateurs sont en cours d’évaluation. En France, la Société NENUPHAR expérimente un prototype d’éolienne flottante à axe vertical, qui fait partie d’un projet ( VERTIMED) d’une ferme offshore comportant 13 machines « Vertiwind » de 2,3 MW pour une puissance totale installée de 30 MW. Le calendrier prévoit la mise en service en 2018. Les partenaires du projet sont EDF-EN, AREVA et TECHNIP. Le coût est évalué à 130 Millions, soit 4,3 Millions par MW. Cette activité, qui fait partie du projet Européen INFLOW , est dotée d’un financement Européen participatif de 35 Millions d’euros dans le cadre du dispositif NER 300.

Cette technologie est fort onéreuse, mais probablement incontournable à terme si les besoins électriques restent importants et dans l’hypothèse d’un nucléaire en forte baisse, et d’énergie fossile sérieusement remise en question.

Un problème est d’installer des éoliennes flottantes à positionnement automatique, un autre problème est d’acheminer le courant produit vers la terre. La profondeur, la houle, la nécessité d’enterrer les câbles, la distance à la côte, constituent autant d’obstacles et de sources d’accroissement des coûts.

Une autre solution consisterait à transformer sur place l’électricité produite en Hydrogène par électrolyse de l’eau de mer, et transporter ce gaz par gazoducs ou navires gaziers.

Nos voisins Allemands ont commencé à développer l’éolien offshore il y a plus de dix ans. Leurs réalisations constituent donc un exemple de ce que l’on peut faire, et éventuellement ne pas faire. L’exiguïté de leur littoral en mer du Nord, l’impossibilité d’envahir les accès maritimes de Bremerhaven et Willelmshaven, et la nécessité de préserver l’environnement les a contraints de repousser les parcs éoliens le plus loin possible, jusqu’à 100 km de la terre pour certains.

La « baie Allemande » n’est pas large, et les routes maritimes d’accès doivent être préservées. Bien que le littoral de Bremerhaven ne reçoive pas la fréquentation touristique de l’Ile de Ré, l’environnement doit y être protégé. Le littoral allemand de la mer Baltique sera également mis à contribution pour l’extension des zones éoliennes.

Actuellement les parcs allemands de la Mer du Nord raccordés ou en passe de l’être en 2015 représentent une puissance nominale d’environ 3000 MW. Cette puissance est assurée par 600 machines de 5 MW. ( Les nouvelles machines de 8 MW ne sont pas encore en service).

La production de cet ensemble ne représente environ que 68 % de celle d’un seul réacteur EPR. La surface maritime occupée est de l’ordre de 350 km2. La profondeur de la Mer du Nord est faible, à 100 km de la terre les fonds ne dépassent pas 40 m, permettant encore l’ancrage des machines.

L’extension des parcs est donc relativement aisée, sauf en matière de transport de l’électricité, qui constitue un problème à la fois technique et de coût ( pour éviter la destruction des câbles par les engins de pêche, il faut les enterrer ).Les derniers parcs utilisent le courant continu pour les raccordements, qui nécessitent des stations de conversion très onéreuses.

La préparation d’un projet d’éolien offshore inclut une longue et difficile phase d’études et de concertations dans le but d’assurer le respect des divers usages de la mer:

- Navigation maritime commerciale.

- Navigation aérienne ( les éoliennes de 8 MW atteignent plus de 200m ).

- Pêche professionnelle.

- Production d’électricité éolienne.

- Production d’électricité à partir de la houle et/ou des courants.

- Activités d’immersion et d’extraction de granulats.

- Protection de l’environnement et de la biodiversité.

- Réserves naturelles.

- Tourisme maritime et littoral.

- Protection des patrimoines littoraux.

- Aquaculture.

- Contrôle et gestion de la sécurité maritime.

Les enquêtes d’utilité publique montrent qu’il est pratiquement impossible de concilier ces intérêts très divers, parfois opposés, lorsque les projets concernent une implantation proche d’un littoral fortement peuplé et fréquenté par une activité maritime et touristique intenses, ce qui est le cas d’une grande partie du littoral français.

Le fort développement de l’éolien offshore ne peut donc s’envisager que dans des zones si possible neutres vis-à-vis des autres activités, et suffisamment éloignées des côtes.

Ce procédé de production d’électricité, qui semble aller de soi en raison de son rendement élevé par rapport à l’éolien terrestre, cumule en fait de nombreux inconvénients qui peuvent à terme compromettre son extension. Sa future part dans la production nationale d’électricité peut s’en trouver réduite très en dessous des prévisions stratégiques.

L’éolien terrestre n’a peut-être pas dit son dernier mot…

Partager cet article
Repost0
17 mai 2015 7 17 /05 /mai /2015 14:38

17 Mai 2015

Si le prototype de l’EPR de Flamanville arrive à son terme il aura coûté environ 12 Milliards. Une somme conséquente, mais qu’il y a lieu de replacer dans son contexte.

Le décret d’autorisation de construction a été signé le 11 Avril 2007, et les travaux ont débuté en Décembre de la même année. Il est construit sur la base de la technologie déjà éprouvée sur les réacteurs REP existants ( palier N4 ) dont la fiabilité a été démontrée par un service cumulé de 1700 années-réacteur sans accident majeur. Il intègre évidemment tous les progrès réalisés dans la sureté durant les dernières décennies et répond aux exigences post-Fukushima. Sa puissance nominale sera de 1 650 MW électriques, légèrement supérieure aux derniers réacteurs « classiques » mis en service en 1996/97 à Chooz , qui fournissent 1 450 MW électriques chacun.

Les deux réacteurs de Chooz correspondent à la génération REP-N4 et sont les précurseurs de l’EPR. Leur construction a également duré 12 ans, soit une durée équivalente à celle de l’EPR, qui devrait être mis en service en 2018. ( Etrange similitude entre les deux chantiers, dans la durée et dans l’ampleur des manifestations d’opposition ).

Ce n’est pas seulement la puissance qui distingue l’EPR de Flamanville des anciens modèles, c’est surtout la modernité de la conception axée sur la sureté de fonctionnement.

Avec un facteur de charge de 0,9 l’EPR produira annuellement 13 TWh. Le coût rapporté à la puissance nominale est de 7,2 Millions par MW. Ce réacteur est une « tête de série », et l’expérience ( de EDF) a montré que le coût des exemplaires suivants sera d’au moins 20% inférieur, soit 5,8 Millions par MW .

( Référence: http://www.senat.fr/rap/r11-667-1/r11-667-1_mono.html )

Voyons maintenant ce qu’il en serait si la même capacité de production était confiée à un parc éolien offshore.

L’éolien offshore est une industrie aujourd’hui bien établie. De nombreux parcs sont exploités en Europe du Nord et au Royaume Uni, fournissant des données statistiques fiables car basées sur l’expérience.

Pour les coûts de construction nous prendrons comme référence le programme de parc offshore de la baie de Saint-Brieuc qui sera équipé des machines M 5000-135 de AREVA, déjà utilisées ailleurs en Europe.

Le parc de la baie comprendra 100 machines de 5 MW, soit 500 MW nominal. Le montant de l’investissement, affiché dans la réponse à l’appel d’offre, est de 2 Milliards, soit 4 millions le MW nominal hors raccordements au réseau et hors moyens de relève de l’intermittence.

(Référence: http://www.eolienoffshoresaintbrieuc.com/fr/un-projet-industriel/le-coût-et-le-financement).

Avec ce type de matériel, pour produire annuellement la même énergie que l’EPR, soit 13 TWh, il faudrait installer une puissance nominale de 4,35 GW.

( L’EPR se « contente » de 1,65 GW car son facteur de charge est de 0,9 au lieu de 0,34 ).

Au prix de 4 Millions le MW nominal, la facture éolienne s’élèverait à 17,4 Milliards. A ce coût il faut bien sûr ajouter celui des raccordements au réseau et celui des unités de relève de l’intermittence, puisque le vent ne souffle pas régulièrement. Ces unités peuvent être soit des stations de stockage massif d’électricité, soit des unités de production à base de centrales à gaz, probablement un mix des deux. Le coût total, intégrant la part des moyens de relève de l’intermittence, ne serait pas inférieur à 20 Milliards, contre 12 Milliards « seulement » pour l’EPR.

Rappelons que les coûts en question sont extraits du rapport de la Cour de Comptes d’une part, et de la réponse de la Société AILES MARINES à l’appel d’offre de 2011 sur l’éolien offshore en côte atlantique d’autre part.

La simple comparaison des chiffres oblige à constater que le coût de l’éolien offshore est supérieur de 66% à celui de l’EPR. Du moins pour ce qui concerne le coût de construction des installations.

Par ailleurs, le parc offshore équivalent à l’EPR en production d’énergie comporterait 870 machines de 5 MW nominal. On pourrait réduire ce nombre en montant des machines de 8 MW, mais le coût ne serait pas diminué car ces machines sont fort coûteuses.

Cette comparaison des coûts de construction est instructive pour plusieurs raisons:

- Basée sur des chiffres officiels, elle démontre que malgré les dépassements de budget importants du chantier de l’EPR, celui-ci reste considérablement moins cher que son éventuel équivalent en éolien offshore.

- L’éolien offshore est une technologie chère, il faudra en tenir compte dans la stratégie de transition. D’autant plus que la durée de vie des éoliennes offshore est de trente ans seulement contre 60 voire plus pour une centrale nucléaire.

Le parc nucléaire français comprend 58 réacteurs, dont une vingtaine ne répondent plus aux normes de sécurité récentes et atteindront bientôt leur limite d’âge. C’est donc une puissance nominale de 20 GW qui devra être remplacée d’ici 2025 ( pour commencer ).

Si la solution de remplacement choisie est l’éolien offshore, il faudra construire des parcs à hauteur de 80 GW nominal, soit une facture de l’ordre de 300 Milliards, avec 10 000 ( Dix mille ) grosses machines de 8 MW.

Et ceci ne représente « que » 35% de la capacité actuelle du nucléaire.

Cette analyse, qui n’est que la compilation de chiffres officiels, ne doit pas faire oublier que le nucléaire, dans sa forme actuelle, reste une technologie détestable, pour plusieurs raisons:

- Le risque zéro n’existe pas, l’accident nucléaire majeur reste toujours possible. Les meilleures précautions ne peuvent que réduire la probabilité d’un accident, mais jamais l’annuler.

- Il n’existe pas de procédé satisfaisant pour le traitement et le stockage à long terme des déchets radioactifs.

- Le risque de dissémination et d’usage criminel est de plus en plus prégnant.

- Les sources de combustible Uranium ne sont pas inépuisables, et ne sont donc pas des sources durables.

- La dépendance aux approvisionnements du minerai de l’étranger sont contraires à l’esprit de l’indépendance énergétique.

- Le démantèlement des installations reste une opération difficile et dangereuse par le risque de dissémination. De plus son coût est très mal évalué aujourd’hui.

Malgré tous ces inconvénients, qui sont autant de menaces pour la sécurité publique, le nucléaire demeure attractif du strict point de vue financier, car les menaces en question n’ont jamais été évaluées en terme d’impact sur les bilans comptables, les seules évaluations disponibles étant largement sous-estimées.

De plus il serait probablement très difficile, voire même impossible selon certains, de faire accepter par les populations littorales et les professionnels de la mer l’implantation de dizaines de milliers d’éoliennes hautes comme 2/3 de tour Eiffel.

Notre société est donc placée devant un choix :

- Soit préserver l’environnement littoral en conservant une production électronucléaire importante.

- Soit engager un processus de sortie du nucléaire, en acceptant l’installation de plusieurs dizaines de milliers de grosses éoliennes le long du littoral.

- Soit accepter des restrictions drastiques de consommation électrique sur le réseau pour à la fois sortir du nucléaire et limiter l’invasion du littoral par l’éolien offshore.

Cette dernière solution est évidemment la plus écologique mais elle implique le développement du concept d’autoproduction, l’objectif étant de produire soi-même son électricité sans faire appel au réseau. On peut très bien imaginer des collectivités territoriales autonomes en énergie électrique, mettant en commun des moyens de production solaire, éolien, d’exploitation de la biomasse, de la géothermie, du petit hydroélectrique, soutenus par un programme de rénovation thermique des bâtiments et des installations de stockage de l’énergie.

Le passage d’une économie dispendieuse en énergie vers une économie de parcimonie est la condition à remplir pour se passer à la fois du nucléaire et de l’éolien offshore massif. Il appartient en grande partie au consommateur d’apporter la preuve de son adhésion à ce programme, en participant activement à la campagne d’économies d’énergie promue par le Gouvernement.

Et, comme dit l’autre, le reste vous sera donné par surcroît…

Partager cet article
Repost0
13 mai 2015 3 13 /05 /mai /2015 17:10

13 Mai 2015

La stratégie électronucléaire reste la pierre d’achoppement de la transition énergétique. Rien de significatif ne pourra être décidé sans d’abord statuer sérieusement sur le sort de cette technologie qui fournit aujourd’hui 75% de notre consommation électrique.

Le projet de Loi transition énergétique, adopté le 14 Octobre 2014 en première lecture par l’Assemblée Nationale, reprend l’essentiel des promesses du Gouvernement:

- Part du nucléaire dans la production électrique ramenée à 50% à l’horizon 2025.

- Puissance électronucléaire plafonnée à 63,2 GW.

Après examen par le Sénat, le projet a été modifié en première lecture par cette assemblée le 3 Mars 2015. Le projet est actuellement soumis à l’Assemblée Nationale pour seconde et dernière lecture avant adoption définitive ( Procédure accélérée).

Concernant le nucléaire, les modifications apportées par le Sénat portent essentiellement sur la suppression de l’échéance de 2025, la réduction à 50% de la part nucléaire est conservée mais reportée « à terme », ce qui en fait ne change pas grand-chose, puisque personne de sensé n’imaginait que l’on pouvait arrêter vingt réacteurs d’ici 2025 !

Remarquons au passage que fixer un quota de 50% sans fixer de référence peut réserver quelques surprises:

Si la consommation augmente, ce qui ressort de nombreuses prévisions en cas de reprise économique, la part du nucléaire peut se retrouver à 50% sans avoir à arrêter un seul réacteur !

Si au contraire la consommation diminue, comme souhaité dans le projet de transition énergétique, ce n’est pas vingt réacteurs qu’il faudrait arrêter d’ici 2025, mais trente voire davantage.

Le nombre de réacteurs dont l’arrêt doit être programmé se situe donc entre zéro et trente, selon l’évolution de la consommation, laquelle est évidemment imprévisible ! Ce n’est plus une stratégie, c’est du guignol.

On voit qu’il est absurde d’inscrire dans une loi un quota qui n’est pas rapporté à une quantité d’énergie de référence. Mais les sénateurs n’ont pas relevé cette absurdité qui pourtant saute aux yeux d’un lecteur, même non averti.

Il apparaît donc que cette Loi ne règlera en aucune manière le problème de la politique électronucléaire, et laissera la transition énergétique dans l’incertitude la plus totale. Ce qui était probablement le but recherché par les lobbies de l’Industrie de l’énergie, qui se retrouvent devant un boulevard pour imposer la stratégie de leur choix à des hommes politiques complètement dépassés par une situation à laquelle ils ne sont pas préparés.

Ne parle-t-on pas déjà dans les couloirs du château d’augmenter le plafond de la puissance électronucléaire à 64,85 GW ? Ceci permettrait de démarrer l’EPR de Flamanville sans avoir à arrêter aucun vieux réacteur.

De la belle ouvrage…

Partager cet article
Repost0
9 mai 2015 6 09 /05 /mai /2015 14:54

9 Mai 2015

La boîte de Pandore a donc été ouverte le mois dernier. On sait qu’en pareille circonstance il arrive fréquemment que la suite des évènements échappe à tout contrôle et conduise à une issue imprévisible.

Pourquoi tant d’histoires à propos d’un couvercle et d’un fond de cuve, et pas à propos de la cuve elle-même ? Eh bien parce que le couvercle et le fond sont les seules parties de la cuve fabriquées en France, le reste est fabriqué au japon par JSW ( Japan Steel Works) sous contrat d’industrialisation avec AREVA.

Creusot Forge, qui appartient à AREVA, ne possède pas (ou plus) le savoir-faire pour forger des pièces monoblocs aussi énormes que les viroles de cœur avec les raccordements des tuyaux. ( On assure cependant que pour les prochaines commandes d’EPR tout sera fait en France. Prenons-en acte). On s’occupe donc avec ce qu’on peut, c’est-à-dire le couvercle et le fond. Pour ce qui concerne d’éventuels défauts qui pourraient être présents dans le corps lui-même de la cuve, on est prié de s’adresser à JWS. C’est ce qu’on appelle une perte de compétence.

Ce fameux couvercle n’en est pas à son coup d’essai. Forgé en 2010, selon le planning de l’époque, il a frôlé la mise au rencart à cause d’un défaut au niveau des soudures des passages de tubes. Les tubes en question sont destinés au passage des commandes de grappes de combustible et de sondes diverses. On imagine que leur fixation doit être parfaite et les soudures exemptes du moindre défaut. Leur bonne étanchéité doit être assurée dans les conditions régnant dans la marmite: Température de 300 °C, pression de 155 kg, milieu corrosif, et flux de neutrons meurtrier, le tout pour une soixantaine d’année voire davantage. Or après inspection en 2011 il a été constaté un écart par rapport aux normes au niveau des soudures, qui a nécessité une reprise de l’ensemble des fixations afin d’obtenir l’autorisation de monter le couvercle.

Ce qui démontre au passage le sérieux des contrôles et la réactivité de l’industriel.

Le problème actuel, qui touche la matière même du couvercle et non plus le « beurrage » ou les soudures, pourrait nécessiter le remplacement de la pièce, qui est démontable faut-il le rappeler. Encore faudrait-il que le futur couvercle de remplacement soit exempt de défaut, ce qui implique de s’assurer préalablement de la bonne « qualité » des processus industriels de fabrication et de contrôle utilisés chez Creusot-Forge.

Pour cela il a été décidé de lancer une revue externe des processus de fabrication, l’expert désigné étant la société Lloyd’s Register Apave. Durée prévue de deux mois.

Le fond de la cuve par contre n’est pas démontable. La présence d’anomalies à ce niveau nécessiterait le remplacement de la cuve complète, ce qui représenterait un dépassement de budget considérable et un retard de plusieurs années qui pourrait remettre en question la poursuite du projet.

Cette histoire de chaudron cache en fait un problème de fond qui est celui de l’autorité de l’ASN et des limites de son pouvoir. Ce pouvoir est contesté par une partie des ingénieurs. André Pellen, Président du Collectif pour le Contrôle des Risques Radioactifs, ancien ingénieur d’exploitation du parc nucléaire EDF, a adressé à Pierre-Franck Chevet, président de l’ASN, une lettre ouverte dans laquelle il exprime un certain nombre de réserves qui mettent en cause l’organisme lui-même dans sa stratégie de communication, choisissant de mettre sur la place publique les éléments à charge d’un problème avant même qu’il soit instruit avec les parties intéressées.

La « guerre » entre les industriels du nucléaire et l’ASN en tant qu’autorité indépendante de par la Loi ne date pas du mois dernier. L’ASN est réputée être le garant de la sureté des installations nucléaires et à ce titre entre nécessairement en conflit avec les industriels.

Les industriels reprochent à l’ASN d’en demander toujours plus, et surtout de porter des jugements hâtifs non fondés sur des analyses contradictoires. Ils mettent en avant leur compétence en apportant la preuve de plus d’un demi-siècle d’exploitation d’un parc de plus de cinquante réacteurs sans accident important (1 700 années-réacteur cumulées).

Au-delà de la controverse technique il existe donc un conflit d’autorité entre les parties.

La nécessité de la transparence, voulue par la Loi, se traduit par une médiatisation des problèmes jugée prématurée par les industriels, voire même contraire à leurs intérêts commerciaux. La notion d’instrumentalisation a même été évoquée, eu égard à la grande sensibilité politique du nucléaire en cette période de transition énergétique. Ce problème hautement technique, qui aurait du être instruit par des spécialistes des deux parties, se trouve porté sur la place publique avant même que les experts aient pu intervenir et établir les éléments d’un dossier sur des bases scientifiques solides.

On imagine sans peine la satisfaction des anti nucléaires, qui n’ont pas manqué de saisir cette occasion pour « démontrer » l’échec d’une politique de « fuite en avant qui se révèle ruineuse et sans avenir ». La lettre ouverte de André Pellen peut être consultée ici: http://energethique.com/file/ARCEA/pdf/Pellen_ASN.pdf

Partager cet article
Repost0