Overblog Suivre ce blog
Administration Créer mon blog
12 juin 2015 5 12 /06 /juin /2015 11:48

12 Juin 2015

Les panneaux photovoltaïques intégrés aux toitures constituent une solution technique déplorable pour les raisons suivantes:

La production maximale d’un panneau est obtenue lorsque les rayons solaires sont perpendiculaires au plan du panneau, ce qui ne peut être réalisé qu’en orientant automatiquement le panneau en fonction de la course du Soleil ( Tracking solaire à deux axes, genre héliostat). Le toit d’un bâtiment étant évidemment fixe, la condition optimale ne sera jamais réalisée, sinon par hasard une fois par an ! Or dans nos régions tempérées la perte de production par rapport à l’optimal peut atteindre 45% voire plus.

Le photovoltaïque intégré au toit est ainsi la seule technologie dans laquelle un tel gâchis est toléré, et qui plus est financé par l’Etat qui achète l’électricité ainsi produite !

Mais ce n’est pas tout. Le matériau photovoltaïque est conçu pour absorber le maximum d’énergie solaire afin de délivrer le maximum de courant; il y a donc très peu d’énergie réfléchie. La transformation de l’énergie solaire en électricité s’effectue avec un rendement très faible, de l’ordre de 15% à 25 °C jonction pour les meilleurs panneaux. Le reste de l’énergie reçue est dissipée en chaleur dans le matériau et la température de jonction augmente considérablement si le panneau est mal refroidi, ce qui est le cas d’une installation intégrée au toit car la ventilation est très mauvaise, voire inexistante.

Le rendement R du matériau photovoltaïque décroît quand la température augmente, réduisant ainsi les performances. La perte de rendement est en moyenne de 0,4 % par °C :

R = Ro x 0,996 Exp ( dT)

Un rendement de 15% à 25°C se trouve réduit à 12,5% à 70°C jonction, et 11% à 90 °C, ce qui n’est pas rare en été.

Avec un panneau mal ventilé la température de jonction peut atteindre 100°C, et la limite opérationnelle de 90°C est dépassée. ( Ces conditions sont courantes en été dans le Sud de la France en absence de vent). Par ailleurs la durée de vie des panneaux est raccourcie pour ces températures élevées, ce que prouvent les essais de vieillissement accéléré.

Enfin les panneaux sur toitures sont en permanence exposées aux intempéries, et ne disposent d’aucun dispositif de protection.

Ajoutons l’inconvénient supplémentaire d’une installation qui nécessite des modifications de charpente et de couverture avec les problèmes d’étanchéité associés, et la complexité ( et le coût) des interventions en hauteur pour l’entretien et la maintenance.

Ce système est cependant largement répandu car il a la réputation ( jamais démontrée) d’être un placement financier sûr en raison du tarif de rachat garanti par le fournisseur d’énergie. Il s’agit alors d’exploiter un effet d’aubaine financière plutôt que de faire œuvre écologique.

La manière écologique de construire une installation solaire est celle qui vise à obtenir la production maximale de la surface consacrée au captage de l’énergie, tout en préservant la durée de vie du matériau. L’énergie solaire reçue sur une surface donnée doit être entièrement convertie en électricité et/ou en chaleur « noble ».

Les installations solaires « sérieuses » mettent en œuvre des procédés qui minimisent les inconvénients cités plus haut. Le minimum est de ménager la possibilité d’une bonne ventilation naturelle ou artificielle par circulation de fluide ( panneaux hybrides). La production est grandement améliorée par l’adjonction d’un système de tracking solaire.

Aujourd’hui les installations photovoltaïques domestiques sont conçues dans un but de profit financier, l’efficacité énergétique passant au second plan. Peut importe le rendement pourvu que le bilan financier global soit positif grâce au prix de rachat avantageux.

Demain l’autosuffisance énergétique sera recherchée, il faudra justifier d’un minimum d’efficacité énergétique en affichant une production d’électricité et/ou de chaleur respectant un seuil d’équivalent kWh annuels par m2 de sol occupé. Vis-à-vis de l’énergie solaire la ressource est constituée par des m2 disponibles. Leur nombre étant limité, leur utilisation devra être optimale.

Aujourd’hui le prix de l’électricité de réseau au tarif réglementé est l’un des plus bas d’Europe. Demain cette énergie devra être vendue à son prix réel, c’est-à-dire pour l’électricité deux ou trois fois le prix actuel. Rechercher l’autosuffisance énergétique ne sera alors plus seulement un acte écologique mais une démarche de saine gestion, car le prix des installations photovoltaïques ne peut que baisser dans l’avenir. Il sera alors important de tirer le maximum de cette technologie car les mètres carrés disponibles sont limités.

Une alternative aux classiques panneaux intégrés aux toitures est proposée par une société Autrichienne ( Encolution) dont les produits sont distribués en exclusivité par EDF-ENR, il s’agit du concept Smart-Flower.

Le « Smart Flower » est un dispositif autonome plug and play qui comporte 12 panneaux en forme de pétales de fleur disposés autour d’un axe qui leur permet de se déplier à la façon d’un éventail. Une fois déplié l’ensemble présente une surface circulaire de 4,80 m de diamètre pour une surface active de 18 m2 environ pour une puissance de 2,7 kWc. L’axe de la « fleur » est fixé au sommet d’un pilier de 3,40 m de hauteur et peut être orienté ( motorisé) pour maintenir la surface des « pétales » perpendiculaire aux rayons solaires. En cas de nécessité les pétales se replient et se placent automatiquement dans un coffre abri.

Cette disposition supprime donc tous les inconvénients des panneaux fixes sur toitures et présente une esthétique plus acceptable. De plus l’entretien et la maintenance sont facilités par un dispositif automatique de nettoyage. La pose est simplifiée puisque la machine est livrée complète incluant l’onduleur et qu’il suffit de la fixer au sol ( Un petit socle en béton et quatre boulons) et de la raccorder à l’installation domestique.

En cas de déménagement l’appareil se transporte aisément.

Pour une puissance crête comparable à celle d’une installation intégrée en toiture, la production est supérieure de 40% grâce au tracking solaire et à un meilleur refroidissement des panneaux.

Il s’agit d’un exemple intéressant de ce qu’il est possible de proposer en relève ou en complément des solutions classiques intégrées aux toitures.

Une autre solution permettant d’améliorer significativement le rendement énergétique consiste à utiliser des panneaux hybrides. Ces panneaux intègrent une surface photovoltaïque refroidie par la circulation d’un fluide caloporteur qui recueille la chaleur normalement perdue dans l’Atmosphère. Cette chaleur est transférée à un ballon pour usages ECS ou chauffage.

De plus la production des panneaux PV est améliorée grâce au contrôle de la température des cellules par le fluide de refroidissement. Le rendement énergétique global de cette cogénération atteint plus de 60% contre 12 à 13% pour un panneau classique bien souvent surchauffé.

Nul doute que ces solutions, et d’autres, remplaceront dans l’avenir les solutions actuelles peu efficaces énergétiquement.

Repost 0
9 juin 2015 2 09 /06 /juin /2015 15:38

9 Juin 2015

La France émet bon an mal an 500 millions de tonnes eq CO2.

Ces émissions sont dues pour la plupart (95%) à l’exploitation des énergies fossiles, Pétrole, Charbon, Gaz naturel. Les données suivantes sont extraites des statistiques du Ministère de l’Ecologie, du Développement durable et de l’Energie, et concernent l’année 2012.

Emissions de GES en Mt eq CO2 :

- Transports: 136,4 Mt 26,6 %

- Résidentiel/Tertiaire: 115 Mt 22,4 %

- Industries manufacturières: 86,2 Mt 16,8 %

- Industries de l’Energie: 57,5 M t 11,2 %

- Agriculture: 105 Mt 20,5 %

- Traitement des déchets: 12,6 Mt 2,5 %

Pour un total de 512,7 Mt.

Les émissions dues aux transports sont à 90% imputables au trafic routier, le reste au trafic aérien, maritime et fluvial. Dans le trafic routier, la part des voitures particulières est de 57%, soit 70 Mt eq CO2, ou encore 13,6 % du total des émissions de GES.

Voici le détail reconstitué:

Le parc automobile français compte 32 millions de véhicules particuliers, qui consomment annuellement 29 Milliards de litres de carburant ( 64% gazole et 36% essence), soit environ 875 litres par voiture. La consommation moyenne du parc est de 7 L/100 km, pour une distance moyenne parcourue de 12 500 km/an.

La combustion d’un litre d’essence dégage 2,28 kg de CO2, celle d’un litre de gazole en dégage 2,6 . L’émission moyenne de nos voitures est donc de 168 g/km, soit 70,2 millions de tonnes de CO2 par an.

Grâce aux normes européennes, de plus en plus sévères, la consommation des voitures neuves se réduit d’année en année, et donc aussi leurs émissions. Un gain de 1 L/100 km se traduit par une baisse des émissions de 22,8 g CO2/km ( ou 26 g s’il s’agit de gazole).

L’âge moyen de nos voitures est de 8,5 ans. Le renouvellement du parc s’effectue en 15 ans approximativement. En quinze ans, grâce à l’application des normes européennes et à un réajustement des gammes vers des véhicules mieux adaptés à l’usage réel, la consommation moyenne devrait normalement descendre à 5 L/100, et les émissions moyennes passer de 168 g à 114 g CO2/km ( 50 Mt au lieu de 70 Mt).

Dans cette période on peut attendre une amélioration supplémentaire substantielle grâce à deux phénomènes:

Le développement de la voiture électrique d’une part, sous ses différentes formes (Tout électrique, hybride rechargeable, pile à Hydrogène), à condition que l’électricité et/ou l’Hydrogène soit produits à partir de sources renouvelables et/ou décarbonées.

Rappelons ici que l’on peut déjà acheter de l’électricité verte certifiée auprès de fournisseurs qui approvisionnent des quantités équivalentes auprès de producteurs d’énergies renouvelables.

Pour l’Hydrogène il faudra attendre encore un peu, mais çà vient puisque ce gaz servira de véhicule de stockage d’énergie électrique grâce à l’électrolyse. Il sera alors utilisé dans le réseau domestique en mélange, ou distribué pur pour les transports. Des véhicules alimentés en Hydrogène circulent déjà.

En quinze ans le parc automobile pourrait être électrifié à 20% à condition que les pouvoirs publics encouragent concrètement l’installation des bornes de rechargement rapide des batteries, et définissent une politique de tarification claire et pérenne pour l’électricité de recharge, notamment l’éventuelle taxation. Faute de quoi l’absence de visibilité à long terme dissuadera l’usager d’abandonner un système qui marche pour une solution incertaine.

La deuxième source d’optimisme est la perspective de croissance de la part des biocarburants de troisième génération, émettant du CO2 recyclable et évitant les changement d’affectation des sols. Là aussi la balle est dans le camp des pouvoirs publics auxquels il appartient de promouvoir la production de ce nouveau type de carburants.

On peut donc considérer que, dès à présent, l’Automobile est un secteur qui représente moins de 14% des émissions de GES, et que grâce aux normes européennes et à l’effort engagé par les constructeurs, les mesures sont d’ores et déjà prises pour réduire de 50% au moins ces émissions à l’échéance de 2030 par le mécanisme du renouvellement naturel du parc.

Au-delà de 2030 la généralisation des biocarburants et de la voiture électrique conduira à l’élimination du problème du CO2, au moins dans ce secteur d’activité et à condition que les pouvoirs publics prennent les choses en mains. Ainsi, du point de vue des émissions de CO2, l’Automobile sera le premier secteur d’activité ayant satisfait aux exigences de la transition énergétique.

Repost 0
4 juin 2015 4 04 /06 /juin /2015 11:54

4 Juin 2015

La chasse au CO2 bat son plein; désormais la moindre de nos actions est jugée non pas en termes de services rendus mais en fonction de son empreinte Carbone.

Parmi les objets de la civilisation qui sont visés, l’Automobile constitue un gibier de choix. Il faut dire que l’homme moderne a fait de la bagnole une prothèse désormais indispensable, ou du moins ressentie comme telle. C’est ainsi que chaque année en France 29 Milliards de litres de carburants sont brûlés sur l’Autel du progrès ( essence + diesel). Les lois de la combustion étant non négociables, chaque litre de carburant correctement brûlé émet une quantité de CO2 qui ne dépend que de la composition dudit carburant. La seule échappatoire est la réduction de la consommation.

La combustion complète d’un litre de supercarburant produit, entre autres, 2,28 kg de CO2. Un litre de gazole en fournit davantage, 2,6 kg; mais comme la consommation d’un diesel est environ les 2/3 de celle d’un essence, le bilan global est meilleur. Du strict point de vue des émissions de CO2, il vaut donc mieux rouler au diesel.

Ce constat est à nuancer car la nouvelle génération de moteurs à essence affiche une efficacité énergétique très nettement améliorée et l’écart avec le diesel se réduit fortement. La question de savoir si ces nouveaux moteurs polluent davantage que les anciens et seraient aussi nocifs voire plus que les diesels reste ouverte. On en parlera encore longtemps, notamment pour savoir à qui attribuer la fameuse pastille verte sur laquelle le Gouvernement compte pour afficher sa position écologique lors de la conférence de Décembre sur le climat.

De belles joutes en perspective…

Bon an mal an environ 70 millions de tonnes de CO2 sont émises par nos voitures (Essence + Diesel) . Il est donc raisonnable de chercher à réduire ce montant. Le CO2 n’étant pas un gaz polluant, il n’est donc pas sanctionné par la norme Euro anti pollution, qui se contente de le mesurer. Par contre il entre dans le cadre du programme européen de réduction globale des émissions de CO2.

Pour faire simple, les Gouvernements et les constructeurs sont convenus d’un objectif de limite des émissions moyennes de CO2 par kilomètre pour les véhicules neufs, aujourd’hui c’est 100 g . La performance actuelle du parc européen est de 127 g CO2/ km ( Sur les véhicules neufs). Il s’agit d’une moyenne dans laquelle les performances des petites voitures compensent les gaspillages des gros 4x4.

( Pas très moral, mais statistiquement efficace).

La tendance est d’abaisser l’objectif limite à 95g, voire même 90 g dans le futur, si Angela Merkel ne proteste pas trop fort car les grosses bagnoles d’outre-Rhin sont défavorisées. En effet, la quantité de CO2 émise étant peu ou prou proportionnelle à la consommation, et celle-ci étant corrélée à la grosseur du bahut et à la puissance de son moteur, les constructeurs de grosses berlines sont à la peine.

De plus le prochain remplacement de la norme antipollution NEDC par la norme WLTP moins laxiste rendra le challenge encore plus difficile.

La course aux 100 g CO2/km, saint graal de la transition énergétique, impose aux constructeurs des efforts de recherche et une remise en question sur d’une part la technologie ( Moteurs, réduction des frottements, pneumatiques, aérodynamique, etc…) et d’autre part sur le positionnent des gammes sur le marché ( Moins de gros bahuts, pour davantage de petits et moyens modèles).

Les lois de la thermodynamiques étant elles aussi non négociables, il sera extrêmement difficile de descendre en dessous de 80 g CO2/km avec un moteur thermique, puisque cela suppose une consommation inférieure à 3,5 L/100, possible seulement si le véhicule est très allégé et les performances très dégradées, ce qui ne correspond pas au marché (Qui achèterait aujourd’hui une voiture ayant les performances d’une 2 CV ?)

Bien sûr le passage à l’électrique est la solution idéale, mais encore inaccessible sauf dans certaines niches très minoritaires, à cause de l’autonomie encore très insuffisante.

Remarquons au passage que le problème des émissions de CO2 disparaîtra avec l’utilisation des biocarburants puisque le CO2 émis sera recyclable. Il restera le problème de la pollution, que les solutions actuelles pourront résoudre.

Il n’en demeure pas moins que l’objectif de réduction des consommations restera d’actualité, cette fois pour une question de coût les carburants bio.

Pour que les émissions de CO2 d’une voiture à essence soient inférieures à 100 g par km, il faut donc que sa consommation soit inférieure à 4,4 L/100 km. ( Petite règle de trois valable aussi pour le diesel avec des nuances). Et bien entendu il faut également que la combustion soit aussi complète que possible pour éviter l’émission d’hydrocarbures imbrûlés, vivement déconseillée, cette fois par la norme sur la pollution automobile ( Euro 6).

Les émissions de CO2 des véhicules neufs, même si elles ne sont pas sanctionnées par la norme Euro antipollution, sont mesurées au cours du test d’homologation, qui mesure également la consommation et les polluants. Les résultats figurent au catalogue des constructeurs et donc sont portés à la connaissance des futurs acheteurs pour lesquels ils constituent un argument en faveur ou en défaveur du modèle convoité. Une lettre est attribuée au modèle, le A étant bien sûr le top du top, du moins pour le CO2 car pour les performances c’est une autre histoire…On ne peut pas avoir le beurre et l’argent du beurre.

Même si ce test n’est pas représentatif des performances réelles du véhicule, il est donc primordial pour un constructeur d’y obtenir de bons résultats, peu importe ce qui se passera ensuite en utilisation réelle.

Oui c’est idiot, mais c’est ainsi.

( On n’a encore jamais vu, du moins en France, des groupes d’usagers entamer un action en justice contre un constructeur au motif que ses voitures consomment 20% de plus que les valeurs indiquées dans les prospectus).

Une autre norme, WLTP, plus réaliste, est en cours de préparation. Elle devrait être applicable à partir de 2017 . Elle sera moins laxiste et donnera une meilleure image du comportement réel du véhicule, du moins on peut l’espérer.

On peut atteindre le seuil de 100 g CO2/100 km( et même descendre en-dessous) en conservant une technologie classique à laquelle on applique le « downsizing », Par exemple en réduisant la cylindrée du moteur et le poids de la voiture. Mais sans précautions particulières la puissance obtenue sera faible et le véhicule peu attractif.

Pour être efficace, le downsizing doit être accompagné d’un travail sur l’alimentation du moteur (Injection directe, turbo), sur les chambres et la distribution, et sur la gestion (cartographie), sur les frottements, sur le graissage, éventuellement utiliser trois cylindres au lieu de quatre.

L’équation est simple: il s’agit d’obtenir de bons résultats en consommation et émissions de CO2 durant les tests d’homologation, et un comportement brillant en utilisation réelle, là où personne ne viendra mesurer la consommation ni les émissions.

La solution idéale dépourvue d’émission de CO2 est le tout électrique, hélas réservé aujourd’hui à des utilisations spécifiques en raison de son autonomie insuffisante. Et encore faut-il que l’électricité soit produite à partir de sources renouvelables et/ou à carbone recyclable.

Mais l’électricité a un rôle à jouer dans la voiture à moteur thermique pour réduire significativement les émissions de CO2 dans le cadre du test d’homologation, et pour satisfaire à l’obligation du « zéro émission » qui menace de s’installer dans certaines agglomérations.

On entre alors dans le domaine de l’hybride, domaine mystérieux par sa complexité qui cache parfois des pièges.

Les voitures hybrides utilisent une technologie relativement complexe, en sorte que l’usager moyen, déjà peu familier des arcanes de la motorisation thermique classique, se trouve démuni d’éléments de jugement sur la cuisine électrico-thermo-mécanique mijotée sous les capots des modèles hybrides proposés sur le marché.

Le terme même d’hybride est utilisé pour désigner toutes sortes de véhicules très différents combinant un moteur thermique et un ou plusieurs moteurs électriques avec une batterie Li-Ion ou NiMH de capacité variable donnant à l’ensemble des performances elles-mêmes très différentes.

Les moteurs peuvent être couplés, ou non, pour augmenter momentanément la puissance. La présence ou non d’un prolongateur d’autonomie, d’un récupérateur d’énergie au freinage, d’une prise de rechargement de la batterie, sont des éléments importants .

Les constructeurs, profitant d’une part de cette complexité technologique impénétrable par le client moyen, et d’autre part du laxisme des normes officielles de mesure, affichent des performances de consommation susceptibles de séduire un client non prévenu.

On trouve sur le marché deux grandes familles appartenant au genre hybride, qui se distinguent par la philosophie qui a présidé à leur design.

Le premier concept vise une voiture multi usages capable d’une autonomie comparable à celle d’une grande routière à moteur thermique, et susceptible de rouler électrique sur au moins cinquante kilomètres voire plus avec possibilité de rechargement sur le secteur.

Un exemple est l’OPEL Ampera qui est équipée d’un moteur électrique de 110 kW (!) et d’un moteur thermique de 63 kW. La traction est électrique, le moteur thermique est utilisé en prolongateur d’autonomie pour recharger une batterie de 16 kWh. L’autonomie électrique est de 50 à 80 km, ce qui permet largement une utilisation journalière, l’assurance de traverser une agglomération en mode électrique sans émission de CO2, et d’afficher au test d’homologation des émissions de CO2 quasiment nulles ( 27 g CO2/km).

La batterie est rechargeable sur le secteur ou à l’aide du moteur thermique. La consommation d’essence est nulle en mode tout électrique, elle est celle du moteur thermique lorsque la batterie est déchargée. Elle est affichée à 1,2 L/100 au test d’homologation qui est un mix de mode électrique et thermique.

Sur un long parcours routier, donc en mode thermique seul, la consommation est plutôt de 6,5 L, soit une consommation « normale » pour un moteur thermique de 1,4 L et 86 CV, vu le poids de la berline.

Le prix est à la hauteur des prestations: 40 000 euros.

Le second concept, qui vise le marché des véhicules entre 15 et 20 000 euros, donc doit faire appel à des solutions plus économiques. L’économie porte essentiellement sur la partie électrique, qui constitue le surcoût par rapport à un véhicule classique.

Le moteur électrique sera moins puissant, 50 à 60 kW suffiront, et surtout la batterie sera beaucoup plus « légère », 2 à 4 kWh et la technologie pourra être NiMH plutôt que Lithium-ion très onéreuse.

Le moteur thermique associé sera également de puissance modeste. Evidemment l’autonomie en mode électrique sera très faible, de l’ordre de deux kilomètres, presque symbolique, mais suffisant pour donner des résultats intéressants au test d’homologation.Il sera facile d’obtenir moins de 100 g CO2/km.

Un exemple est la TOYOTA Yaris Hybrid. Elle contient un moteur thermique de puissance très modeste (54 kW) et un moteur électrique de 59 kW. Un accouplement mécanique permet de fonctionner sur l’un des deux moteurs au choix, ou sur les deux ensemble pour obtenir une forte puissance.

On voit la grosse ficelle: Le « petit » moteur thermique de 54 kW permet de revendiquer une faible consommation d’essence sur route à condition d’avoir le pied léger: 3,8 L aux cent selon la norme NEDC. La possibilité de coupler les deux moteurs permet d’afficher une puissance max de 100 CV , très attrayante dans les encarts publicitaires.

Ce que le client intéressé ne réalise pas c’est que cette puissance de 100 CV n’est disponible que pendant un très court moment, juste le temps de décharger la petite batterie LiMh ( qui pèse 80 kg quand même).

Le dépliant souligne l’intérêt de rouler électrique en ville. Mais là encore il faudra déchanter car la petite batterie ne lui permettra pas d’aller au-delà de 2 (deux) kilomètres à 50 km/h, ensuite il faudra continuer sur le moteur thermique.

Partant du pont de Saint-Cloud pour aller au centre de Paris, la batterie sera vide avant d’arriver à Billancourt!

Au-delà de cette distance le moteur thermique prend le relais soit pour propulser, soit pour recharger la batterie, ou les deux. Quant aux émissions de CO2 elles descendent à 80 g /km seulement au cours du test d’homologation.

Toutes les voitures hybrides se situent dans l’une ou l’autre de ces familles.

Le poids de la règlementation antipollution d’une part (Normes Euro 6 et la suite), et les contraintes apportées par la création de zones de restriction de circulation d’autre part, entraîneront à terme un bouleversement de la composition du parc automobile.

Il s’y ajoutera une plus grande diversification technologique liée au foisonnement de solutions électriques et ou hybrides ( EV, HEV, PHEV, Full Hybride, Micro Hybride, etc…).

Il s’y ajoutera également une composante sociale liée à l’aspect financier de cette mutation, qui ne pourra être suivie que par la classe aisée dans un premier temps. Aujourd’hui les deux tiers des transactions automobiles portent sur des véhicules d’occasion. Ce marché sera bouleversé par la mise au rebut rapide de véhicules qui, autrefois, auraient eu une seconde vie entre les mains d’usagers peu fortunés.

Le Législateur devra tenir compte de ce problème pour éviter l’émergence d’un pôle de discrimination sociale préjudiciable à l’ordre public.

Repost 0
31 mai 2015 7 31 /05 /mai /2015 15:07

31 Mai 2015

Les préoccupations des scientifiques concernant le changement climatique ne datent pas d’hier.

Le GIEC , chargé au plan international politique de préciser le phénomène et d’en déterminer les causes et les conséquences, a été créé en 1988. Dès l’origine le rôle de l’accroissement du taux atmosphérique de CO2 a été mis en évidence et l’implication des activités humaines dans cet accroissement a été démontré.

Près de trois décennies se sont donc écoulées depuis la mise en alerte des gouvernements de la Planète sur le risque de catastrophe climatique lié à l’utilisation abusive des ressources énergétiques fossiles.

Que s’est-il passé depuis ?

En 1990 la production mondiale d’énergie primaire était de 8 800 Mtep, dont 81% de fossiles ( Charbon, Gaz naturel, Pétrole).

En 2012 elle a atteint 13 400 Mtep, soit + 52%, avec toujours 81% d’énergie fossile.

La tendance est toujours à l’accroissement au taux de 2,3% par an, et la part des fossiles demeure au même niveau.

En presque trois décennies il ne s’est donc strictement rien passé, et le taux de CO2 atmosphérique continue imperturbablement de monter vers les sommets, les 400 ppm ayant été dépassés en 2014.

Le taux annuel d’augmentation de 2,3% de production d’énergie primaire, remarquablement constant dans la durée, prouve la totale inefficacité des avertissements de la communauté scientifique. On peut donc légitimement se demander si ce grand battage Scientifico-Politico-Médiatique aura, un jour, une influence quelconque sur le taux de CO2.

Dans cette grande mise en scène nous avons d’une part un consensus de scientifiques qui prédit une catastrophe climatique si les émissions de CO2 ne sont pas réduites drastiquement, et d’autre part des Etats et des Industriels qui regardent ailleurs et continuent à extraire et exploiter les produits énergétiques fossiles fortement émetteurs du même CO2.

Comme il fallait d’ailleurs s’y attendre, le pétrole, le gaz, le charbon, seront fort probablement brûlés jusqu’à la dernière goutte et peut-être au-delà si l’existence de sources naturelles d’hydrocarbures abiotiques sont confirmées.

Certes, certains Etats manifestent une volonté d’assainir leurs mœurs énergétiques, en améliorant leur efficacité énergétique d’une part, et en développant les sources d’énergie propres et durables d’autre part, mais le bilan global de la Planète n’en est pas affecté, comme le montrent les chiffres ci-dessus. Les améliorations constatées ici et là sont contrebalancées par l’accroissement de la demande toujours servie à 80% par les fossiles.

Le Dioxyde de Carbone est un gaz persistant dans l’Atmosphère, on parle de plusieurs centaines d’années, et encore plus longtemps dans les océans qui subissent une acidification préjudiciable à la vie. Même si les émissions anthropiques sont maîtrisées un jour, ce qui ne semble pas devoir se produire de sitôt, la concentration de dioxyde de Carbone ne retombera pas à sa valeur d’avant l’ère industrielle avant un siècle ou deux.

Comme le fait remarquer le Secrétaire Général de l’OMM Michel Jarraud: « Les lois de la Physique ne sont pas négociables ».

Nous devons donc probablement nous attendre à affronter la kyrielle des calamités annoncées par le GIEC:

- Augmentation de la température moyenne de la basse Atmosphère de 4 à 6 °C d’ici la fin de ce siècle, et combien au-delà ?

- Augmentation du niveau des océans, déjà 30 cm durant le XXè siècle, combien en 2 100 et après ?

- Acidification des océans.

- Augmentation du nombre et de la puissance des évènements climatiques.

- Pénurie sur la ressource en eau douce.

- Extension des zones désertiques.

- Etc… ( Lire le rapport du GIEC).

Avec le cortège des conséquences humanitaires que l’on peu imaginer.

La COP 21 sera certainement l’occasion pour les pays développés de se féliciter mutuellement des progrès accomplis vers une transition énergétique nous garantissant un avenir radieux. De nombreuses réalisations seront mises en avant, on parlera éolien offshore, économies d’énergie, voiture électrique, biocarburants, transports collectifs et même peut-être de nucléaire propre. La France mettra en avant son savoir faire qui lui permet de réduire sa part de nucléaire sans fermer un seul réacteur. L’Allemagne démontrera qu’elle réduit son empreinte carbone en augmentant l’exploitation du lignite. Les autres expliqueront pourquoi ils ont construit des éoliennes sans prévoir le moyen de stocker l’électricité en période creuse.

Des objectifs ambitieux seront fixés et des milliards seront brandis, prouvant la bonne volonté des uns et des autres. Les participants se quitteront en ayant conscience d’avoir donné au monde les bonnes clés pour survivre.

Et puis les choses continueront leur train.

Au fait, à propos de train, la SNCF envisage de remplacer certaine liaisons ferroviaires par des liaisons routières, lesquelles seront desservies par des autocar à moteur Diesel.

Vive la COP 21...

Repost 0
22 mai 2015 5 22 /05 /mai /2015 14:45

22 Mai 2015

Nous avons vu précédemment ( Article du 17 Mai ) que l’EPR aura une capacité de production annuelle de 13 TWh.

Pour lui substituer un parc éolien offshore de production équivalente, la puissance nominale cumulée des machines devraient être de 4 370 MW. ( sur la base d’un facteur de charge de 0,34 qui est celui constaté sur les parcs offshore existants en Mer du Nord).

Le nec-plus-ultra de cette technologie permet ( permettra) de construire des machines de 8 MW (nominal). Il en faudrait donc 546 pour produire annuellement autant qu’un seul EPR.

Aujourd’hui sont exploitées des machines de 5 MW ( Europe du Nord). Hormis le coût, dont nous avons déjà évoqué l’énormité, ces machines occuperont beaucoup de place. Selon les standards observés en Europe du Nord, les machines sont écartées de 500m en largeur et 800m en profondeur ( par rapport au lit moyen du vent), soit une surface de 250 km2 ( 30 km x 8 km ) pour notre exemple de 546 machines.

Un tel parc couvrirait largement la totalité de la baie du Mont Saint-Michel !

Nous avons vu également que, dans une première étape du retrait du nucléaire, il faudrait arrêter une vingtaine de réacteurs anciens. Leur remplacement par des fermes éoliennes offshore conduirait à installer douze parcs de 546 machines chacun. Ce n’est donc plus 30 km de littoral qui seraient « occupés », mais bien 360 km.

Et pour une production annuelle qui ne dépasserait pas 15% de notre consommation électrique interne.

Cette simulation montre à l’évidence que l’avenir de l’éolien offshore n’est pas dans l’invasion du littoral par un « mur de l’Atlantique » qui perturberait de manière intolérable la vie des professionnels de la mer et l’attrait touristique de centaines de kilomètres d’un littoral qui contribue majoritairement dans le budget du pays.

Mais alors, que faire ?

La seule solution consiste à repousser ces parcs encombrants en haute mer, dans des zones hors des routes maritimes évidemment, ce qui implique des installations flottantes, dépourvues d’ancrage matériel, positionnées de manière géostationnaire par un système de navigation automatique. ( Au-delà d’une profondeur de 50m il devient très difficile d’envisager un ancrage sur le fond).

Cette nécessaire mutation n’a bien sûr pas échappé aux industriels de la chose, qui ont dans leurs cartons, voire même déjà in situ en mer, des « plateformes » éoliennes flottantes en cours de mise au point.

Aujourd’hui il n’existe encore en Europe aucun parc industriel éolien équipé de machines flottantes, seuls quelques démonstrateurs sont en cours d’évaluation. En France, la Société NENUPHAR expérimente un prototype d’éolienne flottante à axe vertical, qui fait partie d’un projet ( VERTIMED) d’une ferme offshore comportant 13 machines « Vertiwind » de 2,3 MW pour une puissance totale installée de 30 MW. Le calendrier prévoit la mise en service en 2018. Les partenaires du projet sont EDF-EN, AREVA et TECHNIP. Le coût est évalué à 130 Millions, soit 4,3 Millions par MW. Cette activité, qui fait partie du projet Européen INFLOW , est dotée d’un financement Européen participatif de 35 Millions d’euros dans le cadre du dispositif NER 300.

Cette technologie est fort onéreuse, mais probablement incontournable à terme si les besoins électriques restent importants et dans l’hypothèse d’un nucléaire en forte baisse, et d’énergie fossile sérieusement remise en question.

Un problème est d’installer des éoliennes flottantes à positionnement automatique, un autre problème est d’acheminer le courant produit vers la terre. La profondeur, la houle, la nécessité d’enterrer les câbles, la distance à la côte, constituent autant d’obstacles et de sources d’accroissement des coûts.

Une autre solution consisterait à transformer sur place l’électricité produite en Hydrogène par électrolyse de l’eau de mer, et transporter ce gaz par gazoducs ou navires gaziers.

Nos voisins Allemands ont commencé à développer l’éolien offshore il y a plus de dix ans. Leurs réalisations constituent donc un exemple de ce que l’on peut faire, et éventuellement ne pas faire. L’exiguïté de leur littoral en mer du Nord, l’impossibilité d’envahir les accès maritimes de Bremerhaven et Willelmshaven, et la nécessité de préserver l’environnement les a contraints de repousser les parcs éoliens le plus loin possible, jusqu’à 100 km de la terre pour certains.

La « baie Allemande » n’est pas large, et les routes maritimes d’accès doivent être préservées. Bien que le littoral de Bremerhaven ne reçoive pas la fréquentation touristique de l’Ile de Ré, l’environnement doit y être protégé. Le littoral allemand de la mer Baltique sera également mis à contribution pour l’extension des zones éoliennes.

Actuellement les parcs allemands de la Mer du Nord raccordés ou en passe de l’être en 2015 représentent une puissance nominale d’environ 3000 MW. Cette puissance est assurée par 600 machines de 5 MW. ( Les nouvelles machines de 8 MW ne sont pas encore en service).

La production de cet ensemble ne représente environ que 68 % de celle d’un seul réacteur EPR. La surface maritime occupée est de l’ordre de 350 km2. La profondeur de la Mer du Nord est faible, à 100 km de la terre les fonds ne dépassent pas 40 m, permettant encore l’ancrage des machines.

L’extension des parcs est donc relativement aisée, sauf en matière de transport de l’électricité, qui constitue un problème à la fois technique et de coût ( pour éviter la destruction des câbles par les engins de pêche, il faut les enterrer ).Les derniers parcs utilisent le courant continu pour les raccordements, qui nécessitent des stations de conversion très onéreuses.

La préparation d’un projet d’éolien offshore inclut une longue et difficile phase d’études et de concertations dans le but d’assurer le respect des divers usages de la mer:

- Navigation maritime commerciale.

- Navigation aérienne ( les éoliennes de 8 MW atteignent plus de 200m ).

- Pêche professionnelle.

- Production d’électricité éolienne.

- Production d’électricité à partir de la houle et/ou des courants.

- Activités d’immersion et d’extraction de granulats.

- Protection de l’environnement et de la biodiversité.

- Réserves naturelles.

- Tourisme maritime et littoral.

- Protection des patrimoines littoraux.

- Aquaculture.

- Contrôle et gestion de la sécurité maritime.

Les enquêtes d’utilité publique montrent qu’il est pratiquement impossible de concilier ces intérêts très divers, parfois opposés, lorsque les projets concernent une implantation proche d’un littoral fortement peuplé et fréquenté par une activité maritime et touristique intenses, ce qui est le cas d’une grande partie du littoral français.

Le fort développement de l’éolien offshore ne peut donc s’envisager que dans des zones si possible neutres vis-à-vis des autres activités, et suffisamment éloignées des côtes.

Ce procédé de production d’électricité, qui semble aller de soi en raison de son rendement élevé par rapport à l’éolien terrestre, cumule en fait de nombreux inconvénients qui peuvent à terme compromettre son extension. Sa future part dans la production nationale d’électricité peut s’en trouver réduite très en dessous des prévisions stratégiques.

L’éolien terrestre n’a peut-être pas dit son dernier mot…

Repost 0
17 mai 2015 7 17 /05 /mai /2015 15:38

17 Mai 2015

Si le prototype de l’EPR de Flamanville arrive à son terme il aura coûté environ 12 Milliards. Une somme conséquente, mais qu’il y a lieu de replacer dans son contexte.

Le décret d’autorisation de construction a été signé le 11 Avril 2007, et les travaux ont débuté en Décembre de la même année. Il est construit sur la base de la technologie déjà éprouvée sur les réacteurs REP existants ( palier N4 ) dont la fiabilité a été démontrée par un service cumulé de 1700 années-réacteur sans accident majeur. Il intègre évidemment tous les progrès réalisés dans la sureté durant les dernières décennies et répond aux exigences post-Fukushima. Sa puissance nominale sera de 1 650 MW électriques, légèrement supérieure aux derniers réacteurs « classiques » mis en service en 1996/97 à Chooz , qui fournissent 1 450 MW électriques chacun.

Les deux réacteurs de Chooz correspondent à la génération REP-N4 et sont les précurseurs de l’EPR. Leur construction a également duré 12 ans, soit une durée équivalente à celle de l’EPR, qui devrait être mis en service en 2018. ( Etrange similitude entre les deux chantiers, dans la durée et dans l’ampleur des manifestations d’opposition ).

Ce n’est pas seulement la puissance qui distingue l’EPR de Flamanville des anciens modèles, c’est surtout la modernité de la conception axée sur la sureté de fonctionnement.

Avec un facteur de charge de 0,9 l’EPR produira annuellement 13 TWh. Le coût rapporté à la puissance nominale est de 7,2 Millions par MW. Ce réacteur est une « tête de série », et l’expérience ( de EDF) a montré que le coût des exemplaires suivants sera d’au moins 20% inférieur, soit 5,8 Millions par MW .

( Référence: http://www.senat.fr/rap/r11-667-1/r11-667-1_mono.html )

Voyons maintenant ce qu’il en serait si la même capacité de production était confiée à un parc éolien offshore.

L’éolien offshore est une industrie aujourd’hui bien établie. De nombreux parcs sont exploités en Europe du Nord et au Royaume Uni, fournissant des données statistiques fiables car basées sur l’expérience.

Pour les coûts de construction nous prendrons comme référence le programme de parc offshore de la baie de Saint-Brieuc qui sera équipé des machines M 5000-135 de AREVA, déjà utilisées ailleurs en Europe.

Le parc de la baie comprendra 100 machines de 5 MW, soit 500 MW nominal. Le montant de l’investissement, affiché dans la réponse à l’appel d’offre, est de 2 Milliards, soit 4 millions le MW nominal hors raccordements au réseau et hors moyens de relève de l’intermittence.

(Référence: http://www.eolienoffshoresaintbrieuc.com/fr/un-projet-industriel/le-coût-et-le-financement).

Avec ce type de matériel, pour produire annuellement la même énergie que l’EPR, soit 13 TWh, il faudrait installer une puissance nominale de 4,35 GW.

( L’EPR se « contente » de 1,65 GW car son facteur de charge est de 0,9 au lieu de 0,34 ).

Au prix de 4 Millions le MW nominal, la facture éolienne s’élèverait à 17,4 Milliards. A ce coût il faut bien sûr ajouter celui des raccordements au réseau et celui des unités de relève de l’intermittence, puisque le vent ne souffle pas régulièrement. Ces unités peuvent être soit des stations de stockage massif d’électricité, soit des unités de production à base de centrales à gaz, probablement un mix des deux. Le coût total, intégrant la part des moyens de relève de l’intermittence, ne serait pas inférieur à 20 Milliards, contre 12 Milliards « seulement » pour l’EPR.

Rappelons que les coûts en question sont extraits du rapport de la Cour de Comptes d’une part, et de la réponse de la Société AILES MARINES à l’appel d’offre de 2011 sur l’éolien offshore en côte atlantique d’autre part.

La simple comparaison des chiffres oblige à constater que le coût de l’éolien offshore est supérieur de 66% à celui de l’EPR. Du moins pour ce qui concerne le coût de construction des installations.

Par ailleurs, le parc offshore équivalent à l’EPR en production d’énergie comporterait 870 machines de 5 MW nominal. On pourrait réduire ce nombre en montant des machines de 8 MW, mais le coût ne serait pas diminué car ces machines sont fort coûteuses.

Cette comparaison des coûts de construction est instructive pour plusieurs raisons:

- Basée sur des chiffres officiels, elle démontre que malgré les dépassements de budget importants du chantier de l’EPR, celui-ci reste considérablement moins cher que son éventuel équivalent en éolien offshore.

- L’éolien offshore est une technologie chère, il faudra en tenir compte dans la stratégie de transition. D’autant plus que la durée de vie des éoliennes offshore est de trente ans seulement contre 60 voire plus pour une centrale nucléaire.

Le parc nucléaire français comprend 58 réacteurs, dont une vingtaine ne répondent plus aux normes de sécurité récentes et atteindront bientôt leur limite d’âge. C’est donc une puissance nominale de 20 GW qui devra être remplacée d’ici 2025 ( pour commencer ).

Si la solution de remplacement choisie est l’éolien offshore, il faudra construire des parcs à hauteur de 80 GW nominal, soit une facture de l’ordre de 300 Milliards, avec 10 000 ( Dix mille ) grosses machines de 8 MW.

Et ceci ne représente « que » 35% de la capacité actuelle du nucléaire.

Cette analyse, qui n’est que la compilation de chiffres officiels, ne doit pas faire oublier que le nucléaire, dans sa forme actuelle, reste une technologie détestable, pour plusieurs raisons:

- Le risque zéro n’existe pas, l’accident nucléaire majeur reste toujours possible. Les meilleures précautions ne peuvent que réduire la probabilité d’un accident, mais jamais l’annuler.

- Il n’existe pas de procédé satisfaisant pour le traitement et le stockage à long terme des déchets radioactifs.

- Le risque de dissémination et d’usage criminel est de plus en plus prégnant.

- Les sources de combustible Uranium ne sont pas inépuisables, et ne sont donc pas des sources durables.

- La dépendance aux approvisionnements du minerai de l’étranger sont contraires à l’esprit de l’indépendance énergétique.

- Le démantèlement des installations reste une opération difficile et dangereuse par le risque de dissémination. De plus son coût est très mal évalué aujourd’hui.

Malgré tous ces inconvénients, qui sont autant de menaces pour la sécurité publique, le nucléaire demeure attractif du strict point de vue financier, car les menaces en question n’ont jamais été évaluées en terme d’impact sur les bilans comptables, les seules évaluations disponibles étant largement sous-estimées.

De plus il serait probablement très difficile, voire même impossible selon certains, de faire accepter par les populations littorales et les professionnels de la mer l’implantation de dizaines de milliers d’éoliennes hautes comme 2/3 de tour Eiffel.

Notre société est donc placée devant un choix :

- Soit préserver l’environnement littoral en conservant une production électronucléaire importante.

- Soit engager un processus de sortie du nucléaire, en acceptant l’installation de plusieurs dizaines de milliers de grosses éoliennes le long du littoral.

- Soit accepter des restrictions drastiques de consommation électrique sur le réseau pour à la fois sortir du nucléaire et limiter l’invasion du littoral par l’éolien offshore.

Cette dernière solution est évidemment la plus écologique mais elle implique le développement du concept d’autoproduction, l’objectif étant de produire soi-même son électricité sans faire appel au réseau. On peut très bien imaginer des collectivités territoriales autonomes en énergie électrique, mettant en commun des moyens de production solaire, éolien, d’exploitation de la biomasse, de la géothermie, du petit hydroélectrique, soutenus par un programme de rénovation thermique des bâtiments et des installations de stockage de l’énergie.

Le passage d’une économie dispendieuse en énergie vers une économie de parcimonie est la condition à remplir pour se passer à la fois du nucléaire et de l’éolien offshore massif. Il appartient en grande partie au consommateur d’apporter la preuve de son adhésion à ce programme, en participant activement à la campagne d’économies d’énergie promue par le Gouvernement.

Et, comme dit l’autre, le reste vous sera donné par surcroît…

Repost 0
13 mai 2015 3 13 /05 /mai /2015 18:10

13 Mai 2015

La stratégie électronucléaire reste la pierre d’achoppement de la transition énergétique. Rien de significatif ne pourra être décidé sans d’abord statuer sérieusement sur le sort de cette technologie qui fournit aujourd’hui 75% de notre consommation électrique.

Le projet de Loi transition énergétique, adopté le 14 Octobre 2014 en première lecture par l’Assemblée Nationale, reprend l’essentiel des promesses du Gouvernement:

- Part du nucléaire dans la production électrique ramenée à 50% à l’horizon 2025.

- Puissance électronucléaire plafonnée à 63,2 GW.

Après examen par le Sénat, le projet a été modifié en première lecture par cette assemblée le 3 Mars 2015. Le projet est actuellement soumis à l’Assemblée Nationale pour seconde et dernière lecture avant adoption définitive ( Procédure accélérée).

Concernant le nucléaire, les modifications apportées par le Sénat portent essentiellement sur la suppression de l’échéance de 2025, la réduction à 50% de la part nucléaire est conservée mais reportée « à terme », ce qui en fait ne change pas grand-chose, puisque personne de sensé n’imaginait que l’on pouvait arrêter vingt réacteurs d’ici 2025 !

Remarquons au passage que fixer un quota de 50% sans fixer de référence peut réserver quelques surprises:

Si la consommation augmente, ce qui ressort de nombreuses prévisions en cas de reprise économique, la part du nucléaire peut se retrouver à 50% sans avoir à arrêter un seul réacteur !

Si au contraire la consommation diminue, comme souhaité dans le projet de transition énergétique, ce n’est pas vingt réacteurs qu’il faudrait arrêter d’ici 2025, mais trente voire davantage.

Le nombre de réacteurs dont l’arrêt doit être programmé se situe donc entre zéro et trente, selon l’évolution de la consommation, laquelle est évidemment imprévisible ! Ce n’est plus une stratégie, c’est du guignol.

On voit qu’il est absurde d’inscrire dans une loi un quota qui n’est pas rapporté à une quantité d’énergie de référence. Mais les sénateurs n’ont pas relevé cette absurdité qui pourtant saute aux yeux d’un lecteur, même non averti.

Il apparaît donc que cette Loi ne règlera en aucune manière le problème de la politique électronucléaire, et laissera la transition énergétique dans l’incertitude la plus totale. Ce qui était probablement le but recherché par les lobbies de l’Industrie de l’énergie, qui se retrouvent devant un boulevard pour imposer la stratégie de leur choix à des hommes politiques complètement dépassés par une situation à laquelle ils ne sont pas préparés.

Ne parle-t-on pas déjà dans les couloirs du château d’augmenter le plafond de la puissance électronucléaire à 64,85 GW ? Ceci permettrait de démarrer l’EPR de Flamanville sans avoir à arrêter aucun vieux réacteur.

De la belle ouvrage…

Repost 0
9 mai 2015 6 09 /05 /mai /2015 15:54

9 Mai 2015

La boîte de Pandore a donc été ouverte le mois dernier. On sait qu’en pareille circonstance il arrive fréquemment que la suite des évènements échappe à tout contrôle et conduise à une issue imprévisible.

Pourquoi tant d’histoires à propos d’un couvercle et d’un fond de cuve, et pas à propos de la cuve elle-même ? Eh bien parce que le couvercle et le fond sont les seules parties de la cuve fabriquées en France, le reste est fabriqué au japon par JSW ( Japan Steel Works) sous contrat d’industrialisation avec AREVA.

Creusot Forge, qui appartient à AREVA, ne possède pas (ou plus) le savoir-faire pour forger des pièces monoblocs aussi énormes que les viroles de cœur avec les raccordements des tuyaux. ( On assure cependant que pour les prochaines commandes d’EPR tout sera fait en France. Prenons-en acte). On s’occupe donc avec ce qu’on peut, c’est-à-dire le couvercle et le fond. Pour ce qui concerne d’éventuels défauts qui pourraient être présents dans le corps lui-même de la cuve, on est prié de s’adresser à JWS. C’est ce qu’on appelle une perte de compétence.

Ce fameux couvercle n’en est pas à son coup d’essai. Forgé en 2010, selon le planning de l’époque, il a frôlé la mise au rencart à cause d’un défaut au niveau des soudures des passages de tubes. Les tubes en question sont destinés au passage des commandes de grappes de combustible et de sondes diverses. On imagine que leur fixation doit être parfaite et les soudures exemptes du moindre défaut. Leur bonne étanchéité doit être assurée dans les conditions régnant dans la marmite: Température de 300 °C, pression de 155 kg, milieu corrosif, et flux de neutrons meurtrier, le tout pour une soixantaine d’année voire davantage. Or après inspection en 2011 il a été constaté un écart par rapport aux normes au niveau des soudures, qui a nécessité une reprise de l’ensemble des fixations afin d’obtenir l’autorisation de monter le couvercle.

Ce qui démontre au passage le sérieux des contrôles et la réactivité de l’industriel.

Le problème actuel, qui touche la matière même du couvercle et non plus le « beurrage » ou les soudures, pourrait nécessiter le remplacement de la pièce, qui est démontable faut-il le rappeler. Encore faudrait-il que le futur couvercle de remplacement soit exempt de défaut, ce qui implique de s’assurer préalablement de la bonne « qualité » des processus industriels de fabrication et de contrôle utilisés chez Creusot-Forge.

Pour cela il a été décidé de lancer une revue externe des processus de fabrication, l’expert désigné étant la société Lloyd’s Register Apave. Durée prévue de deux mois.

Le fond de la cuve par contre n’est pas démontable. La présence d’anomalies à ce niveau nécessiterait le remplacement de la cuve complète, ce qui représenterait un dépassement de budget considérable et un retard de plusieurs années qui pourrait remettre en question la poursuite du projet.

Cette histoire de chaudron cache en fait un problème de fond qui est celui de l’autorité de l’ASN et des limites de son pouvoir. Ce pouvoir est contesté par une partie des ingénieurs. André Pellen, Président du Collectif pour le Contrôle des Risques Radioactifs, ancien ingénieur d’exploitation du parc nucléaire EDF, a adressé à Pierre-Franck Chevet, président de l’ASN, une lettre ouverte dans laquelle il exprime un certain nombre de réserves qui mettent en cause l’organisme lui-même dans sa stratégie de communication, choisissant de mettre sur la place publique les éléments à charge d’un problème avant même qu’il soit instruit avec les parties intéressées.

La « guerre » entre les industriels du nucléaire et l’ASN en tant qu’autorité indépendante de par la Loi ne date pas du mois dernier. L’ASN est réputée être le garant de la sureté des installations nucléaires et à ce titre entre nécessairement en conflit avec les industriels.

Les industriels reprochent à l’ASN d’en demander toujours plus, et surtout de porter des jugements hâtifs non fondés sur des analyses contradictoires. Ils mettent en avant leur compétence en apportant la preuve de plus d’un demi-siècle d’exploitation d’un parc de plus de cinquante réacteurs sans accident important (1 700 années-réacteur cumulées).

Au-delà de la controverse technique il existe donc un conflit d’autorité entre les parties.

La nécessité de la transparence, voulue par la Loi, se traduit par une médiatisation des problèmes jugée prématurée par les industriels, voire même contraire à leurs intérêts commerciaux. La notion d’instrumentalisation a même été évoquée, eu égard à la grande sensibilité politique du nucléaire en cette période de transition énergétique. Ce problème hautement technique, qui aurait du être instruit par des spécialistes des deux parties, se trouve porté sur la place publique avant même que les experts aient pu intervenir et établir les éléments d’un dossier sur des bases scientifiques solides.

On imagine sans peine la satisfaction des anti nucléaires, qui n’ont pas manqué de saisir cette occasion pour « démontrer » l’échec d’une politique de « fuite en avant qui se révèle ruineuse et sans avenir ». La lettre ouverte de André Pellen peut être consultée ici: http://energethique.com/file/ARCEA/pdf/Pellen_ASN.pdf

Repost 0
16 avril 2015 4 16 /04 /avril /2015 18:31

16 Avril 2015

C’est dans les vieux pots qu’on fait la meilleure soupe, dit la sagesse populaire.

Ce n’est pas vrai pour l’électricité nucléaire.

La cuve d’un réacteur nucléaire est l’organe qui se trouve en première ligne face aux neutrons émis par le combustible radioactif. En fonctionnement, cette cuve est soumise à diverses contraintes:

- La température, plus de 300 °C.

- La pression, 155 kg en nominal.

- Les vibrations.

- Et surtout le flux de neutrons issus du cœur.

Le flux de neutrons fragilise l’acier en modifiant sa structure cristalline et en provoquant des migrations d’impuretés qui ont tendance à se concentrer dans des zones qui deviennent des sources de micro-failles. La température de transition ductile/fragile est également modifiée (augmentation), ce qui rend l’acier plus vulnérable au choc thermique d’une injection d’eau froide (nécessaire en cas de perte de réfrigérant). Au-dessus de la température de transition Tt, l’acier est ductile et peut donc supporter des déformations. Au-dessous de cette température, il devient fragile et cassant. Or le flux de neutrons entraîne à la longue une augmentation de Tt, qui peut alors faire passer l’acier de la cuve dans le domaine fragile en cas de contact avec de l’eau froide.

Il y a donc des causes tout à fait objectives d’usure du matériau de la cuve par fragilisation du matériau et fissuration. Les conséquences de cette usure sont aggravées par la présence de défauts du matériau à la fabrication, défauts pas nécessairement identifiés au départ, et qui peuvent aussi apparaître lors de la soudure du revêtement en acier inoxydable. (L’intérieur de la cuve doit être doublé d’une paroi en acier inoxydable pour résister à la corrosion par le milieu intérieur. La soudure de cette paroi entraîne la formation de micro-défauts dans la paroi de la cuve, défaut dont l’évolution en service est très difficile à contrôler).

Par ailleurs les repiquages des tuyaux présentent des microfailles au niveau des soudures, qui évoluent également sous le flux des neutrons et s’aggravent avec les contraintes mécaniques( vibrations, contraintes thermiques, pression). Cela fragilise l’ensemble de la cuve.

Les microfailles présentes au niveau des passages de capteurs peuvent constituer des micro fuites d’eau borée qui va passer la barrière d’acier inox et venir ronger la paroi d’acier de cuve sensible à la corrosion. Au bout que quelques dizaines d’années de ce régime, la cuve se trouve donc fragilisée.

S’il se produit alors un accident entraînant le dénoyage du cœur et une fusion même partielle, la cuve ne sera peut-être plus assez résistante pour contenir le corium, surtout s’il se produit une surpression explosive de vapeur d’eau au contact du corium avec l’eau de fond de cuve.

L’accident majeur est alors assuré.

Pour éviter d’en arriver là , chaque cuve est l’objet d’une surveillance attentive. A la mise en service, des éprouvettes du même métal sont placées à l’intérieur de la cuve à des endroits très exposés au flux de neutrons. Périodiquement, à l’occasion d’arrêts pour remplacement du combustible et à chaque visite décennale, on prélève quelques éprouvettes et on leur fait subir des tests pour vérifier l’évolution de leurs propriétés mécaniques. Ce procédé permet indirectement d’avoir une bonne information sur le vieillissement de l’acier de la cuve, du moins on l’espère.

Il faut noter que la validité de ce procédé n’a jamais fait l’unanimité, certains considérant que les tests sur éprouvettes ne représentent pas l’état réel de l’acier de la cuve, celles-ci ne se trouvant pas placées forcément à l’endroit où le flux de neutrons est maximum.

Dans la conception de la cuve de l’EPR ce problème à reçu une attention particulière, des déflecteurs de neutrons ont été disposés pour limiter leur pouvoir de destruction sur la cuve.

Tout ceci pour dire que la cuve d’un réacteur reste l’organe le plus critique d’une centrale, celui dont dépend entièrement la protection d’une installation contre l’accident ultime de type Fukushima.

On comprend alors que les autorités responsables de la sécurité nucléaire surveille ce chaudron avec une attention particulière.

En France la sécurité nucléaire est sous l’autorité et la responsabilité de l’ASN. Son action s’exerce en amont par l’établissement des dispositions réglementaires diverses, et en aval par des procédures de rapports et inspections périodiques. Comme dans toute technologie, les normes de sécurité évoluent en fonction des connaissances acquises sur le terrain, et de l’évolution de la technologie elle-même, notamment les matériaux, les processus industriels, les systèmes de gestion et de contrôles. Les équipements sous pression nucléaire (ESPN) sont l’objet de dispositions réglementaires particulières.

Jusqu’aux « évènements » de Fukushima c’est l’arrêté du 12 Décembre 2005 qui faisait référence. Cet arrêté régit à la fois « la conception, la fabrication, l’évaluation de conformité, les exigences essentielles de sûreté, l’installation, la mise en service, la surveillance, l’entretien, l’exploitation et les contrôles en service des ESPN » .

Après la catastrophe il est devenu indispensable de revoir la copie pour durcir certains points particuliers. Des modifications majeures sont intervenues depuis le 1er janvier 2015, intégrant de nouvelles exigences de sûreté concernant les modalités de justification et de surveillance de la conception, de la fabrication et du montage des ESPN. Cette nouvelle réglementation a pour objectif de « rendre les garanties de la qualité de ces éléments encore plus fortes » « Elle impose ainsi aux fabricants de fournir à l’Autorité de sûreté nucléaire un certain nombre de données supplémentaires concernant notamment les plans de conception, les composants/matériaux utilisés et leur traçabilité, l’analyse des risques radioactifs, ou encore les moyens retenus pour permettre les inspections en situation de service. »

Les conséquences de cette sévérisation des normes de sécurité sont très importantes, notamment concernant le cœur des réacteurs.

Le parc des 59 réacteurs en service en France est conforme aux anciennes normes. Concernant les cuves, les marges de sécurité présumée étaient telles qu’un rupture de cuve était considérée comme impossible. Les cuves étaient classées « non ruptibles ».

Fukushima s’est chargé de démontrer le contraire.

Les nouvelles réglementations apportent donc une attention particulière aux cuves. Notamment concernant l’homogénéité de l’acier utilisé pour réaliser les viroles, les couvercles et les fonds, mais pas seulement. Les incertitudes sur la connaissance et le suivi des défauts de cuve doivent disparaître, surtout sur les matériels nouveaux dont la durée d’exploitation a été portée à 60 ans, voire davantage.

C’est pourquoi entre autres l’ASN a rendu obligatoire la vérification in situ de la qualité de l’acier et son homogénéité. On ne peut reprocher à cet organisme de rechercher une amélioration de la sureté nucléaire.

L’application d’une nouvelle norme sur un matériel déjà fabriqué ne peut que réserver des surprises. C’est le cas avec la cuve de l’EPR de Flamanville.

Reste maintenant à vérifier que les responsables de la sureté nucléaire, qui ont estimé que ces nouvelles normes sont indispensables, auront la volonté et le pouvoir de les faire appliquer. Et ceci est une autre histoire…

Voir notamment: http://www.iaea.org/inis/collection/NCLCollectionStore/_Public/30/005/30005697.pdf

Repost 0
15 avril 2015 3 15 /04 /avril /2015 11:41

15 Avril 2014

Ce fut d’abord une rumeur, vite écrasée sous les sarcasmes de ceux à qui « on ne la fait pas ». Vous savez, les mêmes qui affirmaient avec James Ussher que la Terre avait été créée le 23 Octobre 4004 avant JC, et plus tard que les plus lourds que l’air ne voleraient jamais, ou que les météorites ne pouvaient pas tomber du ciel car il est « bien connu » qu’il n’y a pas de pierres dans le ciel.

C’est ainsi que fut établi le dogme de l’origine exclusivement biotique des hydrocarbures, avec comme conséquence l’excommunication de tout scientifique qui oserait ne serait-ce qu’évoquer la possibilité d’une origine abiotique.

Biotique ou abiotique, la belle affaire, on pourrait croire qu’il s’agit d’une querelle byzantine ou d’une controverse sur le sexe des anges; en fait si, la différence est primordiale.

Les hydrocarbures biotiques, plus connus sous le nom de combustibles fossiles (pétrole, gaz naturel, charbon), sont un stock limité d’énergie solaire emmagasinée dans le sous-sol en des temps reculés. Ce stock n’est pas renouvelable, son épuisement prochain est certain; la seule incertitude réside dans la date de l’échéance, estimée à moins d’un siècle selon le produit, l’évolution de la consommation mondiale, et l’institut de prévision…

L’inéluctabilité de la pénurie crée la nécessité de chercher des solutions de remplacement et, par la même occasion, des solutions non émettrices de CO2. Il s’agit en fait de revenir à l’énergie solaire, mais utilisée autrement qu’avec les résidus carbonés issus de la fossilisation des matières organiques anciennes. Il s’agit alors d’exploiter les vents, le rayonnement solaire, la biomasse, l’hydraulique, qui sont les manifestations actuelles de l’énergie solaire. Ce sont par définition des énergies durables, dont nous devrons nous contenter dans l’avenir.

La transition énergétique consiste précisément à basculer des énergies fossiles vers ces énergies propres et renouvelables.

La découverte de produits énergétiques abiotiques, issus de l’intérieur de la Terre et produits selon un processus continu, changerait complètement la donne énergétique pour peu qu’ils soient disponibles en quantité suffisante.

Production continue signifie en effet réserve inépuisable, la fête pourrait continuer.

La « rumeur » dont nous parlions plus haut reposait sur la possibilité, d’abord théorique, d’obtenir de l’Hydrogène, puis des hydrocarbures simple comme le Méthane, puis plus complexes comme les pétroles, à partir de différents minéraux de la croute terrestre et dans des conditions de température et de pression particulières. ( les réactions chimiques sont abondamment décrites dans la littérature).

Cette théorie a reçu confirmation au cours des campagnes de mesures le long des dorsales océaniques, puis en différents endroits sur les continents. Aujourd’hui la présence d’émanations de gaz énergétiques d’origine abiotique en de nombreux endroits du Globe ne fait plus débat.

Les sites « producteurs » sont répertoriés et les sites potentiels sont en cours d’exploration.

Les acteurs de l’énergie, en liaison avec les grands laboratoires de physique du Globe, ont entrepris de caractériser ces nouvelles sources d’énergie afin d’en déterminer l’importance, d’imaginer les procédés de captage, et d’évaluer son potentiel économique.

L’Institut Français du Pétrole ( Ifp-Energies nouvelles) est l’un des acteurs principaux de cette phase exploratoire qui a d’abord porté sur les émanations des dorsales océaniques. Plus récemment les travaux ont concerné les sources terrestres plus facilement accessibles.

Les gaz émis par ces sources sont un mélange en proportions variables de Méthane abiotique, d’Hydrogène, et d’Azote, avec un pourcentage intéressant d’Hélium. (Intéressant car l’hélium est un gaz rare dont la production est onéreuse).

L’Hydrogène est évidemment le produit recherché en raison de ses multiples qualités: Aujourd’hui l’Industrie consomme une grande quantité d’Hydrogène pour le secteur de la chimie. Ce gaz doit être fabriqué en dépensant une énergie importante. C’est un vecteur d’énergie et non une source. Il n’est donc pas question de l’utiliser pour faire marcher des moteurs en remplacement du pétrole.

La voiture à Hydrogène dont on parle beaucoup fonctionnera avec l’Hydrogène obtenu par l’électrolyse de l’eau grâce à l’électricité produite par l’éolien et/ou le solaire. Aujourd’hui la voiture électrique fonctionne en France avec de l’électricité nucléaire, ce qui représente un extraordinaire accouplement contre nature entre une application écologique et une énergie par définition anti-écologique.

Mais si demain l’Hydrogène devient disponible à l’état naturel et produit en continu dans le sous-sol, il constituera une nouvelle source pouvant être utilisée directement sans faire appel aux énergies fossiles.

L’hydrogène est par ailleurs (!) une source d’énergie propre, sa combustion ne dégage que de la vapeur d’eau.

Les prochains travaux portent sur le recensement des sites producteurs d’Hydrogène naturel, sur les mesures de débits et leur évolution dans le temps, sur les méthodes de captation et de transport.

En cas de confirmation ( dans dix ou vingt ans ?) l’intérêt de la filière Hydrogène se trouverait fortement renforcé avec l’appoint de cette nouvelle source d’énergie renouvelable et propre, qui viendrait s’ajouter à l’énergie solaire à laquelle on ne pourra pas demander plus qu’elle ne peut fournir.

Référence:

http://www.ifp-school.com/upload/docs/application/pdf/2014-12/presentation-e-deville-12mai2014.pdf

Repost 0