Overblog Suivre ce blog
Administration Créer mon blog
14 janvier 2017 6 14 /01 /janvier /2017 10:33

La mort annoncée du moteur thermique ?

14 Janvier 2017

En œuvrant sournoisement dans le trucage des moteurs diesel, un constructeur allemand a terni la réputation, jusqu’alors sans tache, de toute l’industrie d’outre-Rhin.
Sans doute désireux d’effacer l’affront, le Conseil Fédéral Allemand a décidé de frapper un grand coup. Il a pour cela voté une résolution par laquelle les moteurs essence et diesel seront bannis d’ici 2030.
Les bidouilleurs de logiciel n’ont pas brusquement changé de religion; ce sont les écologistes qui, voyant la bête blessée, profitent de la situation pour tenter de l’achever.
Certes, les fleurets sont mouchetés. La résolution du Bundesrat n’a pas force de loi, et la date de l’exécution est fixée à 2030, ce qui laisse le temps de réfléchir calmement.
Il faut donc plutôt voir, dans cette proclamation un tantinet excessive, une injonction à « faire quelques chose » pour contrebalancer l’effet désastreux des évènements que l’on sait sur la réputation des constructeurs mis en cause.
Cet épisode est l’occasion de tenter de faire un point sur l’avenir automobile.
La dernière décennie a été riche en innovations: Biocarburants de seconde et troisième génération, propulsion hybride, pile à combustible, moteur à Hydrogène, super condensateur, etc.
Le moment est peut-être venu de se demander ce que nous allons faire de toutes ces technologies qui nous sont servies en vrac et sans mode d’emploi.
__________________

Le moteur thermique et le moteur électrique se tirent la bourre depuis 120 ans.
Dès l’invention de la batterie au Plomb par Planté, le moteur électrique est apparu comme la solution la plus rationnelle pour mouvoir les véhicules de l’époque.
L’idée était bonne puisque, cent vingt ans plus tard, elle n’a rien perdu de sa rationalité et l’on y revient contre vents et marées.
Au début du siècle dernier ces voitures ont eu un certain succès dans la bourgeoisie, la faible longueur des déplacements s’accommodant de l’autonomie retreinte. Il s’agissait  surtout de promenades au bois, ou d’aller à l’Opéra.
Les routes d’alors ne permettaient pas de toutes façons d’envisager un déplacement hors de la cité.
Et puis est arrivé le moteur à pétrole qui, avec les progrès des suspensions et des routes, et surtout des pneumatiques, a ouvert les grands espaces à l’automobile.
Le moteur électrique n’a pas pu suivre, faute de pouvoir mettre l’électricité en bidon.
La voiture électrique a cependant survécu grâce à l’existence d’un petit marché s’accommodant d’une autonomie réduite.
Différentes tentatives de concurrencer la voiture à pétrole sur le marché de masse ont échoué, toujours sur le même problème: le manque d’autonomie.
___________________

Le problème est double:
- D’une part il faut trouver une technologie de batteries capable d’offrir une capacité énergétique spécifique très supérieure à celle des classiques batteries au Plomb, afin de pouvoir embarquer une réserve énergétique suffisante, tout en limitant son poids pour éviter de transformer la voiture en char d’assaut.
- D’autre part créer un réseau de rechargement offrant des possibilités comparables à celles du réseau de distribution de carburants liquides existant.
___________________

Essayons d’être plus précis:
Pour ce qui concerne la capacité énergétique à emporter, les données sont simples: un véhicule moderne de gamme moyenne a besoin d’une énergie « à la roue » d’environ 15 KWh/100 Km pour offrir des performances classiques qui sont celles des voitures actuelles de milieu de gamme.
Avec les moteurs thermiques actuels, l’usage a conduit à adopter une autonomie de 700 à 1000 Km, obtenue facilement avec un réservoir en tôle de 60 à 70 litres.
Une autonomie supérieure s’obtiendrait aisément en augmentant la capacité du réservoir, mais le besoin ne s’en est pas manifesté jusqu’à présent, car le réseau de stations service s’est développé au-delà même du nécessaire.
(Malgré une forte diminution, il subsiste encore environ 11 000 stations de distribution de carburants, avec plus de 40 000 postes de ravitaillement).
Considérons l’autonomie de 700 Km comme un valeur moyenne de base.
Si le véhicule est équipé d’un moteur à essence, il devra emporter 55 L de carburant.
( 1 L de carburant correspond à une énergie de 10 KWh environ. Le rendement global effectif du réservoir à la roue est de 20% avec un moteur thermique. Il faut donc 15 KWh x 5 = 75 KWh aux cents Km, soit 7,5 L/100).

S’il est équipé d’un moteur électrique, il lui faudra une batterie d’une capacité de150 KWh, dont 130 utilisables.
(Rendement global moyen de 80%, réserve de 10%. Une batterie ne doit jamais être complètement déchargée).
Aujourd’hui, la meilleure technologie permet d’associer une batterie optimisée pour offrir la meilleure capacité énergétique spécifique, avec une super capacité offrant les meilleurs possibilités de puissance max.
On pourrait ainsi obtenir une capacité de 150 KWh pour un poids inférieur à 400 Kg.
C’est du moins les chiffres qui sont annoncés par la profession, comme objectif « raisonnable » à l’horizon 2020.
Le principal obstacle est le coût, qui doit rester compatible avec le secteur de marché visé.
______________

Qu’en est-il aujourd’hui ?
Aujourd’hui le standard est à 30 KWh, les 60 KWh sont annoncés pour 2017/2018, l’objectif des 150 KWh paraît donc atteignable pour 2020.
Le problème de l’autonomie pourrait donc être résolu, mais sous deux conditions:
- Que le prix soit maîtrisable, ce qui n’est pas aujourd’hui une certitude. Sinon les 150 KWh pourraient être réservés au haut de gamme, et le marché de masse serait compromis.
- Que les produits utilisés soient disponibles dans les quantités nécessaires, ce qui n’est pas non plus acquis, compte tenu de la très forte demande prévue dans tous les domaines du stockage de l’énergie.
(Pour la technologie actuelle au Lithium).
- Et bien entendu que les « stations service » électriques existent.
___________________

Le second problème, le réseau de recharge des batteries, est plus complexe car il nécessite une approche multiple:
- La quantité d’énergie électrique nécessaire.
   Pour un kilométrage annuel moyen de 12 000 Km (données actuelles) et une consommation de 20 KWh/100 Km, chaque véhicule électrique consommera annuellement 2,4 MWh.
35 Millions de VE consommeraient donc 84 TWh, correspondant à une production de 105 TWh en tenant compte des divers rendements de transformation et des pertes en lignes.
Ceci représente la production de huit réacteurs EPR.
Cette accroissement de 22% de la production électrique nationale n’a jamais été prise en compte dans les programmes de transition énergétiques.
Il faudra pourtant bien trouver cette électricité quelque part…
Sachant qu’elle devra évidemment être d’origine renouvelable.
Par exemple, il faudrait 8 000 éoliennes offshore de 5MW pour obtenir cette énergie…

- La puissance électrique nécessaire.
  Pour rester gérable, la charge des batteries doit pouvoir s’effectuer en un temps plus ou moins comparable à celui des modèles à essence.
Le plein à 80% d’une voiture thermique est effectué en sept minutes environ, pour une autonomie de 700 Km.
Pour obtenir l’équivalence, le plein à 80% d’une batterie de 150 KWh devrait pouvoir s’effectuer également en sept minutes.
Ce qui nécessite une puissance 1 150 KW.
Une telle puissance (1,15 Mégawatts !) est un défi au bon sens.
Aujourd’hui les bornes de charges « classiques »,dites rapides, peuvent fournir 50 KW, le plein de notre batterie de 150 KWh s’effectuera donc en 3 heures, contre 7 minutes pour une voiture « normale » !
On voit donc qu’il ne sert à rien de doter une voiture d’une forte autonomie, si par ailleurs on ne lui offre pas un réseau de charge qui lui évite de passer une demi-journée pour « faire le plein ».

Ce problème n’a pas échappé à certains constructeurs, qui ont compris que leurs voitures seraient invendables sans un réseau de charge « à la hauteur ». L’équipementier américain ChargePoint a annoncé un système de bornes à 400 KW, et un consortium Allemand et américain annonce pour le marché européen un réseau à 350 KW.
Le programme français de réseau de charge à 50 KW est donc complètement dépassé avant même d’être opérationnel…
(Pourtant une simple calculette, comme ci-dessus, leur aurait donné la solution).

Dans l’hypothèse où des bornes de 300 KW seraient généralisées, la charge à 80% d’une batterie de 150 KW pourrait s’effectuer en une demi-heure, soit 4,3 fois plus qu’avec un véhicule thermique.

- Le nombre de postes de charge.
  Il y a aujourd’hui 11 000 stations service carburants, pour environ 44000 postes.
En supposant un réseau de bornes de 300 KW, il faudrait donc 4,3 fois plus de bornes pour obtenir le même service, soit 190 000 bornes.
En périodes de pointe, tous les postes sont susceptibles d’être utilisés, ce qui donnerait  une puissance soutirée de plus de 57 GW.
Ce qui nécessiterait un quasi doublement de la puissance du parc électrique français !
_____________________

L’électrification totale du parc de véhicules particuliers pose donc d’énormes problèmes si l’on désire retrouver le même niveau de service qu’avec les véhicules à pétrole.
- Il faudrait augmenter de plus de 20% la quantité d’énergie électrique produite annuellement, et la puissance installée de 50%, ce qui est le contraire de ce qui est prévu dans la stratégie de transition énergétique.
- Il faudrait abandonner le concept de bornes de recharge de 50 KW et le remplacer par un réseau de près de 200 000 bornes de 300 KW, ce qui n’est absolument pas dans les projets de l’Etat français, même dans un avenir lointain.
___________________

Il apparaît donc que l’électrification totale du parc de voitures, avec stockage d’énergie par batterie, est une utopie.
Le système à batterie a donc ses limites, qui commencent d’ailleurs à apparaître avec les tentatives de mise en place d’un réseau de rechargement avec les bornes de 50 KW.
D’autant plus que lorsque toutes les voitures particulières seront électrifiées, il restera les camions et les engins de chantiers, pour lesquels aucune solution n’est prévue.
Assez curieusement, le problème des camions a été glissé sous le tapis.
___________________

Les obstacles qui s’opposent à la généralisation du véhicule à batterie peuvent être outrepassés en utilisant d’autres technologies, comme la pile à combustible et les biocarburants.
Et c’est là que l’on retrouve le moteur thermique.
Les biocarburants de deuxième génération commencent à exister. Ceux de troisième génération suivront dans la foulée, et remplaceront les carburants pétroliers, en particulier sur les véhicules de transport qui utilise actuellement le diesel pétrolier.
__________________

La motorisation électriques à batterie seule ne pourra jamais remplacer la totalité des motorisations thermiques.
Elle pourra tout au plus prendre une part de marché de 30 à 40% des voitures particulières.
Pour les utilisations routières, il faudra faire appel à d’autres solutions.
Aujourd’hui ces solutions sont la motorisation hybride et/ou la pile à Hydrogène ( ou pile à combustible).
La motorisation hybride repose sur une double motorisation dans laquelle le moteur thermique joue un rôle essentiel puisqu’il assure les longs parcours. C’est la solution privilégiée aujourd’hui par les usagers.
Le bannissement du moteur thermique entraînerait automatiquement le bannissement de la motorisation hybride. Absurde.
Il resterait donc la pile à Hydrogène.
Mais avec deux gros problèmes:
- Il faut fabriquer l’Hydrogène propre, ce qui ne peut être fait que par électrolyse de l’eau grâce à l’énergie électrique renouvelable.
Ce qui n’est pas fait aujourd’hui.
- Il faut créer un réseau de distribution de cet Hydrogène, qui reste entièrement à construire.
___________________

La résolution du Bundesrat est un coup de com qui reçoit un bel accueil médiatique.
Il reste maintenant à expliquer comment mettre tout cela en pratique.
Souvenons-nous de la décision « héroïque » de sortir du nucléaire, dont le premier résultat fut d’augmenter la production des centrales à charbon…
____________________

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
9 janvier 2017 1 09 /01 /janvier /2017 17:42

Filtrage des CPL du Linky, suite.

9 Janvier 2017
Le nouveau compteur Linky dialogue avec le concentrateur grâce à une liaison CPL qui travaille dans la bande CENELEC A réservée aux distributeurs d’énergie électrique.
La portion de bande A utilisée s’étend de 35,9 KHz à 90,6 KHz pour la version G3 qui utilise une modulation bande large à porteuses multiples et un codage OFDM. Il existe aussi une première version G1 qui équipe les premiers compteurs Linky, et qui utilise une commutation de deux porteuses à 63,3 et 74 KHZ.
_______________

Un tronçon du réseau ENEDIS, issu du transformateur BT, dessert de 10 à 100 abonnés, voire plus, et fonctionne en réseau parallèle.
Il en est évidemment de même pour les signaux CPL qui circulent sur ce réseau.
Tous les abonnés branchés sur un même tronçon reçoivent donc tous les signaux CPL circulant sur ce bout de réseau, plus ou moins atténués selon les distances et les aléas de la transmission.
Le compteur Linky examine tous ces signaux, et sélectionne ceux qui l’intéresse, c’est ainsi que cela se passe sur un réseau parallèle.
__________________

Le compteur Linky ne comporte aucun filtre pour arrêter les signaux CPL et les empêcher d’entrer dans les logements.
Mais l’inverse est également vrai:
Les réseaux CPL domestiques ne comportent eux-mêmes aucun filtre pour empêcher les signaux CPL du particulier d’aller « polluer » le réseau EDF et, à travers lui, tout le voisinage.
C’est une situation scabreuse susceptible d’entraîner des problèmes d’incompatibilité et des troubles de fonctionnement d’autant plus que, sur ce réseau devenu public par l’intermédiaire du compteur, on trouve à peu près n’importe quoi en terme de bandes de fréquences, de normes de transmission, de types de modulation et de codage, de procédés de gestion des priorités, de définition des adresses, des procédures d’ackowledge, etc.
Les CPL du compteur Linky ne sont qu’une nouvelle application parmi beaucoup d’autres, peut-être un peu plus légitime que les autres.
En effet, on peut difficilement reprocher à ENEDIS de faire circuler des CPL sur son propre réseau, alors que n’importe qui se permet d’utiliser ce même réseau pour faire n’importe quoi, y compris transmettre internet ou la Télévision !!
_______________

Certains usagers, ayant constaté des troubles de fonctionnement de leur installation domotique, suite à la pose du compteur Linky, ont associé ces problèmes aux CPL du nouveau compteur.
D’autres, ayant entendu parlé des CPL « espions », souhaitent s’en protéger en les bloquant dès l’entrée du domicile.
Il existe ainsi une demande pour un filtre bloquant les signaux CPL
dans la bande CENELEC A.
Il ne nous appartient pas de porter un jugement sur la pertinence de cette demande, ni sur son caractère licite ou pas en regard de la législation.
L’usager qui installera un filtre entre le Baco et son installation prendra à son compte les éventuels problèmes résultants de cette initiative.
Nous nous proposons seulement de rappeler quelques règles simples qui doivent être respectées sous peine de se mettre en contravention avec les bonnes mœurs qui ont cours dans le monde de l’électrotechnique.
___________________

- Un dispositif électrique, passif ou actif, quel qu’il soit, placé dans une installation domestique, doit être homologué en conformité avec les normes en vigueur, dans le cadre de la réglementation NF C 15-100.
Il doit notamment satisfaire les conditions d’essais de compatibilité  électromagnétiques, et les normes de protection des biens et des personnes (Incendie, électrisation, tenue aux surtensions, aux surcharges, aux températures extrêmes, isolation, etc.).
- Si le filtre CPL est placé en tête de réseau, il doit être dimensionné pour fonctionner en nominal au courant maximum correspondant à ce raccordement, avec une marge de sécurité.
Le CBE /Compteur Bleu Electronique, est dimensionné pour fournir un courant max de 90A correspondant à un abonnement de 18 KVA. Le filtre doit donc logiquement être également dimensionné pour 90 A.
Le compteur Linky est dimensionné pour  100 A .
Les performances de filtrage doivent être maintenues jusqu’au courant max.
- Le filtre ne doit pas être lui-même source de rayonnement, ce qui suppose un blindage avec une mise à la terre efficace.
Il ne doit pas générer de surtensions lors de coupures brusques générant un très fort di/dt en raison de la présence des bobines de filtrage de forte inductance.
Sa courbe de réponse doit être spécifiée avec les impédances de charge et de source.
- Il doit ne doit causer aucune perturbation aux applications CPL domestiques hautes fréquences, jusqu’à 500 Mbps.
_________________

L’information suivante est donnée à titre indicatif:
La Société SPICA propose un filtre CPL pour la bande A du CENELEC.
Ce filtre est prévu pour être utilisé dans les installations de type photovoltaïques ou éoliennes. Il n’est pas expressément spécifié pour l’usage domestique derrière un compteur EDF.
Le modèle STRIKE 63 Ampères/ 40 db est un objet encombrant d’un poids de 3 Kg, dont le prix unitaire indicatif est de 370 euro TTC.
Nous n’avons aucune information concernant son homologation en France dans la fonction filtrage CPL en sortie de compteur Linky .
____________________

La position du service client Pros de ENEDIS est la suivante:
Si une anomalie quelconque de fonctionnement est constatée, soit par ENEDIS, soit par l’abonné, sur la partie puissance ou sur la partie signalisation, ENEDIS envoie un technicien pour analyser le problème. S’il s’avère que la cause se situe au niveau de la partie privative, après le disjoncteur EDF, un procès verbal est établi et l’abonné doit y apporter remède. Si la cause se situe dans la zone de responsabilité ENEDIS , c’est-à-dire avant le point de raccordement à la partie privative, c’est évidemment ENEDIS qui s’en charge ».
C’est donc clairement à l’abonné de s’assurer qu’en ajoutant un filtre, son installation privative ne pourra causer aucun trouble de fonctionnement dans l’installation de raccordement, de comptage, et de protection, qui relève du secteur ENEDIS.
Ceci inclut évidemment le fonctionnement de la liaison CPL entre le compteur Linky et le concentrateur.
On peut penser notamment à une atténuation parasite de la puissance des signaux CPL émis par le Linky sur le réseau, qui serait causée par une impédance d’entrée de filtre inappropriée dans la bande de fréquence concernée, et qui perturberait la signalisation du compteur.
L’introduction d’un filtre CPL bande A dans une installation domestique n’est donc pas une opération anodine.
___________________

 

Repost 0
7 janvier 2017 6 07 /01 /janvier /2017 10:22

 

7 Janvier 2017
Contrairement à une certaine légende urbaine, EDF n’a pas décidé de dépenser cinq milliards uniquement pour le plaisir d’espionner les habitudes, avouables ou non, de ses clients.
Dans l’article précédent nous avons tenté de montrer qu’il y a le feu au lac, et que faute de se bouger le…nous nous exposons à subir d’importantes perturbations du réseau électrique dans un avenir proche.
 La menace qui pèse sur la production électronucléaire, la croissance de la part des énergies intermittentes, le développement de la voiture électrique,  et l’obligation de réduire les émissions de CO2, constituent un faisceau de contraintes dont le cumul sera insupportable si l’on ne remplace pas le système d’adaptation de l’offre à la demande par son contraire, le système d’adaptation de la demande à l’offre.
C’est la Maîtrise de la Demande Electrique.
Nous sommes donc dans l’obligation de nous donner les moyens de réussir ce challenge, et plus vite nous commencerons, moins nous aurons à supporter les inconvénients d’un réseau devenu incontrôlable.
Ce changement de paradigme ne se fera pas sans susciter de nombreuses oppositions, sincères ou mal intentionnées.
Il faudra procéder par étapes, la technologie devra s’adapter, les usages aussi, et les usagers de même, qu’il faudra convaincre de la nécessité d’accepter certaines contraintes pour que leurs enfants aient le droit de vivre dans un monde sans nucléaire et sans pétrole.
Dix à vingt ans seront nécessaires pour finaliser le programme.
Autant s’y mettre tout de suite.
___________________

Le « tout de suite » en question est le compteur Linky, qui constitue l’interface de communication entre le gestionnaire de réseau et le client.
Le remplacement des compteurs représente un investissement annoncé de cinq milliards d’euros, soit 140 euros par abonné.
Cette folle dépense sera amortie sur vingt ans, période à l’issue de laquelle de nouveaux compteurs plus perfectionnés seront probablement posés.
La charge supportée sera donc de sept (7) euros par an et par abonné, soit 59 centimes par mois, ou encore la moitié du prix d’un petit pain au chocolat.
Puisque le prix du petit pain au chocolat est devenu la référence.
Chacun jugera, en son âme et conscience, s’il est raisonnable de dépenser une somme aussi « considérable » pour préserver un avenir énergétique propre pour ses enfants.
______________

Plus sérieusement, la contrepartie de cet investissement de cinq milliards se trouve dans l’économie qu’il permettra de réaliser lors du développement des outils de production à partir des énergies renouvelables.
Aujourd’hui, nous devons entretenir un outil de production capable de délivrer une puissance crête de l’ordre de 100 GW pour faire face aux pics de la demande, alors que notre consommation moyenne n’est que de 55 GW.
( Pour une énergie de 480 TWh annuels).
Si nous ne changeons rien à ces habitudes désordonnées de consommation, demain il nous faudra toujours 100 GW pour fonctionner (Et même bien davantage si l’on tient compte des voitures électriques et de la croissance naturelle du secteur).
Sans nucléaire, et avec seulement des moulins à vent et des panneaux solaires, il sera hors de question d’obtenir 100 GW.
Il nous faut donc maîtriser notre consommation pour ramener les pics de puissance demandée à une valeur plus raisonnable, de l’ordre de 70 GW.
C’est la mission dont le compteur Linky est chargé.
Et on y gagne quoi ?
Une économie de puissance de 30 GW représente l’équivalent de 18 réacteurs du type EPR de Flamanville.
Oui, vous avez bien lu 18.
Pour un coût global d’au moins 100 Milliards.
La comparaison avec le coût du Linky se passe de commentaire…
(Et nous avons vu précédemment que l’équivalent en éolien offshore est encore plus cher…).
___________________

L’objectif du compteur « intelligent » est multiple:
- Il doit fournir au client son profil de consommation, afin de lui permettre de l’optimiser pour d’une part réduire sa puissance crête et profiter au mieux des avantages tarifaires liés à certaines tranches horaires, et d’autre part éventuellement souscrire un abonnement plus avantageux correspondant à la puissance dont il réellement besoin.
- Il doit lui permettre, moyennant avantage tarifaire, d’adhérer au programme d’effacement programmé mis en œuvre lors des périodes de déficit de puissance réseau pour cause d’absence de vent ou de soleil.
- Il doit, à terme, gérer le poste de charge de batterie de VE dans le but de répartir dans le temps les périodes de charge, tout en garantissant le maintien du service au client.
A terme plus lointain, les batteries de VE connectées aux bornes de charge interactives pourront être intégrées dans un système global de stockage d’énergie électrique.
- Il doit intégrer les installations de production particulières dans la gestion du « réglage système » afin d’éviter les perturbations de tension et/ou de fréquence causées par des injection de puissance incontrôlées.
- Etc…
Toutes ces applications ne pourront être activées que si l’installation de l’abonné est aménagée pour les accueillir, notamment au niveau de la domotique.
Les délestages ciblés ne seront possibles que si l’installation client est partitionnée en zones qui seront activées ou non par un gestionnaire local d’énergie qui recevra ses informations du compteur Linky.
De même pour le lissage des consommations, le gestionnaire local d’énergie s’en chargera à partir des infos du compteur sur les avantages tarifaires évolutifs.
La gestion de charge de batterie se sera possible que s’il existe un poste de charge dédié raccordé au gestionnaire local d’énergie, lui-même connecté au compteur.
_______________

Une installation standard ne bénéficiant d’aucun réseau domotique, ni d’aucun gestionnaire local d’énergie, n’aura accès qu’à un « service minimum », lequel peut alors être perçu comme intrusif, une sorte de « gendarme » dont le rôle essentiel serait de sanctionner les dépassements de vitesse, ici les dépassement de la puissance souscrite.
(Ce rôle était précédemment tenu par le disjoncteur BACO, qui « autorisait » des dépassement de puissance assez larges).
Les installations « standard » étant aujourd’hui la majorité, EDF propose une application minimale dans laquelle le compteur Linky intervient pour proposer au client un délestage ciblé.
Le client (ayant souscrit à de programme) reçoit la veille un avis de réduction de puissance crête, moyennant évidemment un avantage tarifaire. Il doit alors faire en sorte que cette puissance ne soit pas dépassée, le compteur ayant été réglé à distance sur la valeur de courant convenue. A lui de réduire ses appels de puissance, par exemple en évitant de faire fonctionner ensemble plusieurs appareils gros consommateurs.
Cette application minimaliste est en cours d’expérimentation à Lorient, dans un groupe de 900 abonnés équipés du compteur Linky (Projet Smart Grid SOLENN).
Elle a pour but de tester les comportements des usagers dans cette démarche qui se veut participative, en les incitant à s’intéresser à leur profil de consommation, et en leur montrant qu’il peuvent l’aménager pour réduire leurs appels de puissance sans nuire à leurs besoins.
(Lorient a été choisie parce que la Bretagne est en situation d’urgence électrique, la production de cette région ne couvre que 13% de ses besoins).
D’autres projets analogues sont en cours, qui permettront de démontrer l’utilité du nouveau compteur, et l’importance de l’implication des usagers dans la gestion de leur énergie électrique.
Il ne fait aucun doute que la démarche d’implication des clients dans la gestion de leur consommation sera longue et nécessitera beaucoup de pédagogie.
La pédagogie seule ne suffira pas, si elle n’est pas renforcée par de réelles incitations tarifaires.
Egalement il n’est pas absurde d’envisager de faire appel à l’Education Nationale pour sensibiliser la jeune génération aux problèmes de l’énergie, et la convaincre de l’importance de ses futurs choix.
____________________

Repost 0
5 janvier 2017 4 05 /01 /janvier /2017 11:21

5 Janvier 2017
Avant toutes choses nous devons examiner le graphique suivant:
 

Les énergies renouvelables et le délestage électrique.

Nous y voyons, pour la période du 23/01 au 19/02  de l'année 2012 , un exemple de la puissance délivrée par chaque type de moyen de production pour une puissance installée de 1 GW.
(la source est facilement accessible sur le net).
Tout le problème de l'intégration des énergies renouvelables est résumé dans ce graphique, ce qui nous évite bien des discours.
La transition énergétique consistera, en gros,  à remplacer la courbe bleue par les courbes rouge et verte.
A l’évidence, ce remplacement ne pourra pas s’opérer sans une profonde restructuration des méthodes de production, de gestion, de distribution et d’usage de l’énergie électrique.
____________________

Malheureusement, la France est engluée dans les conséquences de choix énergétiques décidés en d’autres temps.
Tant que le sort de l’électronucléaire ne sera pas clairement et définitivement réglé, rien de sérieux ne pourra être développé dans le domaine des énergies propres et renouvelables.
Or, de par leur absence d’émissions de CO2, les centrales nucléaires sont conformes à l’esprit de la transition énergétique, le caractère renouvelable du combustible n’ayant jamais été sérieusement discuté, pas plus que les risques que cette technologie fait courir aux populations présentes et à venir.
Jusqu’à présent le programme nucléaire français n’est pas sérieusement menacé. La génération EPR, destinée à remplacer les REP de conception ancienne, poursuit son développement malgré quelques aléas.
Par ailleurs la production électronucléaire est incontestablement très efficace. Malgré les inspections en cours sur certains réacteurs, la puissance fournie par les réacteurs en service est encore de 53 GW ces jours derniers, soit un facteur de charge de 84% puisque la puissance nominale installée est de 63,2 GW.
(Ref: Eco2mix/RTE)
Du point de vue énergie électrique, le nucléaire reste la poule aux œufs d’or, ce qui explique évidemment les réticences des pouvoirs à abandonner la proie pour l’ombre.
Rappelons que le Gouvernement actuel a pris la décision héroïque de limiter la puissance électronucléaire à 63,2 GW installés, qui est précisément la puissance installée du parc actuel.
En clair, on continue sans rien changer.
(C’est ce qui s’appelle familièrement la politique du chien crevé au fil de l’eau…).
 
En contrepartie, on comprend également leur peu d’enthousiasme à s’activer dans le domaine des énergies propres et renouvelables, pour le quel tout est à faire, avec beaucoup d’inconnues technologiques et un résultat final non garanti.
Cependant les énergéticiens, conscients de l’inéluctabilité de la mutation du nucléaire vers les « vraies » renouvelables, savent qu’ils devront gérer l’inévitable révolution. Ils s’y préparent donc comme nous allons le montrer ci-après.
__________________

Les grands problèmes de la transition énergétique sont connus et largement documentés dans des rapports de RTE, de la CRE, et des autres institutions concernées, le tout accessible sur le net.
Les principaux sont les suivants:
- le remplacement d’une production de base continue et contrôlable par une production intermittente imprévisible et incontrôlable.
- Le remplacement d’un réseau unidirectionnel par un réseau bidirectionnel.
- Le remplacement d’un système à production centralisée par un système décentralisé.
- L’intégration des systèmes d’injection et d’autoconsommation.
- le remplacement d’une gestion d’adaptation de l’offre à la demande par un système où c’est la demande qui devra s’adapter à l’offre.  
- Le remplacement d’une gestion semi-autonome par pays, par une gestion en grande partie spécialisée par régions.
( ex: l’Hydraulique dans les pays scandinaves et de montagne, le solaire dans les régions du Sud, l’éolien sur les littoraux ).
- La nécessité de construire des installations de stockage d’énergie de grande capacité.
- La nécessité de développer les capacités d’échanges transfrontaliers très au-delà des besoins actuels.
- La nécessité de réformer les habitudes d’usage de l’électricité en obtenant l’adhésion et la participation des usagers au système de gestion intelligente de la ressource.
- La poursuite de la mise en place du grand marché Européen de l’électricité tel qu’il a été défini par les instances communautaires.

Toutes choses qui, aujourd’hui, n’existent pas ou n’existent qu’à l’état embryonnaire et qui devront être largement développées.
_____________________

Nous sommes évidemment très loin du « simple » problème de construction de parcs éoliens ou de fermes solaires, qui ne représentent « que » la partie visible de l’iceberg.
(N’oublions pas que c’est la partie cachée d’un iceberg qui à coulé le Titanic).
Les usagers ont pris des habitudes de vie fondées sur une disponibilité permanente et pratiquement illimitée de l'électricité.
Cet "Etat de grâce" était entretenu par l'énergéticien historique qui se faisait un devoir de tenir prêtes les installations de production, et au besoin d'en construire de nouvelles.
(C’est sur cette base que fut construit le parc de 58 réacteurs nucléaires).
Tout cela devra être oublié, nous entrons dans une autre époque. Avec la transition énergétique, l'électricité va devenir une denrée parcimonieuse dont la disponibilité permanente ne sera plus garantie, et qui pourra nous être mesurée chichement.
Sauf si nous prenons le problème à bras-le-corps, plutôt qu’en regardant ailleurs en niant la réalité.
(Tout cela n’a évidemment de sens que si la France décide de se retirer du nucléaire ).
____________________

Actuellement, en période hivernale, la consommation électrique est maximale en soirée aux alentours de 19 heures, et ce pic atteint une valeur qui dépend des conditions météo du moment.
Un Pic de consommation de 102 GW a été enregistré au cours de l’hiver 2012, mettant le réseau au bord de l’apoplexie.
La demande de puissance augmente d'environ 2,4 GW par degré de variation de la température extérieure en hiver.
(Coefficient de thermo sensibilité remis à jour en 2015 par RTE)
Cette grande sensibilité aux conditions météo est une spécialité française à cause du chauffage électrique encore très répandu, et utilisé dans des logements en général très mal isolés thermiquement.
(Le chauffage électrique n’est pas en soi répréhensible, puisque la transition énergétique conduit à remplacer le fuel et le gaz naturel fossiles par de l’électricité renouvelable. Le problème réside dans la faible efficacité énergétique des logements du parc ancien).
__________________

Avant hier  notre pic de puissance a atteint 88,3 GW, malgré une météo relativement clémente, avec des températures moyennes proches de la normale.
Cette puissance a été obtenue avec le mix suivant:
Nucléaire:        52 GW
Hydroélectrique:    13,9 GW
Gaz naturel:        9,2 GW
Charbon:        2,3 GW
Fioul:            2,1 GW
Solaire:        0
Eolien:        1,9 GW
Importations:    6 GW

Quelques remarques:
- Le facteur de charge du nucléaire demeure élevé ( 82,3%) malgré les problèmes en cours, la plupart des réacteurs ont repris leur travail.
- Le nucléaire et l’hydraulique fournissent près de 75% de la puissance, et demeurent l’ossature du mix électrique.
- Les fossiles fournissent plus de 15 % de la puissance, avec encore 2,3 GW de charbon !
- Le solaire est absent, normal à 19 heures.
- L’éolien fait de la figuration, le vent n’est ni prévisible, ni contrôlable.
- Les importations sont à un niveau élevé, le maximum technique étant à 9 GW environ .
- Et surtout la participation des énergies nouvelles est inférieure à celle du charbon (!!!), ce qui démontre que nous avons encore beaucoup de chemin à parcourir sur la route de la « vraie » transition énergétique.
____________________

Cette analyse montre que nous n’avons pas beaucoup de marge de manœuvre pour faire face à une forte demande de puissance:
- Le nucléaire, avec 82,3% de Fc, est déjà proche de son maximum.
- L’Hydraulique dépend de la pluviométrie de l’année, et les réserves doivent être utilisées avec précaution, en prévision des autres périodes de grand froid.
- Le solaire, n’en parlons pas à 19 H en hiver.
- L’éolien fait ce qu’il peut, au petit bonheur la chance…
- les importations sont limitées par la capacité technique des liaisons transfrontalières, dont le maximum est à 9 GW aujourd’hui selon RTE.
(Nous en pompons déjà 6).
- Il nous reste les centrales thermiques avec le Gaz, le fioul et le charbon !
Ce n’est pas par hasard que EDF investit dans un programme de développement de nouvelles unités à cycles combinés à gaz, car la situation actuelle, encore gérable, ne peut qu’empirer si un programme de retrait du nucléaire est décidé, ce qui est dans l’air du temps.
La volatilité des énergies solaire et éolienne rend nécessaire un accroissement des capacités d’échanges transfrontaliers, afin de mettre les ressources en commun pour réduire l’incertitude.

__________________

Cette situation, déjà critique avec le mix actuel à peu près dépourvu d’énergies intermittentes, sera carrément ingérable lorsque l’éolien et le solaire participeront pour une part importante dans le mix électrique.

Placés dans une situation de menace de pénurie à certaines heures, il faut donc se donner les moyens de prendre des mesures pour éviter le « blackout ».
La mesure « intelligente » consiste à faire en sorte que la puissance demandée ne dépasse jamais la puissance disponible.
Aujourd’hui la puissance moyenne consommée est de 57 GW environ, pour une consommation annuelle de l’ordre de 500 TWh, corrigée des variations saisonnières.
Si la puissance max demandée atteint parfois près de 100 GW, c’est parce qu’il n’y a pas de répartition concertée de la demande. Le planning d’allumage des appareils est pratiquement le même pour tous les usagers, les habitudes de vie étant très voisines.
La première démarche, la plus logique, consiste donc à tenter de réaliser un « lissage » des pics de demande, en gérant les besoins avec la coopération des usagers, pour ramener la demande de puissance max à une valeur plus « raisonnable », par exemple 70 GW au lieu de 100, la puissance moyenne restant la même bien entendu..
Ce qui permettrait de réduire considérablement la puissance installée, et donc d’amorcer un retrait du nucléaire plausible.
C’est ce qui va être tenté grâce au « réseau intelligent » qui devrait pouvoir fonctionner avec le nouveau compteur Linky.
Mais ceci prendra beaucoup de temps, et le temps nous fait défaut car nous sommes déjà en situation de crise.
Il nous faut donc recourir à une solution moins intelligente, mais efficace, qui est le délestage concerté.
____________________

Les prévisions de réduction de la consommation électrique sont contrariées par les nouvelles applications.
Si le véhicule électrique se développe comme prévu, la maîtrise du pic de puissance deviendra impossible sans une intervention intrusive.
On peut espérer « raisonnablement » un parc électrique de 10 millions de véhicules, soit 30% du parc national.
Lorsque ces véhicules se brancheront en hiver le soir pour un complément de charge, même en mode charge lente 3 KVA, il se produira une surcharge du réseau à hauteur de 30 GW, qui provoquera un blackout immédiat.
A lui seul ce nouveau marché impose donc une remise en question des conditions d’exploitation de l’énergie électrique, indépendamment du problème de l’intégration des énergies intermittentes.
____________________

Aujourd’hui, le délestage concerté est déjà pratiqué, mais sur une petite échelle puisqu’il ne porte que sur 2 ou 3 GW.
On préfère parler d’effacement plutôt que de délestage, l’effacement étant en fait un délestage préalablement négocié contre un avantage tarifaire.
En complément du délestage, il est possible de réduire la tension du réseau dans la limite de -5%, ce qui entraîne une baisse de la puissance de 8 à 10%.
__________________

La stratégie de délestage (D’effacement) est évidemment préparée et ne se pratique jamais de manière sauvage, mais l’objectif prioritaire est d’éviter un black-out, qui est le cauchemar du gestionnaire de réseau. Lorsqu’il y a risque de black-out, certaines zones peuvent être coupées pour une courte durée, avec une stratégie tournante.
Il ne s’agit alors plus d’effacement négocié, mais bien de délestage.
Pour établir un programme d’effacement (Délestage négocié), le gestionnaire de réseau  identifie les sites qui peuvent offrir une capacité de flexibilité de charge, pour quelle quantité et quelle durée de disponibilité.
Ceci se réalise à travers des sociétés d'agrégation de flexibilité de charge.
Ces intermédiaires négocient d'une part avec des clients disposant d'une certaine flexibilité, à la hausse ou à la baisse, portant sur des quantités interruptibles, et proposent ces capacités de flexibilité agrégées au gestionnaire du réseau.
Les particuliers comme les professionnels seront sollicités pour contribuer à la régulation système.
Il existe ainsi un véritable marché des capacités d’effacement, puisque celles-ci sont négociées à un prix évidemment supérieur au prix Spot.
En 2015 la puissance d'effacement mobilisable était de 1,9 GW (Source RTE), l'objectif étant de l'augmenter considérablement pour permettre l'intégration de l'éolien et du solaire le moment venu.
Cette capacité d’effacement doit être fortement augmentée dans l’avenir afin de faire face à l’arrivée de l’électricité éolienne et solaire essentiellement intermittentes, qui ne représentent encore aujourd’hui que 5% de la production électrique .
Le nouveau compteur Linky  permettra de mettre en place une stratégie plus fine et surtout plus diversifiée, qui remplacera les systèmes actuels (Tarification EJP, système EcoWatt, …).
__________________

Nous entrons ainsi dans l’ère de la gestion par « flexibilité de charge », qui existe déjà sur des petits volumes, mais qui devra être considérablement développée.
Dès à présent les fournisseurs d’énergie électrique sont tenus de participer aux mécanismes d’ « obligation de capacités » en adhérant au dispositif NEBEF / Notification d’Echanges de Blocs d’Effacement.
Ils ont ainsi contractuellement l’obligation de tenir à disposition du gestionnaire de réseau une réserve de puissance effaçable disponible dans des délais précisés dans le contrat.
Ces réserves de puissance effaçable sont constituées de l’agrégation de capacités d’effacement négociées avec leurs clients, qui peuvent être des professionnels mais aussi des particuliers.
Les quantités et les durées d’effacement font l’objet de négociations tarifaires bien entendu.
____________________

D’une façon générale, il faudra mettre fin au principe de libre consommation électrique, pour le remplacer par le principe de gestion intelligente de la ressource.
L'usager devra accepter quelques contraintes et ne pourra plus utiliser l'électricité à sa guise en quantités quelconques et au moment de son choix. Il devra gérer son installation domestique de manière interactive et planifier le "timing" des différentes applications grosses consommatrices, comme le gros électroménager, l'ECS, le chauffage, la charge d'une batterie de voiture, une pompe à chaleur, etc.
Y compris en été pour la gestion des climatiseurs, et éventuellement le chauffage de l’eau des piscines...
Personne n'a encore trouvé le moyen de placer le vent et le soleil en mode de suivi de charge !
Jusqu'à présent, la production s'adaptait à  la demande, demain il faudra faire l'inverse, c'est la demande qui devra s'adapter à l'offre.
Il s'agit d'un changement de paradigme qui nécessitera de la part des usagers une révolution culturelle à laquelle bien peu seront préparés.
La transition énergétique risque de faire grincer quelques dents…
_______________________

Pour l’usager, le compteur Linky est le premier indice de ce changement.
C’est lui qui permettra la mise en œuvre du réseau intelligent, avec trois objectifs principaux:
- D’une part obtenir des usagers qu’ils acceptent le principe de l’adaptation de la demande à l’offre, en participant au programme de lissage des consommations.
- D’autre part, prendre le contrôle de la gestion des sites de production disséminés pour éviter les commutations « sauvages » entre production et autoconsommation, et surtout éviter les perturbations du réglage système.
- Enfin, s’appuyer sur le stockage d’énergie constitué par la chaleur des bâtiments et les batteries de voitures électriques, pour les intégrer à une grande réserve énergétique pouvant contribuer à la compensation de l’intermittence des renouvelables.
L’usager cesse d’être un receveur passif libre de soutirer la puissance qui lui convient, dans les limites de son abonnement, et au moment qui lui convient, sans se soucier du risque de mettre le réseau en difficulté.
Il devient un acteur dont dépend la robustesse du réseau.
Ce nouveau rôle ne convient pas à tous les usagers, certains sont hostiles à tout ce qui peut ressembler à un intrusion dans le domaine privé.
Un gros travail de communication sera donc nécessaire pour obtenir l’adhésion des usagers, sans lesquels il n’y aura tout simplement pas de transition énergétique.
En fait l’usager devra choisir entre deux solutions:
- Soit accepter de planifier l’utilisation de ses appareils pour contribuer au lissage de la puissance demandée sur le réseau.
- Soit accepter un programme de délestage plus ou moins négocié comme par exemple dans le programme SOLENN expérimenté avec le compteur Linky (Ecrétage ciblé).
___________________

Nous n’avons pas parlé des installations de stockage d’énergie électrique, car il n’y a rien à en dire pour le moment.
On rencontre déjà tellement de difficultés pour faire accepter les éoliennes offshore par les populations riveraines et par les professionnels, qu’il vaut mieux ne pas soulever le lièvre des STEP marines si l’on veut éviter une nouvelle révolte des bonnets rouges…
Et pourtant il faudra bien la stocker cette énergie, si nous voulons pouvoir gérer l’intermittence du solaire et de l’éolien.
Mais chaque chose en son temps. L’Homme politique qui osera proposer un programme de construction de STEP marines sur la côte Atlantique n’est pas encore né.
Alors certains construisent des scénarios à la limite du crédible. Il y serait question d’utiliser les capacités de stockage de certains pays comme la Norvège, qui seraient reliées par câbles THT courant continu sous-marins aux sites de production…
Affaire à suivre.
_________

 

 

Repost 0
23 décembre 2016 5 23 /12 /décembre /2016 11:54

Transition énergétique: Promesses, promesses….

24 Décembre 2016
Père Noël est en route pour garnir nos souliers.
Le vieux monsieur inoxydable va passer comme chaque année, laissant un lot d'heureux et un lot de déçus.
Nos hommes politiques, qui n'en sont plus à une mystification près, tentent d'usurper les fonctions de l'honorable vieillard en prétendant détenir des hottes pleines de merveilles, qu'ils sont prêts à déverser sur le bon peuple en échange d'une simple bulletin de vote.
En avons-nous connu de ces programmes mirifiques d'avant le mois de Mai, bien vite oubliés passé le second tour…
Les mêmes programmes peuvent d'ailleurs servir plusieurs fois, c'est l'avantage d'une promesse jamais réalisée, d'être quasiment inusable.
C'est le cas, entre beaucoup d'autres, de la transition énergétique.
Nous avons retrouvé le programme de développement de l'éolien off-shore  français, décidé en 2010 après les débats publics tenus du 28/04 au 10/09/2010.
Pour faire court, ce programme, établi après concertation était le suivant:
Le Tréport, 750 MW
Fécamp, 500 MW
Courseulles, 500 MW
Saint Brieuc, 500 MW
Saint Nazaire, 750 MW
Soit 3 000 MW installés, pour un investissement évalué à 10 Milliards d'euros ( 600 machines de 5 MW).
Les parcs devant être opérationnels en 2015.
L'objectif paraissait raisonnable, puisque la technologie choisie était standard (D'autres parcs off shore étaient déjà en fonctionnement en Europe du Nord avec les mêmes machines et avec la même implantation mono pieu sous faible profondeur d'eau).
En somme, un projet "sans histoire".
______________________

Aujourd'hui, sept ans plus tard, pas une seule éolienne offshore n'est encore visible depuis la côte, même par temps clair et avec une paire de jumelles.
On en est encore à discuter le bout de gras avec on ne sait plus très bien qui pour résoudre on ne sait plus quels problèmes avant de commencer, peut-être un jour, les travaux.
Il paraît, aux dernières nouvelles, que les premières machines tourneraient pour 2020...ou 2021, c'est juré.
Trois présidents (Le troisième sera élu dans six mois) auront eu à traiter de ce programme, sans aucun résultat concret jusqu'à présent.
On n'ose imaginer les sommes qui auront été dépensées pendant ce temps par les commissions de ceci, les cabinets d'expertise de cela, les réunions interministérielles d'experts, pour savoir qui, quand et comment on allait procéder.
Et pourtant il s'agit d'un programme classé prioritaire, soutenu par l'Etat, c'est-à-dire par vous et moi, qui fait partie des engagements solennels de la France, réitérés par les présidents successifs au cours des grand-messes COPxx, en accord avec la Communauté Européenne, et avec ses financements.
______________________

On peut dès lors se demander si tout cela ne serait pas une simple mascarade, certes tragique, destinée à amuser la galerie en donnant au bon peuple une image de dynamisme de bon aloi, un rideau de fumée destiné à cacher un conservatisme forcené ayant depuis longtemps décidé de laisser les enfants s'amuser avec les moulins à vent pendant que les grandes personnes vaquent à leurs affaires courantes.
Lesquelles affaires courantes sont en l'occurrence le développement du nucléaire et les accords sur les fournitures de pétrole et de gaz naturel.
(Avec en coulisse un regard en coin vers les gaz de schiste et le "revival" du Charbon).
Savez-vous que pendant que les discussions sur les parcs éoliens s'éternisaient, il a été procédé à la modernisation de la centrale à charbon de 600 MW du Havre ?
Non, ce n'est pas une blague…  
_____________________

La lecture de ce programme fantôme sur l'éolien offshore français permet par ailleurs de déceler une étrange anomalie concernant le montant des investissements prévus; étrange en ce sens qu'elle n'a soulevé aucune observation de la part de ceux qui ont, sur d'autres projets, crié au scandale à propos du coût.
Le programme éolien offshore dont nous parlons porte (portait) sur une puissance installée de 3 000 MW , pour un investissement de 10 Milliards, pour commencer.
(Et l'on sait ce que valent les budgets initiaux…, surtout s'agissant d'off-shore).
Le facteur de charge des éoliennes marines est de 35% environ, selon les résultats déjà constatés sur des parcs existants dans d'autres régions européennes.
L'énergie moyenne produite annuellement serait donc de 9 TWh, ce qui porte l'investissement à 1,1 Milliard par TWh  de production annuelle.
Par comparaison l'EPR de Flamanville produira 13 TWh par an, également pour un investissement réactualisé de 10 Milliards, soit 0,8 Milliard par TWh.
Oui, vous avez bien lu:
L'investissement (Initial) de l'éolien off shore, par TWh annuel produit, est donc de 37 % supérieur à celui de l'EPR réactualisé, sachant que ce réacteur est un prototype alors que les éoliennes de 5 MW prévues dans le projet sont des machines déjà industrialisées.
Et de plus, les éoliennes marines ont une durée de vie de 25 ans, contre 60 pour un EPR.
Et pourtant aucune voix ne s'est élevée pour s'étonner du montant de l'addition éolienne, alors que l'EPR a fait l'objet de multiples plaintes pour dépenses jugées déraisonnables, voire scandaleuses.
(Ce coût, jugé extraordinairement élevé par les opposants, reste l'un des paramètres importants du dossier à charge contre le nucléaire).
Comprenne qui peut.
____________________

L'autre anomalie qui se révèle à la lecture du rapport sur l'éolien offshore est l'absence (Disons plutôt l'oubli volontaire) d'une partie essentielle de l'investissement, celle qui concerne les installations de compensation de l'intermittence.
On sait en effet que la production éolienne, comme la production solaire, est soumise aux caprices de la météo.
L'injection de cette production, à un niveau élevé, dans le réseau de distribution nécessite donc des installations de compensation de ces fluctuations très peu prévisibles. Ceci n'est plus à démontrer, le problème étant bien documenté par les énergéticiens, et les dossiers étant  consultables sur le net.
Ces moyens de compensation sont divers:
Centrales hydroélectriques, Stations de pompage/turbinage, centrales thermiques de relève, filière Hydrogène et pile à combustible, moyens de stockage Electrochimique, ou par inertie, achats de capacités de stockage à l'étranger, éventuellement par câble sous-marin, etc.
Pour gérer une production fluctuante il faut, en plus de ces moyens de stockage tampon, un système de gestion du réseau capable d'adapter la demande à l'offre lorsque les moyens de compensation sont débordés. Il s'agit du "Smart grid", ou réseau intelligent.
Tout cela est également bien connu et largement documenté, même si les opposants aux compteur Linky font semblant de n'avoir rien compris.
(Faire l'âne pour avoir du son est une technique bien connue).
Tout cela coûte extrêmement cher, et ce coût doit logiquement être intégré au coût de mise en place d'une production intermittente.
C'est du moins ainsi que l'on procède dans l'industrie, selon les règles de l'art.
Ce "petit" détail n'a bien sûr pas échappé aux promoteurs des parcs éoliens, du moins nous osons le croire. L'omission est donc délibérée, ce qui est une tromperie qui risque de compromettre le succès du projet non seulement au plan financier, mais aussi au plan technique.
En plus du prix du KWh sortant des éoliennes, les consommateurs devront donc supporter les coûts supplémentaires des installations de compensation de l'intermittence, dont on ne leur aura jamais parlé…
Les factures deviendront plus lourdes.
_______________________

Heureusement la cata n'est pas pour demain matin.
D'abord parce que les fameuses éoliennes offshore françaises n'existent encore que sur le papier.
Ensuite parce que la production électrique des 600 machines ne représentera que 1,6% de la production brute électrique française, qui est de 550 TWh.
Et d'ici 2020, EDF aura pris les mesures nécessaires à la gestion de cette énergie capricieuse.
A condition toutefois que les usagers, bernés par les anti-tout, ne s'opposent pas à la mise en œuvre du réseau intelligent.
Mais ceci est une autre histoire…
___________________

En fait, les atermoiements actuels risquent de se prolonger encore longtemps. En effet, à force d'attendre l'arme au pied pendant cinq ans, la technologie a évolué, et maintenant la rentabilité est du côté des très grosses machine, de 8 MW voire davantage.
Et pour faire accepter ces machines, il faut les envoyer au large, donc les rendre flottantes car la profondeur ne permet plus un ancrage rigide sur le  fond.
Le projet doit donc être entièrement revu, de même que son financement car la nouvelle technologie exige des investissements beaucoup plus élevés.
Il est donc probable que nous devions encore attendre "un peu" avant de voir les premières éoliennes off shore françaises.
(Nous parlons bien sûr des parcs éoliens productifs et raccordés au réseau, et non des nombreux démonstrateurs dont on nous vante les performances époustouflantes, mais hélas non suivies de réalisations).
Un délai technique qui ne manquera pas de satisfaire les détracteurs de cette technologie, qui la considèrent ruineuse, peu efficace, et très encombrante.
Opinion évidemment discutable…
___________________

Il faut voir, dans cette marche chaotique vers la transition, une conséquence de notre politique énergétique, qui fut décidée et fixée il y a un demi-siècle.
Politique sur laquelle il n'y a plus lieu de revenir, quand le vin est tiré il faut le boire, nous parlons bien sûr du nucléaire dont il faudra bien se débarrasser un jour.
Aujourd'hui, grâce à des choix énergétiques initialisés par "qui vous savez" à la sortie de WW2,  la France peut présenter un mix électrique pratiquement vierge de tout CO2:
75 à 80% de nucléaire, 10 à 15% d'hydroélectrique, un peu de solaire et d'éolien terrestre, et nous voilà à hauteur de 90 % d'électricité "propre" au sens de la lutte contre le changement climatique.
(Le caractère renouvelable ou pas du nucléaire n'ayant jamais été réellement débattu au niveau international, le doute profite donc à l'accusé).
L'électricité ne représente que le quart environ de notre consommation énergétique finale.
Le reste, c'est-à-dire la plus grosse partie, est couvert par les énergies fossiles, mais avec un soupçon d'énergie renouvelable à carbone recyclable, qui est le bois-énergie.
Nous pouvons donc dès à présent nous prévaloir de 30% environ d'énergie "conforme" à l'esprit de la transition, même si dans le détail il y aurait beaucoup à dire.
En ajoutant un peu de biocarburants par ci, un peu de biogaz par là, un zeste de géothermie, et surtout en forçant sur les économies d'énergies fossiles, nous pouvons présenter un bilan flatteur sans avoir à dépenser d'efforts supplémentaires.
Ceci explique peut-être cela.
_________________

Tout se passe (Ou plutôt ne se passe pas) comme si cette histoire de réchauffement climatique était une bonne blague, à surtout ne pas prendre au sérieux.
Entre ceux qui doutent de la culpabilité réelle du CO2 anthropique, ceux qui pensent qu'un peu plus de CO2 serait bénéfique pour l'agriculture, ceux qui affirment que tout çà c'est la faute du Soleil, ceux qui simplement "ne croient pas" au réchauffement, ceux qui y croient mais pensent que deux ou trois degrés de plus ne feraient pas de mal, ceux qui croient en la démarche de capture et séquestration du Carbone, ceux qui attribuent les variations climatiques aux cycles naturels de Milankovic, ceux qui prédisent l'exploitation de l'Hydrogène naturel, ceux qui préparent la mise au point d'un nucléaire "propre", ceux qui annoncent la fusion froide, ceux qui pensent que nous avons des problèmes plus urgents à résoudre, ceux qui disent qu'un pays en faillite ne peut pas se permettre de casser un outil de production qui marche pour en construire un autre problématique, ceux qui réclament des investissements dans les énergies durables mais refusent de voir le prix du KWh augmenter, et ceux qui s'en foutent complètement, il est difficile de continuer à défendre des positions vertueuses, si mal défendues par les gouvernements eux-mêmes.
__________________

La représentation théâtrale de la transition énergétique suit cependant son cours sans faillir. Nous venons d'avoir droit à deux annonces de la Ministre chargée, entre autres, de notre avenir énergétique.
La première concerne un projet d'éolienne offshore flottante, la seconde est relative à l'inauguration d'un tronçon de un kilomètre de route "solaire" pavée de panneaux photovoltaïques.
L'éolienne en question n'est pour l'instant qu'un démonstrateur de 2 MW, destiné à prouver la faisabilité de la chose, pour éventuellement songer plus tard à rentrer dans le vif du sujet.
La route solaire est une idée déjà ancienne, mais dont la réalisation implique la résolution de problèmes de haut niveau comme la tenue aux surcharges des véhicules d'exception y compris à chenilles, le vieillissement sous environnement très hostile ( Température, chocs, contraintes mécaniques, déformation des soubassements, résistances aux agents corrosifs, aux incendies de véhicules, etc) , les qualités routières du revêtement, la tenue au gel, et bien entendu le coût de l'investissement et la compatibilité avec les procédures et matériels d'entretien de la voierie.
Il s'agit donc d'un projet d'études de fond qu'il faut saluer, mais qui n'aura pas de retombées à grand échelle avant longtemps, s'il y en a un jour.
Ces deux lapins, sortis du chapeau de madame la Ministre, ont surtout intéressé les délégations taïwanaise, japonaise et chinoise, on se demande bien pourquoi…
_____________________

 

 

 

Repost 0
14 décembre 2016 3 14 /12 /décembre /2016 16:38

De la relativité du risque nucléaire.

14 Décembre 2016

Dans une installation nucléaire, la cuve du réacteur est le seul composant dont le remplacement n’est pas envisagé dans le programme de maintenance « normal ».
( les raisons en sont à rechercher auprès des concepteurs des années soixante-dix, cette analyse nous entraînerait trop loin).
On peut par contre remplacer tout le reste, et on ne s’en prive pas au cours de la vie de l’installation.
Générateurs de vapeur, tuyauteries, pompes, soupapes de sureté, pressuriseur, injection d’eau de refroidissement de secours, etc… tous les composants qui interviennent dans la régulation de température et de pression, tous les composants de sécurité, tout cela est remplacé lorsque c’est nécessaire, même le couvercle de la cuve.
Mais la cuve elle-même, non.
C’est donc l’état de cette cuve qui va déterminer le moment du départ en retraite du réacteur.
Sauf si l’exploitant décide d’arrêter plus tôt pour des raisons de coûts de maintenance excessifs, ou pour non-conformité avec les nouvelles règles de sécurité, ou pour tout autre raison.
____________________

S’agissant d’un chaudron en acier avec des parois de 25 centimètres d’épaisseur, on imagine sans peine qu’il peut résister longtemps à de nombreuses sollicitations, pourvu que le matériau soit de bonne facture.
Il contient le combustible nucléaire sous forme de pastilles empilées dans des crayons en alliage de Zirconium.
Comme dans une chaudière de chauffage central, la chaleur dégagée par la réaction nucléaire est évacuée par de l’eau « normale » grâce à des pompes ad-hoc, vers des générateurs de vapeur, laquelle vapeur fait tourner une turbine entraînant un alternateur générateur d’électricité, comme dans n’importe quelle centrale thermique, enfin presque.
La température est d’environ 300 °C et la pression de 150 Kg.
Pas de quoi effrayer une chaudron d’acier avec des parois de 25 cm.
La différence avec votre chaudière, en plus de la température et de la pression élevées, c’est que l’eau est radioactive, contaminée par son passage au sein des crayons de combustible, et rendu acide par l’usage d’acide borique pour contrôler la réaction.
L’acier de cuve est attaqué par l’acide borique. Pour le protéger, l’intérieur de la cuve est tapissé d’un revêtement soudé d’acier inox de 1 cm d’épaisseur.
Le couvercle de la cuve est démontable, pour permettre le remplacement du combustible, tout les 18 mois environ.
On en profite alors pour effectuer un contrôle de l’intérieur avec des instruments sophistiqués capables de détecter des microfissures, ou tout autre anomalie.
Tout les dix ans on procède à une grande « visite décennale » au cours de laquelle une machine spéciale introduite dans la cuve analyse l’évolution de l’acier sous l’effet du vieillissement sous flux de neutrons.
Pour affiner l’évaluation du vieillissement, il y a à l’intérieur de la cuve des éprouvettes d’acier prévues pour être prélevées lors des visites décennales afin de mesurer au banc l’évolution des caractéristiques de l’acier.
On inspecte également particulièrement les soudures, tant des viroles de cuves que des tuyauterie du circuit primaire, et le bon état des passages des barres de contrôle de la réaction, du dispositif de commande des grappes de crayons de combustibles, et des passages de l’instrumentation, pour détecter toute trace de fuite.
__________________

L’exposition de l’acier de cuve au flux de neutrons entraîne une modification des caractéristiques mécaniques du métal, notamment la frontière ductile-fragile, les migrations d’impuretés à l’intérieur de la structure du métal, et la propagation d’éventuelles microfissures.
Tout cela est mesuré lors des visites d’inspection.
Ces données sont indispensables pour évaluer le vieillissement de la cuve.
Des modèles du processus de vieillissement de l’acier à partir de sa composition initiale, et des mesures effectuées périodiquement sur les échantillons prélevés à l’intérieur, permettent de suivre la «vie» du métal.
On comprend que, s’il s’avère que la composition initiale n’était pas conforme au cahier des charges, il devient nécessaire de ré évaluer les modèles pour les pièces en question.
Sans pour autant les condamner à priori; il s’agit en fait de remettre en phase les modèles d’évolution dans le temps.
On ne peut cependant exclure la possibilité que cette « remise en phase » conduise à conclure à la nécessité de réformer la cuve. Le réacteur est alors mis au rebut.
___________________

Une cuve, même âgée, se comporte sans problème dans les conditions « normales » .
Mais, comme une personne d’âge, elle peut ne pas supporter les variations trop brusques de température et de pression.
De telles conditions peuvent survenir dans des conditions accidentelles de perte importante de réfrigérant primaire.
Cet APRP, Accident par Perte de Réfrigérant Primaire, est redouté de tous les exploitants de ce type de réacteur.
Il peut survenir lors d’une rupture (Une « brèche ») importante d’un élément du circuit primaire, tuyauterie, raccord, pompe, pressuriseur, circuits des générateurs de vapeur.
Les tubes échangeurs de chaleur des générateurs de vapeur sont particulièrement vulnérables en raison de la faible épaisseur de leurs parois. Ils sont l’objet d’une surveillance permanente; toute fuite est détectée grâce à une mesure en continu du taux de radioactivité de l’eau secondaire, et à la variation brusque de pression du GV concerné.
On peut alors intervenir rapidement et ainsi éviter un APRP.
(Le GV est alors isolé du circuit primaire, et réparé ou remplacé).
Une brèche importante peut conduire à un APRP.
Lorsque survient un APRP, il est nécessaire d’injecter de l’eau dans la cuve pour maintenir le niveau afin d’éviter que les crayons de combustibles soient dénoyés. Cette eau est évidemment « froide » est crée une brusque variation de température, qui peut ne pas être bien supportée si l’acier de la cuve a mal vieilli.
Rappelons que si les crayons de combustibles restent dénoyés, la situation peut rapidement dégénérer vers une catastrophe type Fukushima.
______________________

Dans le REX (Retour d’EXpérience) il n’y a pas d’exemple connu de rupture de cuve comme élément initiateur d’un APRP.
Par contre, une rupture de cuve peut survenir suite à un APRP.
Si l’APRP est pas ou mal maîtrisé, on peut s’attendre à un percement du fond de cuve par le corium dont la température est extrêmement élevée.
Ce corium violemment radioactif se répand alors dans la nature, sauf si un dispositif de contention et de refroidissement a été prévu sous le réacteur.
(Les REP du parc existant en sont dépourvus, contrairement aux futurs EPR).
Dans ces circonstances on assiste généralement à une explosion liée au dégagement d’Hydrogène.
______________________

Il apparaît finalement que, même en présence d’une cuve de bon aloi, la survenue d’un APRP mal contrôlé conduit à la catastrophe par un enchaînement de circonstances fatales, quel que soit l’état de la cuve.
Le problème est donc certes de surveiller la cuve (et le reste), mais aussi de mettre tout en œuvre pour d’une part éviter que se produise un APRP, et d’autre part prendre toutes les dispositions pour le maîtriser s’il se produit, et en limiter les conséquences.
A ce sujet, la catastrophe de Fukushima a conduit à mieux mesurer l’importance de certains risques, peut-être sous estimés auparavant.
Ce qui a conduit à certains aménagements sur les installations existantes.
___________________

Les études initiales sur la probabilité de rupture de cuve d’un réacteur sont résumées dans le document suivant:
http://www.iaea.org/inis/collection/NCLCollectionStore/_Public/15/049/15049924.pdf
______________________

Concernant la contestation de la validité des conclusions officielles sur la sureté des cuves, on peut lire ceci:
http://www.enerzine.com/2/18163+fissures-de-cuves-de-reacteurs-nucleaires---un-probleme-mondial+.html
______________________

Le problème n’est plus de savoir si l’électronucléaire est une technologie dangereuse ou pas. Tchernobyl et Fukushima en ont fait suffisamment la démonstration.
Il n’est plus acceptable désormais de se cacher derrière des analyses de fiabilité prévisionnelles fumeuses.
Continuer dans la même voie c’est clairement accepter le risque d’une telle catastrophe sur notre territoire.
______________________

Pour ce qui est des risques de rupture d’une cuve de réacteur, le texte ci-dessous témoignera de la difficulté de décider si, oui ou non, le risque existe:

« Pour certains spécialistes en effet, l'hypothèse de la non rupture de la cuve est complètement arbitraire, car pourquoi considérer la rupture nette et brutale d'une tuyauterie primaire principale et pas la rupture de la cuve, tout aussi improbable, si ce n'est parce que dans le premier cas on sait construire des enceintes qui résistent, et pas dans le second. Ceci revient à dire que dans ces études d'accident, on ne prend en compte que ce que l'on est capable de prendre en compte. Le concept de l'accident maximum plausible resurgit et le problème est posé d'un consensus autour de ce qui est jugé «vraisemblable». Les deux hypothèses se défendent : les tuyauteries sont des zones de concentration de contraintes au niveau des raccordements et elles sont nombreuses donc il y a plus de raisons qu’un problème survienne au niveau des tuyauteries que sur la cuve. A l'inverse, on peut penser que la cuve est plus soumise à l'irradiation par les neutrons et que par conséquent la fragilisation est nettement plus grande, la probabilité de se trouver dans la zone de rupture fragile est plus grande pour la cuve que pour les tuyauteries qui sont situées plus loin . »

Source:
Archives CEA, Fonds du Haut-Commissaire, F3 23 49, «Réunions programmes 1972-1980», relevé de décisions prise par l'Administrateur Général à la suite de la réunion du programme «sûreté des réacteurs à eau bouillante» tenue au Siège le 21 mai 1974, intervention de Bourgeois sur la sûreté des réacteurs à eau ordinaire.

On peut voir que les avis étaient partagés, et ceci dès le lancement du programme nucléaire.
Quarante  ans plus tard, nous en sommes toujours au même point.
Faudra-t-il consulter madame Irma pour savoir si tel chaudron est sur le point de nous sauter au nez ?
Que penseront nos descendants si, en plus de nos déchets nucléaires qu’ils leur faudra gérer sur des millénaires, nous leur laissons un sol empoisonné et stérile ?

_____________________

 

 

Repost 0
12 décembre 2016 1 12 /12 /décembre /2016 19:10

 

12 Décembre 2016
Les énergies renouvelables sont au cœur de la démarche de transition énergétique.
Depuis plus de vingt ans, les citoyens sont invités à économiser l’énergie, et les Gouvernements successifs se sont engagés sur des programmes dont l’idée générale est le remplacement des « vieilles » sources d’énergie par des sources renouvelables, propres, décarbonées ou à carbone recyclable.
Il est temps de faire un état des lieux afin de mesurer l’effort déjà accompli et surtout l’effort qu’il nous reste à accomplir pour réaliser l’objectif.
C’est ce que nous nous proposons de faire ici.
_________________

Notre consommation d'énergie finale s'élève à 160 Mtep environ, relativement constante ces dernières années, aux variations saisonnières près.
En unité des électriciens, cette énergie correspond à 1 860 TWh, dont 475 TWh d’électricité, environ le quart de l’énergie finale consommée.
Aujourd’hui encore, l'essentiel du mix énergétique est constitué des énergies "historiques", qui occupent le devant de la scène depuis des décennies, bien avant qu’il soit question de transition énergétique:
- Le trio des fossiles: Pétrole-Gaz Naturel-Charbon,
- L'Hydroélectrique, mis en place dans les années soixante-dix.
- Le bois énergie, utilisé depuis la nuit des temps.
- L'électronucléaire, qui fournit 75% de l'électricité.
Ces énergies représentent 94% de l’énergie finale consommée en 2014.
Les 6 % restant sont représentés par les énergies nouvellement développées dans le cadre de la transition énergétique:
- Eolien.
- Solaire photovoltaïque.
- Solaire thermique basse température (Chauffe-eau,…).
- Solaire thermique haute température ( A concentration).
- Géothermie basse température ( Chaleur).
- Géothermie haute température (Turbines).
- Biocarburants.
- Biogaz.
- Déchets de biomasse.
_____________________
6% de pénétration pour une palette de neuf technologies dont on nous présente depuis plus de dix ans des réalisations prometteuses, c’est un résultat qui appelle des commentaires.
Cette fort modeste participation des énergies nouvelles montre que la transition énergétique est encore un objectif extrêmement lointain.
Ceci n’est pas une critique, mais une simple remise en phase des proclamations médiatiques avec les réalités du terrain.
Source: Commissariat Général au Développement Durable.
       Chiffres clés de l’Energie.
       Edition 2015 publiée en Février 2016
Ces chiffres doivent nous inciter à une certaine modestie et, par-dessus tout, à ne pas sous-estimer l’ampleur de la tâche qui nous attend.
Les outils de la transition existent et  nous maîtrisons ces nouvelles technologies. Il nous reste maintenant à les développer.
___________________

L’éolien et le solaire sont les deux chevaux de bataille de la transition énergétique.
Aujourd’hui, en 2015, leur part ne dépasse pas 1,5% de l’énergie finale consommée.
(28,2 TWh sur un total de 1 860 TWh).
Pourtant les médias se laissent volontiers emporter par l’enthousiasme et n’hésitent pas à les considérer comme prêts pour remplacer tout à la fois du pétrole, du gaz naturel et du nucléaire, la chose pouvant s’accomplir dans les dix ans qui viennent, grâce à la puissante méthode du « Ya ka ».
Là encore il y a lieu de tenir compte des réalités de terrain, et de ne pas confondre la carte avec le territoire, comme dirait l’autre…

________________________


L’énergie éolienne est certes une énergie d’avenir, elle est un passage obligé que personne ne songe à remettre en question.
Mais sa mise œuvre soulève quelques problèmes qu’il ne faudrait pas négliger sous peine de graves déboires.
Et il y a là aussi un problème d’échelle qu’il est essentiel de prendre en compte.
Le développement de l’éolien terrestre (Le seul existant en France) a mis en évidence les difficultés liées à des régimes de vents capricieux et irréguliers conduisant à des facteurs de charges inférieurs à 20%, et parfois moins selon les emplacements. D’autre part l’acceptabilité par les populations est elle-même problématique en raison de troubles liés à la proximité, et de nuisances visuelles, ce qui interdit pratiquement l’usage de grosses machines. Enfin l’irrégularité de la production terrestre crée des difficulté d’intégration de cette production sur le réseau, eu égard à l’absence d’installations de stockage de régulation.
Pour toutes ces raisons il a été reconnu que le développement de cette technologie devait passer par des installations « offshore », qui bénéficient de régimes de vents plus réguliers et plus forts, et d’une meilleure acceptabilité liée à la distance, ce qui permet d'utiliser des machines de puissance très élevée inacceptables à terre.
Par contre c’est une technologie incomparablement plus coûteuse que le terrestre, tant en matière d’investissements qu’en matière de maintenance et de raccordements.
Et il subsiste le problème de l’acceptabilité et de la coexistence avec les autres usages de l’espace maritime (Navigation, Pêche, Tourisme plaisance, aquaculture).
La France met en avant depuis des années sa position privilégiée en matière d’éolien off shore: des côtes maritimes abondantes et avec des régimes de vents variés permettant une production régulière et abondante.
Or, bien que cette technologie soit déjà implantée dans différents pays européens, et ailleurs dans le monde, elle est totalement absente chez nous.
Mais nous ne manquons pas de projets.
Le premier projet d’éolien offshore susceptible de voir le jour regroupera trois parcs sur des emplacements situés au large de Saint Nazaire, Fécamp, et Courseulles.
Pour un total de 238 machines de 6 MW ( Puissance totale installée de 1428 MW).
Avec un facteur de charge prévu de 35%, la quantité d’énergie produite annuellement s’élèvera à 5,5 TWh dans les conditions du catalogue.
Ce qui représente à peine la moitié de la production d’un seul réacteur nucléaire de la dernière génération des REP  de 1300 MW.
Ou encore la production d’une des dernières centrales à charbon supercritique de 600 MW de l’usine du Havre.
Ceci n’est pas un plaidoyer pour le nucléaire ou le charbon, mais simplement une base de comparaison des échelles.
Si tout va bien (Le contentieux avec les opposants n’est pas entièrement réglé) ces trois parcs entreront en production en 2020.
Cet apport de 0,3% à la consommation finale ne changera pas la face des choses, mais il faut bien prouver le mouvement en marchant.
_____________________

Le solaire n’est pas en meilleure posture. Le photovoltaïque raccordé au réseau ne fournit actuellement que 0,5% de notre consommation d’énergie finale.
Après le boom de 2010 et 2011, le déploiement s’est ralenti après 2012, en grande partie à cause de la révision des tarifs de rachat, qui met fin à l’effet d’aubaine du début.
Le solaire doit maintenant trouver un modèle économique plus adapté aux réalités. Au lieu d’être vu comme un placement financier (Qu’il n’a d’ailleurs jamais été vraiment) il faut l’intégrer dans un bilan global d’efficacité énergétique des bâtiments, qui passe d’abord par des performances thermiques de haut niveau.
Quand à la production solaire raccordée au réseau, elle trouve sa rentabilité dans des installations de puissance installée de plusieurs centaines de MW.
87% des installations (en nombre) sont des « petites installations » de moins de 3 KW, qui fournissent 18% de l’énergie électrique photovoltaïque, alors que 3% des installations sont des grosses usines solaires de plusieurs centaines de MW, qui fournissent 65% de l’énergie PV raccordée au réseau.
_______________________

Ce bilan des énergies nouvelles correspond à une situation d’attente.
Tant que la production électrique sera à près de 80% électronucléaire, et tant que le pétrole et le Gaz naturel seront disponibles à bas coût et quasiment sans taxe carbone, il n’y a aucune raison d’espérer un changement.
Certains indices montrent même que le Charbon renaît de ses cendres, ce qui serait un comble, après le matraquage que nous avons subi sur la nécessité de réduire les émissions de CO2.
Le coup de grâce serait la mise en production d’un site d’extraction de gaz de schiste…
____________________

 

 

 

Repost 0
5 décembre 2016 1 05 /12 /décembre /2016 18:57

 

5 Décembre 2016
Depuis déjà plus d’une décennie, l’ordre énergétique nouveau s’est donné pour emblème la Transition énergétique.
Cette mobilisation a pour objet principal, officiel, la lutte contre le réchauffement climatique.
Il y a d'autres motivations, sous-jacentes mais non moins importantes, comme la menace de pénurie de réserves fossiles et la recherche de l'indépendance énergétique.
Mais le réchauffement climatique, désormais dénommé "dérèglement climatique" est l'ennemi commun désigné en tant que danger immédiat, plus facilement identifiable qu’un accroissement infime de la température moyenne, souvent contredit par des évènements météorologiques locaux.
Le moyen retenu pour mener cette lutte est la réduction des émissions anthropiques de dioxyde de Carbone résultant de la combustion des énergies fossiles.
Les mots d’ordres censés galvaniser les citoyens consommateurs sont:
- Haro sur le CO2.
- Mort aux énergies fossiles.
- Sus au gaspillage énergétique.
- Gloire aux énergies renouvelables décarbonées: Eolien, Solaire, Hydraulique, Biomasse, Géothermie.
Cette liste résume l’essentiel des « commandements » de la nouvelle doxa, qui se voudrait l’expression de la religion écologique pour ce qui concerne l’énergie.
Les gardiens du temple sont les augures du GIEC, auto proclamés infaillibles en matière de climatologie.

La plupart des Etats de la Planète se sont ralliés officiellement à ce programme, même si ce n’est pas toujours pour les mêmes raisons.
(Du moment qu’il y a des sous à récupérer…).
Des actions fédératives sont décidées, des réunions œcuméniques annuelles sont organisées avec un grand apparat, au cours desquelles les engagements de chacun sont solennellement renouvelés.
Cette victoire apparente de l’Ecologie doit cependant être fortement nuancée car l’un de ses préceptes, et non des moindres, n’a pas été pris en compte dans la nouvelle doxa, qui revêt de ce fait un caractère schismatique.
Il s’agit de l’exigence d’abandon de la filière électronucléaire.
Il est vrai que cette technologie représente à la fois le meilleur de le pire:
Elle est une technologie décarbonée, ce qui satisfait l’exigence première de la transition énergétique. On ne peut donc pas lui montrer la sortie sans trahir l’engagement premier.
Par contre son caractère renouvelable n’a jamais été réellement démontré, sauf à se projeter dans un futur incertain avec la fusion nucléaire, saint graal de la filière, sorte de messie énergétique dont la venue est annoncée pour une date indéterminée, dans la plus pure tradition messianique.
Mais, dans sa forme actuelle, elle est aussi une technologie très sale, capable de polluer la Planète pour des milliers d’années, voire beaucoup plus.
L’absence de décision claire à son sujet font d’elle une Arlésienne qui s’invite à tous les conciles et qui, sans être présente, est au cœur de l’action grâce à un lobbying effréné.
C'est ainsi qu’en 2015, 450 réacteurs étaient en activité dans le monde, et 68 étaient en construction, dont 25 en Chine, incluant 2 EPR. Tout va bien, merci.
Il en résulte une ambigüité concernant la croisade du GIEC, dont on peut craindre qu’elle pourrait bien nous conduire à éviter Charybde pour mieux nous faire tomber dans scylla.
Certains se demandent même si le GIEC ne s’est pas laissé enfermé dans le rôle de « faire valoir », pendant qu’ailleurs le business se poursuit « as usual ».
Les fidèles du GIEC ne se posent évidemment pas ce genre de questions. Mais les « Libres penseurs énergétiques » (Oui, çà existe), qui lisent quand même les textes « sacrés », ne trouvent pas toujours, dans cette nouvelle « bible » que des éléments solidement établis. Il y a là matière à l’exercice du doute raisonnable.
La Science ne s’est-elle pas précisément construite sur la remise en cause des vieilles théories ?
Mais ne nous égarons pas.
Le développement des énergies éolienne, solaire, hydraulique, géothermique, et de biomasse, ne peut être qu’une bénédiction pour l’Humanité, quelles que soient les raisons qui conduisent à ce choix.
Il ne peut en résulter qu’un progrès pour les générations futures.
Et peut-être nous pardonneront-elles de leur avoir transmis nos déchets nucléaires, si en contrepartie nous leur laissons une énergie abondante et propre.
Cela vaut bien un effort, n’est-il  pas vrai ?
_________________

La France se veut en première ligne dans la lutte contre le réchauffement climatique, et ceci depuis les toutes premières escarmouches. La COP21 a été l'occasion de confirmer les engagements du concile, et de les mettre noir sur blanc lors de la COP 22.
Nous sommes donc fondés à croire qu’elle est devenue la vitrine de ce nouveau combat pour préserver la Planète.
Voyons donc ce qu’il en est concrètement du remplacement des énergies fossiles par des énergies propres et renouvelables.
Et plus spécialement pour la production électrique, puisque c’est le domaine privilégié de ces nouvelles énergies.
___________________

Avant qu’il soit question de transition énergétique, au siècle dernier, le mix électrique français reposait sur trois secteurs:
- L’électronucléaire.
- les centrales thermiques à flamme utilisant des combustibles fossiles.
- Les centrales hydroélectriques.
Par exemple, à la fin du XXè siècle, la production d’électricité se répartissait ainsi (En 2000):
- Electro nucléaire:        415 TWh
- Thermique fossile:      53 TWh
- Hydroélectrique:          72 TWh
        TOTAL:    540 TWh
Les énergies nouvelles de la transition énergétique étaient encore absentes du mix électrique, elles en étaient (Du moins en France) au stade de l'expérimentation.
( L’Hydroélectrique étant un acteur historique, dont l’existence ne doit rien à la « nouvelle » stratégie climatique).
15 années plus tard, et après moult réunions plénières des institutions internationales en charge du développement de la stratégie de transition énergétique, qu’en est-il en France ?
En 2015, la production d’électricité a été la suivante:
- Electro nucléaire:        417    TWh
- Thermique fossile:      34    TWh
- Hydroélectrique:          59    TWh
- Eolien:              21    TWh
- Solaire:                7,5 TWh
- Biomasse:                8    TWh
        TOTAL:    546     TWh

Le rapprochement des chiffres permet certaines remarques instructives:

- malgré la croisade proclamée contre le gaspillage d’énergie, la production est restée stable. Donc inefficacité complète de la stratégie sur ce point.
« On » avait simplement oublié que les gains d’efficacité énergétique seraient compensés par un accroissement des besoins liés à l’augmentation du nombre de ménages, la demande de confort, l’invasion des nouvelles technologies, et bientôt de la voiture électrique, de la pompe à chaleur, et même des climatiseurs.
Et surtout que les travaux d’isolation thermique des logements ne se décrètent pas.
En effet, contrairement à ce que pensent les hommes politiques, généralement issus de milieux aisés, ce n’est pas la mauvaise volonté qui freine l’essor des travaux d’isolation thermique, mais le manque d’argent, tout simplement.
(Eh oui, Madame le Ministre, çà existe les fins de mois difficiles…)
La transition énergétique était (est encore) basée sur une forte diminution de la demande électrique. Tout est donc à remettre en cause.
Heureusement tout n'est pas perdu car les ingénieurs de EDF, en général peu sensibles aux élucubrations des prévisionnistes du Gouvernement, ont bien anticipé cette demande d'énergie et ont su maintenir à niveau l'outil de production, il faut les en remercier.
(Les soutiers de l’énergie sont en général pleins de bon sens; on ne peut en dire autant de certains  politiciens).

- On constate que le mix électrique est très peu modifié. Les mêmes sources d’énergie, qui fournissaient 100% de la production il y a quinze ans, sont toujours massivement présentes, à hauteur de 93,3 % de la production électrique.
La percée des énergies nouvelles n’a donc pas encore eu lieu, quoiqu’en disent les documents officiels, qui confondent puissance et énergie, et qui se servent de la production hydraulique comme faire-valoir, alors que cette technologie est très ancienne et ne doit rien aux récentes décisions de la transition.

- les énergies nouvelles sont certes présentes, mais leur faible part de 6,7% dans la production électrique en fait des sources encore largement minoritaires. A peine de quoi les faire figurer dans les bilans.
Cette participation discrète ne permet même pas de prendre la mesure des difficultés de leur intégration au mix électrique, notamment concernant l’obligation d'adosser l'éolien et le solaire à des moyens de stockage d’électricité.
Il faudra attendre une part de 15 à 20% pour prendre conscience des vrais problèmes, si toutefois cette part est atteinte un jour, ce dont on peut douter….
Il y a donc de quoi s’interroger sur l’impuissance de l’Etat à appliquer des résolutions « solennelles ».
Impuissance, ou manque de conviction ?
________________________

En 2015, en France, la puissance installée totale des moyens de production électrique était de 129 GW.
La production totale d’électricité est montée à 546 TWh.
(Production brute).
L’électronucléaire, avec 48,8 % de la puissance électrique installée, a produit 76,3 % de l’énergie électrique.
Les énergies nouvelles (Eolien + Solaire), avec 12,8 % de la puissance installée, n’ont produit que 5,2 % de l’énergie électrique totale.
Ce qui correspond à un facteur de charge global de 20% environ, qui est dans la normalité de ces technologies.
(Un éolien uniquement terrestre, avec des petites machines, et un solaire qui fait ce qu'il peut car la France n'est pas le Sahara et le Soleil y est parcimonieux).
Le rapprochement de ces chiffres met en évidence le handicap des installations éoliennes et solaires par rapport à une installation de base thermique à flamme, qui peut fournir de l’énergie plus de 85% du temps.
Et de plus, une centrale à Gaz moderne à cycles combinés et cogénération peut bénéficier d’un rendement nettement amélioré, jusqu’à 70%, et donc fournir beaucoup plus d’énergie, à la fois électrique et sous forme de chaleur, ce qui est évidemment impossible avec l’éolien ou le solaire, sauf à utiliser des installations solaires à concentration, ce qui n’est pas programmé à notre connaissance, du moins en France métropolitaine.
Le projet de premier parc éolien offshore des côtes atlantiques françaises rencontre une telle opposition de la part des riverains, qu’il a dû être reporté de deux ans…
Même le charbon fait mieux que le solaire ou l’éolien, puisque les nouvelles centrales ultra-supercritiques affichent un rendement de 46% avec un facteur de charge de plus de 80%.
Mais la comparaison ne s’arrête pas là.
En effet, aujourd’hui la production éolienne et solaire est faible, et donc facilement « digérable » par le réseau EDF, sans créer de gros problèmes de réglage du réseau.
( Le "réglage" est l'exercice qui consiste à maintenir la tension et la fréquence à l'intérieur des limites définies par le cahier des charges du grand réseau européen.
Mais demain, lorsque ces énergies produiront vingt fois plus (La stratégie de transition prévoit une part de 30% d'éolien et de solaire dans le mix électrique à terme), le réseau ne pourra plus les absorber en direct, il faudra impérativement passer par un système de stockage pour réguler le débit de ces sources intermittentes.
Aujourd’hui ce système n’existe pas, et ne fait l’objet d’aucun programme de développement.
Aucune STEP à l’horizon, en dehors de celles qui existent déjà, et sont utilisées ailleurs.
Il existe par ailleurs de beaux articles sur la filières hydrogène, mais les réalisations ne suivent pas.
Sur ces deux points la France est en passe de devenir une "next year society", qui promet de surprenantes réalisations, mais toujours pour l'année prochaine…
On comprend mieux dès lors la grande réticence des énergéticiens à abandonner le nucléaire, même en partie, sachant que le remplacement de cette énergie par du solaire, de l’éolien ou de l’hydraulique supplémentaire, exigera des moyens considérables, que personne n’est disposé à fournir.
Et surtout pas le consommateur, pour qui le prix de l'énergie est un sujet explosif; et aucun homme politique n’est prêt à allumer la mèche.
D’autant plus que, selon une légende urbaine tenace, le coût de l’électricité solaire et éolienne sera nettement moindre que celui du nucléaire, alors que…  
___________________

Ces problèmes, bien réels, ne sont jamais évoqués officiellement.
Faudra-t-il attendre quinze ans de plus pour voir enfin une stratégie de transition cohérente qui permettra aux industriels d’envisager l’avenir avec un minimum de confiance ?
Par ailleurs, le boom du gaz et huiles de schistes et le renouveau du charbon ne sont-ils pas des indices du peu de crédibilité accordée aux menaces du réchauffement climatique ?
Nous sommes tranquillement en train de perdre la lutte contre le CO2. Peut-être serait-il temps de s’intéresser à une stratégie plus pragmatique, qui consisterait à apprendre à gérer les conséquences d’un réchauffement désormais inévitable ?
Il est vrai que l'on ne parle plus de réchauffement, mais de "dérèglement climatique", plus conforme à la réalité constatée.
_____________

Dans la recherche des causes de cet échec, on ne peut pas, sous peine de négligence intellectuelle, ne pas tenir compte de la probable influence d’un groupe de scientifiques confirmés, de valeur incontestable*, dont les travaux conduisent à des résultats qui contredisent les affirmations du GIEC.
* La plupart d'entre eux publient les résultats de leurs travaux dans des revues scientifiques à comité de lecture (Peer review).
Certains décideurs, et non des moindres, peuvent considérer cette démarche contradictoire comme légitime, et digne d’être examinée par un comité scientifique indépendant du GIEC.
Quelle que soit la suite donnée, ou pas, à ce contre-feu, un ferment de doute a été semé, qui peut susciter une certaine méfiance à l’égard des bouleversements de l’industrie de l’énergie, exigés par la révolution « imposée » par le GIEC.
En clair, avant de jeter le bébé avec l’eau du bain et de dépenser des centaines de milliards, il y aurait lieu d’y regarder de plus près.
C’est une idée qui fait son chemin…
________________

 

 

 

 

Repost 0
30 novembre 2016 3 30 /11 /novembre /2016 18:11

Menace de pénurie d’électricité, réalité ou électrochoc préventif ?

30 Novembre 2016
Des réacteurs nucléaires sont à l’arrêt.
Rien d’anormal. Un réacteur doit périodiquement être arrêté pour remplacer le combustible usé, ou pour effectuer une réparation suite à la détection d’une anomalie, d’une fuite, ou à titre préventif, ou à l’occasion de la grande révision décennale.
Les périodes d’immobilisation se font de plus en plus longues et fréquentes avec le cumul des années d’exploitation.
Actuellement, et avant la dernière intervention de l’ASN, ces arrêts techniques se traduisaient par un facteur de charge global de 75 % environ, ce qui traduit l’âge avancé du matériel.
(Qui a fourni quand même plus de 400 TWh dans l’année).
Suite au problème d’acier de cuve découvert à Flamanville, l’ASN a « épluché » les dossiers de fabrication des réacteurs du parc actuellement en service, et de nombreuses « irrégularités » ont été découvertes, en rapport avec ce problème de conformité de l’acier utilisé, justifiant des éclaircissements et des analyses complémentaires sur 18 réacteurs.
Les pièces incriminées sont des couvercles de cuves et des fonds de générateurs de vapeur, pièces qui font partie des circuits primaires et donc supportent la température élevée ( 300 °C), la pression élevée ( 155 bars), et bien sûr l’eau contaminée par les produits radioactifs.
Ces pièces sont donc en première ligne, elles doivent résister à des conditions extrêmes notamment l’injection d’eau froide en cas d’accident par perte de réfrigérant primaire.
Il est donc essentiel que l’acier qui les constitue soit conforme aux spécifications du cahier des charges.
___________________

Quel va être le sort de ces 18 réacteurs ?
D’abord, 6 d’entre eux ont été mis hors de cause, et ne sont donc plus concernés.
7 autres étaient déjà arrêtés pour maintenance programmée.
1 est arrêté pour une inspection programmée jusqu’à fin Décembre.
4 ne sont pas encore arrêtés, mais le seront sur la période Décembre-janvier.
Tout cela est un peu confus. Il faut retenir que le risque est grand de voir sur Décembre-janvier-Février quatre ou cinq réacteurs maintenus à l’arrêt pour des raisons autres que la maintenance programmée.
Les écarts constatés sur la composition de l’acier des pièces incriminées ne les condamnent pas à priori.
Mais des analyses approfondies doivent être effectuées, y compris sur des pièces sacrifiées, afin de re-évaluer la probabilité d’augmentation du risque statistique de rupture dans les conditions de contrainte accidentelle.
Les réacteurs en cause seront (Ou pas) remis en service progressivement au fur et à mesure de la réception des rapports d’analyse et de l’avis de l’ASN.
La production électronucléaire sera évidemment affectée par ce « contretemps », et la puissance disponible risque de ne pas être suffisante pour passer le pic de la demande au cœur de l’hiver.
Le déficit de puissance est d’environ 1 GW par réacteur indisponible.
EDF a lancé une alerte et a entrepris de mettre en œuvre un plan prévisionnel dans le but de limiter les dégâts, c’est-à-dire les délestages de certains secteurs du réseau.
_____________________

Est-ce bien grave docteur ?
Tout dépend de l’intensité de la fièvre électrique à ce moment de l’année, et du nombre de réacteurs immobilisés évidemment.
En France, de nombreux logements sont équipés de chauffage électrique; d’autres ont un chauffage ancien peu efficace, et souvent ces logements sont mal isolés. Il faut recourir à des radiateurs d’appoint. La puissance électrique demandée est alors directement dépendante de la température extérieure, entre autres causes évidemment.
Selon EDF, le facteur de proportionnalité est de 2,4 GW/ °C.
(Soit l'équivalent de 2,5 réacteurs par degré).
____________________

Contrairement à certains pays en voie de développement, où l’électricité n’est délivrée que quelques heures par jour, la France a pour principe de fournir l’électricité à ses clients 24 h sur 24 quelle que soit la demande.
Enfin presque.
Car évidemment la générosité a ses limites.
En matière d’électricité elle ne peut dépasser la puissance maximale disponible à un moment donné.
EDF a établi un plan de délestage qui fait partie de sa stratégie de gestion de crise. Ce plan sera mis en œuvre en cas de nécessité.
____________________

Mais au fait, quelle est cette puissance max disponible ?
C’est une grandeur fluctuante, qui dépend de l’état du parc de production, des circonstances et de la durée pendant laquelle elle est sollicitée.
Un peu comme le fût du canon du regretté Fernand Raynaud, y compris l’influence du vent puisque désormais il faut compter avec les éoliennes.
_________________

Les moyens qui participent à la fourniture de cette puissance électrique sont très variés.
On peut les classer en deux grandes catégories:
La première catégorie comprend les moyens de production dits « de base et semi-base », c’est-à-dire capables de fournir de l’électricité à la demande en permanence sans interruption.
En quelque sorte, qui obéissent « au doigt et à l’oeil ».
(Pour garantir cette « permanence » l’Etat a l’obligation de constituer des « réserves stratégiques » représentant trois mois de consommation).
Ces moyens permanents sont :
Les réacteurs nucléaires, qui constituent en France la colonne vertébrale du système, et les centrales thermiques à flamme qui fonctionnent au Gaz naturel, au fuel, et au charbon, qui sont dits « de semi base » car ils ne sont sollicités que lorsque c’est nécessaire, à cause du CO2.
(On peut citer pour l’anecdote quelques unités fonctionnant à la biomasse, mais leur apport au réseau est encore confidentiel).
La deuxième catégorie comprend des installations dites « d’appoint » .
Ce ne sont pas des moyens de base, car leur disponibilité n’est pas assurée, soit parce que leurs réserves d’énergie  sont limitées, soit parce que leur production est conditionnée par des circonstances hors contrôle telles que le vent ou l’ensoleillement.
Il s’agit essentiellement de l’Hydroélectrique, de l’éolien, et du solaire.
Ces moyens ne sont productifs que s’il y a de l’eau, du vent et du Soleil, cela tombe sous le sens.
C’est la conjonction de tous ces moyens, à un moment donné, qui constitue la puissance disponible.
___________________

Qu’en est-il en pratique ?

- Le parc nucléaire comprend 58 réacteurs, dont les puissances nominales cumulées atteignent 63 Gigawatts.
C’est la puissance électrique qui serait obtenue si tous les réacteurs fonctionnaient à 100 %.
Dans la vraie vie il y a toujours quelques réacteurs arrêtés pour maintenance ou remplacement du combustible, et le « facteur de charge » global sur l’année peut varier entre 75 et 85 %.
En France, compte tenu de l’âge du matériel, la puissance électronucléaire disponible à un moment donnée peut varier dans une fourchette de  48 à 53 GW environ selon l’état global du parc, qui n’est pas le même d’une année sur l’autre, et selon le nombre de réacteurs arrêtés à un moment donné.
(Elle varie selon les aléas techniques du parc nucléaire. Elle diminue pour un parc vieillissant).
A l’heure où nous écrivons ces lignes ( 12h, le 29/11) nous soutirons 78 GW sur le réseau, et EDF prévoit  un pic de 82 GW à 20h ce soir.
Le nucléaire ne suffit donc pas à satisfaire notre appétit de watts, malgré la relative clémence de la météo.
En effet, au moment où nous parlons, et compte tenu du ou des réacteurs supplémentaires arrêtés par l’ASN, le nucléaire fournit péniblement 47,5 GW, on est loin des 63 GW théoriques!
_________

Donc, lorsque la demande est supérieure à la puissance nucléaire disponible à ce moment (c’est le cas en période hivernale), il faut faire appel à d’autres moyens de production dits « de semi base » qui sont les centrales thermiques à flamme.
Il y a en France un parc de centrales thermiques diversifié. Elles fonctionnent principalement au Gaz naturel, mais aussi au Fuel et au charbon.
Les puissances max disponibles sont environ:
Gaz naturel:        11 GW
Fuel:              9 GW
Charbon:          3 GW
Soit 23 GW  en mobilisant tout le monde, y compris le charbon.
Lorsque c’est encore insuffisant, on fait appel aux moyens de production d’appoint.
________

Un moyen de production électrique est dit « d’appoint » lorsqu’il dépend d’une énergie dont il n’existe pas de stock (ou dont il existe un stock très limité), ou d’une énergie qui dépend directement d’éléments fortuits comme le vent, l’ensoleillement, le débit d’un cours d’eau.
La production d’appoint est constituée de l’Hydroélectrique, de l’Eolien, du Solaire, et des centrales à biomasse.
La production hydroélectrique comprend quatre secteurs:
- Des turbines adossées à des barrages de haute ou de basse chute.
- Des turbines associées à des barrages éclusés, sur des cours d’eau.
- Des turbines « Au fil de l’eau » (Hydroliennes et centrale marée motrice de la Rance).
- Des stations de pompage-turbinage (STEP).
Chaque secteur joue un rôle différent, mais tous sont complémentaires.
Le parc Hydraulique Français est considérable, la puissance installée (Nominale) atteint 25 GW.
Mais cette puissance n’est disponible que durant une période qui dépend de la quantité d’eau contenue dans le réservoir du barrage.
La remarque n’est pas triviale, car le taux de remplissage des réservoirs n’est pas toujours optimum, il dépend de la pluviométrie des mois précédents, du débit des cours d’eau, et des précédents prélèvement d’eau.
La puissance hydraulique sollicitée à un moment donné doit tenir compte de ce qui a été déjà consommé auparavant, et de ce dont on risque d’avoir besoin ultérieurement.
Les capacités de pompage-turbinage sont d’environ 5 GW, qui peuvent être mobilisés sur une durée limitée évidemment car la capacité de ces réservoirs est en général faible.
L’Hydraulique peut intervenir sur une durée conséquente, mais pour une puissance limitée. Ce sont alors surtout les grands barrages qui fournissent l’énergie.
L’hydraulique fournit annuellement environ 50 TWh d’électricité, ce qui correspond à une puissance moyenne de 6 GW environ.
Ce secteur est surtout sollicité en hiver, où il peut fournir temporairement 10 à 15 GW si les barrages sont bien garnis.
__________

L’autre volet des énergies d’appoint comprend le solaire et l’éolien, dont la capacité d’intervention est intermittente, du moins tant que leur production ne pourra pas être stockée.
Les STEP existantes sont déjà intégrées à la gestion des fluctuations de la production classique, elles ne peuvent dont pas être utilisées au bénéfice du Solaire ou de l’Eolien. On ne peut déshabiller Pierre pour habiller Paul.
Les puissances solaire et éolienne cumulées « installées » raccordées au réseau en Sept 2016 sont:
Eolien :      12 GW    Uniquement terrestre pour le moment.
Solaire:      7  GW
____________

La composition du mix électrique est très variable, y compris d’une heure à l’autre, en fonction de la demande intérieure, des puissances disponibles des différents moyens de production, de la stratégie énergétique de EDF, mais aussi des cours du marché.

Le 29 Novembre 2016, à 12 h, le mix électrique était le suivant:
- Electronucléaire:        47,4  GW   
- Hydraulique:                8,5  GW
- Gaz naturel:                8,6  GW
- Charbon:                    2,3  GW
- Fuel:                           0,6  GW
- Eolien:                        2,2   GW
- Solaire:                      1,8   GW
- Biomasse:                  0,8   GW
- Importations:             4,3   GW
- Pompage:                 0      
Pour une puissance totale de 76,5 GW.

Ces éléments sont accessibles en temps réel ici:
http://clients.rte-france.com/lang/fr/visiteurs/vie/courbes.jsp
Et ici:
http://www.rte-france.com/fr/eco2mix/eco2mix-mix-energetique
____________

La puissance max disponible avec les moyens de production de base et semi-base se situe donc dans une fourchette de 71 à 76 GW environ.
Au-delà il faut faire appel à des moyens de production d’appoint et/ou aux importations.
Le seul outil d’appoint à peu près contrôlable est l’Hydraulique, puisqu’il existe un stock relativement important dans les barrages, qui permet d’assurer une puissance de 10 à 15 GW plusieurs heures par jour, voire même plus.
Ce qui porte la puissance max à une fourchette de 80 à 90 GW avec un degré de vulnérabilité relativement faible.
Les autres moyens, éolien et solaire, ne peuvent être inclus dans des prévisions qu’avec beaucoup de précaution, puisque leur production n’est pas stockable ( pour le moment).
Il reste un coup de pouce qui peut être donné par les STEP, que l’on garde en réserve pour une urgence de quelques heures.
Ensuite, il faut recourir aux importations, dans la limite des 10 GW permis par les moyens transfrontaliers qui nous relient à tout nos voisins, dans le cadre des échanges Européens.
Une amputation d’une partie des moyens de production nucléaire aurait dont un effet immédiat sur nos capacités à faire face à une demande importante du marché intérieur.
Rappelons que le record du pic de la demande a été de 102 GW un certain 8 Février 1012 à 19 h.
Ce jour là le nucléaire était à 59,6 GW, L’Hydraulique à 15 GW, et l’Eolien à 4 GW.
Aujourd’hui, avec un nucléaire à 47 GW,  nous aurions les plus grandes difficultés à satisfaire le même niveau de demande.
Si, en plus, l’ASN maintient quelques réacteurs supplémentaires à l’arrêt pendant la période des grands froids, l’équation sera insoluble.
________________________

L’exercice de ping pong auquel se livrent actuellement l’ASN et EDF, en espérant qu’il ne s’agisse que d’un exercice, a au moins le mérite d’attirer l’attention des média, et donc du grand public, sur la menace bien réelle qui pèse sur la sécurité des fournitures électriques.
Menace qui pourrait bien se concrétiser si les français continuent à « tirer  du jus » sans souci d’économie, notamment sur le chauffage électrique des logements mal isolés.
(10 Millions de radiateurs d’appoint de 1000 W font 10 GW !).
Suivez mon regard, qui désigne le nouveau compteur Linky qui, précisément, se propose de nous aider à corriger tout çà.
Avec l’ancien système, toujours en usage jusqu’à l’installation des Linky, un délestage ne pouvait être appliqué que sur un secteur commutable, lequel pouvait impliquer des habitations, mais aussi un hôpital, des services, bref beaucoup de monde.
Avec le Linky, EDF pourra « délester » Monsieur Dupont et Monsieur Durant sans toucher aux établissement prioritaires.
Fini l’immunité dont « bénéficient » les usagers d’un secteur dans lequel se trouve une clinique ou une entreprise stratégique, désormais le délestage sera (pourra être)  « ciblé » à l’unité.
__________________

Ce rôle de « Père fouettard » exercé par le Linky sera tempéré par l’existence de « contrats de délestage » , un peu le genre EJP (Effacement Jours de Pointe) mais en plus fin.
L’usager participant pourra, moyennant avantages tarifaires, s’équiper d’un petit gestionnaire d’énergie capable de faire en interne du délestage sélectif, à la demande du Linky et selon un plan convenu à l’avance.
Un éventuel délestage à l’initiative de EDF ne concernerait alors que la partie des appareils désignés dans le contrat, et non la totalité de l’installation.
___________________

Un autre aspect de la « crise » actuelle du nucléaire est son caractère d’avertissement.
Une sorte de « Buzz » en direction de ceux qui n’auraient pas encore compris que les économies d’énergie électrique ne sont pas juste un « geste écologique » , mais une obligation incontournable à laquelle nous allons devoir nous plier, contents ou pas contents, au besoin par des mesures contraignantes.
___________________

Cette atmosphère de crise électrique interfère évidemment avec la politique nucléaire.
Le choix éventuel d’une stratégie programmée de sortie du nucléaire est un choix Politique, sur lequel aucun Gouvernement n’a encore voulu se prononcer clairement.
(l’annonce d’une réduction de 50% du nucléaire à l’horizon 2030 est une farce qui ne fait pas honneur à ses auteurs).
La politique actuelle est donc celle du « non choix », encore connue sous le nom de « politique du chien crevé au fil de l’eau »; on laisse les choses aller tant bien que mal, l’objectif étant d’atteindre sans dommage la date de la prochaine échéance électorale, en temporisant par des annonces fantaisistes qui ne sont prises au sérieux que par les benêts.
La raison en est qu’aucun homme politique n’ose prendre le risque de dire la vérité (En Politique la vérité est un sujet brûlant qu’il vaut mieux en général éviter).
(Un certain candidat prétend casser ce tabou et nous ouvrir enfin les yeux, nous verrons ce qu’il est si…).
Aujourd’hui, dans l’état actuel des choses, on ne peut tout simplement pas se permettre d’arrêter définitivement des réacteurs.
Il suffit d’une petite calculette pour comprendre que l’arrêt de quatre ou cinq réacteurs supplémentaires nous placerait devant la nécessité d’imposer périodiquement des restrictions de consommation d’électricité, ce qu’aucun homme politique ne prendrait le risque d’annoncer.
Le parc électronucléaire ne peut concrètement être réduit qu’après (Et non avant) la mise en œuvre des moyens de production de base de remplacement correspondants.
Ces moyens sont clairement l’éolien et le solaire adossés à des installations conséquentes de stockage de l’électricité.
Or, que se passe-t-il sur le terrain ?
Le seul projet de construction de parcs éoliens offshore sur la côte Atlantique est l’objet de tant de procédures que le contentieux résultant a entraîné un retard des travaux; le démarrage de la production a du être reporté à 2021 !
Quand aux STEP qui permettraient d’exploiter efficacement la production intermittente, elles ont effectivement été programmées:
Le démarrage du programme est planifié pour les calendes grecques, avec mise en service à la saint glin glin…
Curieuse façon d’aborder la transition énergétique…

__________________

 

 

 

 

 

Repost 0
24 novembre 2016 4 24 /11 /novembre /2016 11:23

LINKY pollueur, vrai ou faux ?

Le nouveau compteur poursuit sa pénétration des foyers, malgré la résistance que tente de lui opposer une minorité de « malgré nous » regroupés en cohortes sous des bannières variées.
La diversité de ces bannières contrarie l’efficacité du combat, et suggère même des motivations peu fondées.
Amalgamer la violation de la vie privée avec des agressions contre les personnes EHS, des perturbations des réseaux domestiques, des troubles de réception des programmes radio et télé, et des tentatives d’abus de facturation de l’électricité, constitue un tableau revendicatif impressionnant, mais très dispersé et donc peu efficace jusqu’à présent contre un « ennemi » insaisissable.
Tout çà parce qu’on a voulu faire travailler ensemble des gens qui ne parlent pas la même langue.
_______________

Les réseaux de production  et de distribution de l’énergie électrique sont du domaine de l’Electrotechnique, alors que les CPL sont du domaine des Télécommunications.
Ces deux mondes sont séparés, ont des cultures différentes, des technologies différentes, des applications différentes, des institutions internationales différentes, des normes et des réglementations différentes.
Le diagramme suivant montre la difficulté d’obtenir une coopération efficace sur le sujet des CPL, ne serait-ce que pour constituer des équipes et définir des bases de coopération.

 

 

 

 

 

 

 

LINKY pollueur, vrai ou faux ?

Les ramifications complexes de cette structure de coopération permettent de comprendre la difficulté de faire converger des domaines aussi différents vers une application par ailleurs contestée par une partie des intéressés.
Car en effet, certains experts, notamment des radio télécoms, estiment que la volonté d’étendre la technologie CPL à des applications haut débit n’est pas pertinente et ne peut qu’engendrer du désordre.
Il y aurait donc lieu, selon eux, d’appliquer le principe de précaution, qui veut dire en l’occurrence s’abstenir.
D’ailleurs la pratique de terrain montre qu’il est pratiquement impossible d’établir une réglementation concernant une application sur un réseau qui n’est pas lui-même configuré pour les télécommunications.
A l’impossible nul n’est tenu…
______________________

Le désordre au sein des réseaux CPL, on connaît. Mais cela se passe au sein des réseaux domestiques, où les conflits se règlent par la « bricole » transmise grâce aux forums du net, et parfois devant les tribunaux, qui évidemment sont désarmés eu égard à l’absence de textes et de retour d’expériences.
L’installation d’un réseau domestique CPL est libre de toute démarche ou autorisation. Il suffit d’acheter n’importe où le matériel présumé conforme dès lors qu’il est estampillé CE.
(Penser qu’un produit estampillé CE est automatiquement conforme aux normes, lorsqu’elles existent, est un raccourci intellectuel audacieux).
La mise en œuvre d’un réseau domestique est effectuée par les moyens du bord, sans aucun contrôle.
Le réseau électrique domestique est régi par la norme NFC 15 100 qui est orientée sécurité des biens et des personnes, et pas du tout communications numériques, surtout hautes fréquences.
Le matériel CPL lui-même est de qualité très variable; le respect des normes  y est approximatif, l’interopérabilité y est une notion exotique, et telle paire d’adaptateurs CPL vendue pour assurer (On vous l’assure) un débit de 1 200 Mbps, plafonne au dixième de cette valeur sans provoquer de protestation majeure, puisque « C’est la faute du réseau »…
Quand aux troubles éventuels à des tiers, qui pourraient résulter de ces installations CPL « sauvages », ils sont classés dans la rubrique « Troubles de voisinage » et reçoivent, ou pas, des traitements peu satisfaisants eu égard à l’absence de normes suffisamment sévères.
Seuls les utilisateurs professionnels des transmissions radio, ainsi que les radio amateurs, ont pu obtenir une prise en compte « acceptable » de leurs problèmes, encore faut-il que les solutions préconisées (Exclusions de fréquences) soient effectivement appliquées, ce qui est loin d’être toujours le cas…
____________________

L’arrivée des CPL du LINKY est perçue comme un élément perturbateur dès lors qu’ils sont imposés et que leur utilité n’est pas directement comprise  par le client .
On peut y voir un défaut de communication de EDF, mais aussi de toute la profession.
Les premiers compteurs Linky utilisaient la technologie G1 pour les CPL. Cette technologie a été remplacée par la G3 pour le déploiement à grande échelle.
G3 est une technologie à large bande à porteuses multiples.
On ne peut évidemment pas reprocher à EDF d’utiliser la technologie la plus moderne, alors que les clients l’utilisent déjà dans leur installation domestique multimédia (Home Plug ).
La bande « utile » de G3 s’étend environ de 36 KHz à 90 KHz, donc dans la bande allouée par le CENELEC aux distributeurs d’électricité.
______________

On constate ici une première zone de flou.
Les CPL reçus et/ou générés par EDF et le compteur Linky pénètrent à l’intérieur du logement car il n’existe aucun filtre.
Il y a certes un affaiblissement dans le compteur, puis lors de la traversée du baco, de 10 à 20 dB, mais l’amplitude demeure assez importante pour qu’on en tienne compte.
On peut alors se demander ce que des signaux CPL de la bande A viennent faire à l’intérieur d’un réseau domestique, puisqu’ils sont en principe réservés à la zone « Outdoor ».
Il existe donc une zone de « Non droit » dont il faudra bien définir un jour le statut juridique.
________________

Un réseau c’est comme un repas de famille; si tout le monde parle en même temps il n’y a plus d’échange possible.
Le premier principe de base est donc la fixation d’une règle d’accès au réseau.
Le réseau domestique CPL doit donc lui aussi suivre une semblable règle sous peine de dérèglements certains.
Toutes les applications domotiques utilisant la même bande de fréquence doivent donc également utiliser le même protocole de communication, incluant évidemment le même procédé d’accès au réseau.
Les applications haut débit multimédia utilisent la bande de 1,6 à 30 MHz, en cours d’extension à 100 MHz.
Les applications domotiques bas débit travaillent sur des fréquences beaucoup plus basses fixées par le CENELEC:
Sous bande A: 9 KHz à 95 KHz  réservée aux distributeurs d’énergie électrique (télé relevé)
Sous bande B: 95 à 125 KHz  réservé aux applications domestiques.
Les CPL du compteur LINKY travaillent dans la bande de 36 à 90 KHz, donc très proche de la bande utilisée par les applications bas débit domestiques (Commandes de volets roulants, d’éclairage, de radiateurs de chauffage, etc…).
Il faut donc s’attendre à des choses bizarres de ce côté car de nombreux matériels bon marché ne sont pas toujours équipés de filtres suffisamment sélectifs.
Par ailleurs il existe de nombreux appareils « Non CPL » munis de touches « sensitives » ou « à effleurement » dont les entrées à haute impédance sont très sensibles au champ électrique.
Ce genre de dispositif est évidemment vulnérable aux ondes émises par les CPL.
(Même si le champ émis est dans les normes).

___________________

Nous avons donc d’une part les applications domestiques bas débit utilisant un type de protocole et d’accès au réseau.
Une deuxième groupe d’applications, à haut débit multimédia, qui utilisent un autre type de protocole et d’accès au réseau, mais à des fréquences très élevées.
Là-dessus viennent se greffer les signaux CPL G3 de EDF, qui ne tiennent pas vraiment compte de ce qui se passe dans l’habitation, notamment en ce qui concerne l’accès au réseau, puisque en principe les gammes de fréquences sont différentes.
Ce bazar peut cependant fonctionner, à condition que chacun reste chez soi, c’est-à-dire respecte soigneusement la bande de fréquence allouée.
Et c’est là que le bât blesse.
__________________

Dans les temps anciens EDF utilisait déjà des signaux CPL, mais de manière très discrète.
Il s’agissait d’envoyer deux ou trois fois par jour, à tout le monde, de très courts signaux pour télécommander la commutation de mode Jour/nuit.
La fréquence utilisée, 175 Hz, ne provoquait aucun trouble, d’autant plus que les applications domotiques étaient alors anecdotiques.
Avec le nouveau compteur, les choses sont très différentes:
D’une part, le nombre des messages qui circuleront sur un tronçon du réseau BT EDF sera très élevé car le gestionnaire devra s’adresser à chaque client séparément, et plusieurs fois par jour sinon par heure. Le trafic sera donc beaucoup plus important, quasiment semi-permanent.
D’autre part, la communication se fera dans une bande de fréquence proche de celle du réseau domestique bas débit, et avec une modulation à large bande à porteuses multiples.
De plus, en cas d’affaiblissement du signal si la ligne est trop longue, un ou plusieurs compteurs pourront être utilisés comme répéteurs.
Ces signaux CPL du compteur, n’étant pas intégrés (Synchronisés) dans le réseau domestique, seront nécessairement perturbateurs car leur niveau sera relativement élevé en phase d’émission vers le concentrateur situé à proximité du transfo BT, c’est-à-dire à une distance qui peut dépasser un km.
______________________

Les réseaux électriques domestiques utilisés pour constituer un réseau de communications CPL , sans précautions particulières, sont vulnérables et la multiplication des applications mettra cette vulnérabilité en évidence.
L’arrivée du compteur Linky n’est que le révélateur de cette vulnérabilité potentielle, dont il faut maintenant rechercher les causes et trouver des solutions, sachant que EDF est logiquement le seul utilisateur légitime du réseau de distribution électrique, et qu’à ce titre il doit bénéficier d’un droit de priorité pour mettre en œuvre les applications du programme « Smart Grid ».
Tout en respectant les normes et les réglementations existantes.
Le retour d’expérience est aujourd’hui insuffisant pour quantifier statistiquement les rejets de la greffe Linky fondés sur une réelle incompatibilité technologique.
(Laquelle doit être évidemment établie après une analyse technique des cas).
Néanmoins dès à présent on doit constater qu’il existe une suspicion d’incompatibilité avec certaines configurations de réseaux domestiques déjà existantes.
Il est probable que chacune des parties y a sa part de responsabilité, même si elle est involontaire.
Faire du Linky le bouc émissaire à priori n’est pas une attitude constructive.
L’analyse doit être globale et donc remettre en cause tous les éléments:
- Le réseau électrique de distribution d’énergie lui-même, tel qu’il découle de l’application de la norme NFC 15 100 , qu’il sera peut-être nécessaire d’aménager.
- Les bandes de fréquences et leur allocation, en harmonie avec la compatibilité électromagnétique, éventuellement sévérisée.
- Le cahier des charges des couches basses de l’architecture du réseau, notamment la couche PHY.
- les protocoles de communication, notamment les protocoles d’accès au réseau, la protection des données, les corrections d’erreurs, les stratégies de streaming, etc…
- les matériels assurant la réalisation des couches basses de la communication, dont le fonctionnement doit être conforme à un cahier des charges incluant les perturbations du réseau.
_______________

La période actuelle doit être vue comme un round d’observation.
Les réseaux électriques domestiques ne sont absolument pas conçus pour être utilisés en réseau de communications.
Et encore moins lorsqu’il s’agit d’y implémenter un réseau partagé entre différents types de protocoles et dans des gammes de fréquences de quelques KHz jusqu’à plus de 100 MHz !
Il n’est donc pas anormal de constater quelques dysfonctionnements dans la période de mise en place.
_______________

 

 

Repost 0