Overblog Suivre ce blog
Administration Créer mon blog
5 janvier 2017 4 05 /01 /janvier /2017 11:21

5 Janvier 2017
Avant toutes choses nous devons examiner le graphique suivant:
 

Les énergies renouvelables et le délestage électrique.

Nous y voyons, pour la période du 23/01 au 19/02  de l'année 2012 , un exemple de la puissance délivrée par chaque type de moyen de production pour une puissance installée de 1 GW.
(la source est facilement accessible sur le net).
Tout le problème de l'intégration des énergies renouvelables est résumé dans ce graphique, ce qui nous évite bien des discours.
La transition énergétique consistera, en gros,  à remplacer la courbe bleue par les courbes rouge et verte.
A l’évidence, ce remplacement ne pourra pas s’opérer sans une profonde restructuration des méthodes de production, de gestion, de distribution et d’usage de l’énergie électrique.
____________________

Malheureusement, la France est engluée dans les conséquences de choix énergétiques décidés en d’autres temps.
Tant que le sort de l’électronucléaire ne sera pas clairement et définitivement réglé, rien de sérieux ne pourra être développé dans le domaine des énergies propres et renouvelables.
Or, de par leur absence d’émissions de CO2, les centrales nucléaires sont conformes à l’esprit de la transition énergétique, le caractère renouvelable du combustible n’ayant jamais été sérieusement discuté, pas plus que les risques que cette technologie fait courir aux populations présentes et à venir.
Jusqu’à présent le programme nucléaire français n’est pas sérieusement menacé. La génération EPR, destinée à remplacer les REP de conception ancienne, poursuit son développement malgré quelques aléas.
Par ailleurs la production électronucléaire est incontestablement très efficace. Malgré les inspections en cours sur certains réacteurs, la puissance fournie par les réacteurs en service est encore de 53 GW ces jours derniers, soit un facteur de charge de 84% puisque la puissance nominale installée est de 63,2 GW.
(Ref: Eco2mix/RTE)
Du point de vue énergie électrique, le nucléaire reste la poule aux œufs d’or, ce qui explique évidemment les réticences des pouvoirs à abandonner la proie pour l’ombre.
Rappelons que le Gouvernement actuel a pris la décision héroïque de limiter la puissance électronucléaire à 63,2 GW installés, qui est précisément la puissance installée du parc actuel.
En clair, on continue sans rien changer.
(C’est ce qui s’appelle familièrement la politique du chien crevé au fil de l’eau…).
 
En contrepartie, on comprend également leur peu d’enthousiasme à s’activer dans le domaine des énergies propres et renouvelables, pour le quel tout est à faire, avec beaucoup d’inconnues technologiques et un résultat final non garanti.
Cependant les énergéticiens, conscients de l’inéluctabilité de la mutation du nucléaire vers les « vraies » renouvelables, savent qu’ils devront gérer l’inévitable révolution. Ils s’y préparent donc comme nous allons le montrer ci-après.
__________________

Les grands problèmes de la transition énergétique sont connus et largement documentés dans des rapports de RTE, de la CRE, et des autres institutions concernées, le tout accessible sur le net.
Les principaux sont les suivants:
- le remplacement d’une production de base continue et contrôlable par une production intermittente imprévisible et incontrôlable.
- Le remplacement d’un réseau unidirectionnel par un réseau bidirectionnel.
- Le remplacement d’un système à production centralisée par un système décentralisé.
- L’intégration des systèmes d’injection et d’autoconsommation.
- le remplacement d’une gestion d’adaptation de l’offre à la demande par un système où c’est la demande qui devra s’adapter à l’offre.  
- Le remplacement d’une gestion semi-autonome par pays, par une gestion en grande partie spécialisée par régions.
( ex: l’Hydraulique dans les pays scandinaves et de montagne, le solaire dans les régions du Sud, l’éolien sur les littoraux ).
- La nécessité de construire des installations de stockage d’énergie de grande capacité.
- La nécessité de développer les capacités d’échanges transfrontaliers très au-delà des besoins actuels.
- La nécessité de réformer les habitudes d’usage de l’électricité en obtenant l’adhésion et la participation des usagers au système de gestion intelligente de la ressource.
- La poursuite de la mise en place du grand marché Européen de l’électricité tel qu’il a été défini par les instances communautaires.

Toutes choses qui, aujourd’hui, n’existent pas ou n’existent qu’à l’état embryonnaire et qui devront être largement développées.
_____________________

Nous sommes évidemment très loin du « simple » problème de construction de parcs éoliens ou de fermes solaires, qui ne représentent « que » la partie visible de l’iceberg.
(N’oublions pas que c’est la partie cachée d’un iceberg qui à coulé le Titanic).
Les usagers ont pris des habitudes de vie fondées sur une disponibilité permanente et pratiquement illimitée de l'électricité.
Cet "Etat de grâce" était entretenu par l'énergéticien historique qui se faisait un devoir de tenir prêtes les installations de production, et au besoin d'en construire de nouvelles.
(C’est sur cette base que fut construit le parc de 58 réacteurs nucléaires).
Tout cela devra être oublié, nous entrons dans une autre époque. Avec la transition énergétique, l'électricité va devenir une denrée parcimonieuse dont la disponibilité permanente ne sera plus garantie, et qui pourra nous être mesurée chichement.
Sauf si nous prenons le problème à bras-le-corps, plutôt qu’en regardant ailleurs en niant la réalité.
(Tout cela n’a évidemment de sens que si la France décide de se retirer du nucléaire ).
____________________

Actuellement, en période hivernale, la consommation électrique est maximale en soirée aux alentours de 19 heures, et ce pic atteint une valeur qui dépend des conditions météo du moment.
Un Pic de consommation de 102 GW a été enregistré au cours de l’hiver 2012, mettant le réseau au bord de l’apoplexie.
La demande de puissance augmente d'environ 2,4 GW par degré de variation de la température extérieure en hiver.
(Coefficient de thermo sensibilité remis à jour en 2015 par RTE)
Cette grande sensibilité aux conditions météo est une spécialité française à cause du chauffage électrique encore très répandu, et utilisé dans des logements en général très mal isolés thermiquement.
(Le chauffage électrique n’est pas en soi répréhensible, puisque la transition énergétique conduit à remplacer le fuel et le gaz naturel fossiles par de l’électricité renouvelable. Le problème réside dans la faible efficacité énergétique des logements du parc ancien).
__________________

Avant hier  notre pic de puissance a atteint 88,3 GW, malgré une météo relativement clémente, avec des températures moyennes proches de la normale.
Cette puissance a été obtenue avec le mix suivant:
Nucléaire:        52 GW
Hydroélectrique:    13,9 GW
Gaz naturel:        9,2 GW
Charbon:        2,3 GW
Fioul:            2,1 GW
Solaire:        0
Eolien:        1,9 GW
Importations:    6 GW

Quelques remarques:
- Le facteur de charge du nucléaire demeure élevé ( 82,3%) malgré les problèmes en cours, la plupart des réacteurs ont repris leur travail.
- Le nucléaire et l’hydraulique fournissent près de 75% de la puissance, et demeurent l’ossature du mix électrique.
- Les fossiles fournissent plus de 15 % de la puissance, avec encore 2,3 GW de charbon !
- Le solaire est absent, normal à 19 heures.
- L’éolien fait de la figuration, le vent n’est ni prévisible, ni contrôlable.
- Les importations sont à un niveau élevé, le maximum technique étant à 9 GW environ .
- Et surtout la participation des énergies nouvelles est inférieure à celle du charbon (!!!), ce qui démontre que nous avons encore beaucoup de chemin à parcourir sur la route de la « vraie » transition énergétique.
____________________

Cette analyse montre que nous n’avons pas beaucoup de marge de manœuvre pour faire face à une forte demande de puissance:
- Le nucléaire, avec 82,3% de Fc, est déjà proche de son maximum.
- L’Hydraulique dépend de la pluviométrie de l’année, et les réserves doivent être utilisées avec précaution, en prévision des autres périodes de grand froid.
- Le solaire, n’en parlons pas à 19 H en hiver.
- L’éolien fait ce qu’il peut, au petit bonheur la chance…
- les importations sont limitées par la capacité technique des liaisons transfrontalières, dont le maximum est à 9 GW aujourd’hui selon RTE.
(Nous en pompons déjà 6).
- Il nous reste les centrales thermiques avec le Gaz, le fioul et le charbon !
Ce n’est pas par hasard que EDF investit dans un programme de développement de nouvelles unités à cycles combinés à gaz, car la situation actuelle, encore gérable, ne peut qu’empirer si un programme de retrait du nucléaire est décidé, ce qui est dans l’air du temps.
La volatilité des énergies solaire et éolienne rend nécessaire un accroissement des capacités d’échanges transfrontaliers, afin de mettre les ressources en commun pour réduire l’incertitude.

__________________

Cette situation, déjà critique avec le mix actuel à peu près dépourvu d’énergies intermittentes, sera carrément ingérable lorsque l’éolien et le solaire participeront pour une part importante dans le mix électrique.

Placés dans une situation de menace de pénurie à certaines heures, il faut donc se donner les moyens de prendre des mesures pour éviter le « blackout ».
La mesure « intelligente » consiste à faire en sorte que la puissance demandée ne dépasse jamais la puissance disponible.
Aujourd’hui la puissance moyenne consommée est de 57 GW environ, pour une consommation annuelle de l’ordre de 500 TWh, corrigée des variations saisonnières.
Si la puissance max demandée atteint parfois près de 100 GW, c’est parce qu’il n’y a pas de répartition concertée de la demande. Le planning d’allumage des appareils est pratiquement le même pour tous les usagers, les habitudes de vie étant très voisines.
La première démarche, la plus logique, consiste donc à tenter de réaliser un « lissage » des pics de demande, en gérant les besoins avec la coopération des usagers, pour ramener la demande de puissance max à une valeur plus « raisonnable », par exemple 70 GW au lieu de 100, la puissance moyenne restant la même bien entendu..
Ce qui permettrait de réduire considérablement la puissance installée, et donc d’amorcer un retrait du nucléaire plausible.
C’est ce qui va être tenté grâce au « réseau intelligent » qui devrait pouvoir fonctionner avec le nouveau compteur Linky.
Mais ceci prendra beaucoup de temps, et le temps nous fait défaut car nous sommes déjà en situation de crise.
Il nous faut donc recourir à une solution moins intelligente, mais efficace, qui est le délestage concerté.
____________________

Les prévisions de réduction de la consommation électrique sont contrariées par les nouvelles applications.
Si le véhicule électrique se développe comme prévu, la maîtrise du pic de puissance deviendra impossible sans une intervention intrusive.
On peut espérer « raisonnablement » un parc électrique de 10 millions de véhicules, soit 30% du parc national.
Lorsque ces véhicules se brancheront en hiver le soir pour un complément de charge, même en mode charge lente 3 KVA, il se produira une surcharge du réseau à hauteur de 30 GW, qui provoquera un blackout immédiat.
A lui seul ce nouveau marché impose donc une remise en question des conditions d’exploitation de l’énergie électrique, indépendamment du problème de l’intégration des énergies intermittentes.
____________________

Aujourd’hui, le délestage concerté est déjà pratiqué, mais sur une petite échelle puisqu’il ne porte que sur 2 ou 3 GW.
On préfère parler d’effacement plutôt que de délestage, l’effacement étant en fait un délestage préalablement négocié contre un avantage tarifaire.
En complément du délestage, il est possible de réduire la tension du réseau dans la limite de -5%, ce qui entraîne une baisse de la puissance de 8 à 10%.
__________________

La stratégie de délestage (D’effacement) est évidemment préparée et ne se pratique jamais de manière sauvage, mais l’objectif prioritaire est d’éviter un black-out, qui est le cauchemar du gestionnaire de réseau. Lorsqu’il y a risque de black-out, certaines zones peuvent être coupées pour une courte durée, avec une stratégie tournante.
Il ne s’agit alors plus d’effacement négocié, mais bien de délestage.
Pour établir un programme d’effacement (Délestage négocié), le gestionnaire de réseau  identifie les sites qui peuvent offrir une capacité de flexibilité de charge, pour quelle quantité et quelle durée de disponibilité.
Ceci se réalise à travers des sociétés d'agrégation de flexibilité de charge.
Ces intermédiaires négocient d'une part avec des clients disposant d'une certaine flexibilité, à la hausse ou à la baisse, portant sur des quantités interruptibles, et proposent ces capacités de flexibilité agrégées au gestionnaire du réseau.
Les particuliers comme les professionnels seront sollicités pour contribuer à la régulation système.
Il existe ainsi un véritable marché des capacités d’effacement, puisque celles-ci sont négociées à un prix évidemment supérieur au prix Spot.
En 2015 la puissance d'effacement mobilisable était de 1,9 GW (Source RTE), l'objectif étant de l'augmenter considérablement pour permettre l'intégration de l'éolien et du solaire le moment venu.
Cette capacité d’effacement doit être fortement augmentée dans l’avenir afin de faire face à l’arrivée de l’électricité éolienne et solaire essentiellement intermittentes, qui ne représentent encore aujourd’hui que 5% de la production électrique .
Le nouveau compteur Linky  permettra de mettre en place une stratégie plus fine et surtout plus diversifiée, qui remplacera les systèmes actuels (Tarification EJP, système EcoWatt, …).
__________________

Nous entrons ainsi dans l’ère de la gestion par « flexibilité de charge », qui existe déjà sur des petits volumes, mais qui devra être considérablement développée.
Dès à présent les fournisseurs d’énergie électrique sont tenus de participer aux mécanismes d’ « obligation de capacités » en adhérant au dispositif NEBEF / Notification d’Echanges de Blocs d’Effacement.
Ils ont ainsi contractuellement l’obligation de tenir à disposition du gestionnaire de réseau une réserve de puissance effaçable disponible dans des délais précisés dans le contrat.
Ces réserves de puissance effaçable sont constituées de l’agrégation de capacités d’effacement négociées avec leurs clients, qui peuvent être des professionnels mais aussi des particuliers.
Les quantités et les durées d’effacement font l’objet de négociations tarifaires bien entendu.
____________________

D’une façon générale, il faudra mettre fin au principe de libre consommation électrique, pour le remplacer par le principe de gestion intelligente de la ressource.
L'usager devra accepter quelques contraintes et ne pourra plus utiliser l'électricité à sa guise en quantités quelconques et au moment de son choix. Il devra gérer son installation domestique de manière interactive et planifier le "timing" des différentes applications grosses consommatrices, comme le gros électroménager, l'ECS, le chauffage, la charge d'une batterie de voiture, une pompe à chaleur, etc.
Y compris en été pour la gestion des climatiseurs, et éventuellement le chauffage de l’eau des piscines...
Personne n'a encore trouvé le moyen de placer le vent et le soleil en mode de suivi de charge !
Jusqu'à présent, la production s'adaptait à  la demande, demain il faudra faire l'inverse, c'est la demande qui devra s'adapter à l'offre.
Il s'agit d'un changement de paradigme qui nécessitera de la part des usagers une révolution culturelle à laquelle bien peu seront préparés.
La transition énergétique risque de faire grincer quelques dents…
_______________________

Pour l’usager, le compteur Linky est le premier indice de ce changement.
C’est lui qui permettra la mise en œuvre du réseau intelligent, avec trois objectifs principaux:
- D’une part obtenir des usagers qu’ils acceptent le principe de l’adaptation de la demande à l’offre, en participant au programme de lissage des consommations.
- D’autre part, prendre le contrôle de la gestion des sites de production disséminés pour éviter les commutations « sauvages » entre production et autoconsommation, et surtout éviter les perturbations du réglage système.
- Enfin, s’appuyer sur le stockage d’énergie constitué par la chaleur des bâtiments et les batteries de voitures électriques, pour les intégrer à une grande réserve énergétique pouvant contribuer à la compensation de l’intermittence des renouvelables.
L’usager cesse d’être un receveur passif libre de soutirer la puissance qui lui convient, dans les limites de son abonnement, et au moment qui lui convient, sans se soucier du risque de mettre le réseau en difficulté.
Il devient un acteur dont dépend la robustesse du réseau.
Ce nouveau rôle ne convient pas à tous les usagers, certains sont hostiles à tout ce qui peut ressembler à un intrusion dans le domaine privé.
Un gros travail de communication sera donc nécessaire pour obtenir l’adhésion des usagers, sans lesquels il n’y aura tout simplement pas de transition énergétique.
En fait l’usager devra choisir entre deux solutions:
- Soit accepter de planifier l’utilisation de ses appareils pour contribuer au lissage de la puissance demandée sur le réseau.
- Soit accepter un programme de délestage plus ou moins négocié comme par exemple dans le programme SOLENN expérimenté avec le compteur Linky (Ecrétage ciblé).
___________________

Nous n’avons pas parlé des installations de stockage d’énergie électrique, car il n’y a rien à en dire pour le moment.
On rencontre déjà tellement de difficultés pour faire accepter les éoliennes offshore par les populations riveraines et par les professionnels, qu’il vaut mieux ne pas soulever le lièvre des STEP marines si l’on veut éviter une nouvelle révolte des bonnets rouges…
Et pourtant il faudra bien la stocker cette énergie, si nous voulons pouvoir gérer l’intermittence du solaire et de l’éolien.
Mais chaque chose en son temps. L’Homme politique qui osera proposer un programme de construction de STEP marines sur la côte Atlantique n’est pas encore né.
Alors certains construisent des scénarios à la limite du crédible. Il y serait question d’utiliser les capacités de stockage de certains pays comme la Norvège, qui seraient reliées par câbles THT courant continu sous-marins aux sites de production…
Affaire à suivre.
_________

 

 

Repost 0
23 décembre 2016 5 23 /12 /décembre /2016 11:54

Transition énergétique: Promesses, promesses….

24 Décembre 2016
Père Noël est en route pour garnir nos souliers.
Le vieux monsieur inoxydable va passer comme chaque année, laissant un lot d'heureux et un lot de déçus.
Nos hommes politiques, qui n'en sont plus à une mystification près, tentent d'usurper les fonctions de l'honorable vieillard en prétendant détenir des hottes pleines de merveilles, qu'ils sont prêts à déverser sur le bon peuple en échange d'une simple bulletin de vote.
En avons-nous connu de ces programmes mirifiques d'avant le mois de Mai, bien vite oubliés passé le second tour…
Les mêmes programmes peuvent d'ailleurs servir plusieurs fois, c'est l'avantage d'une promesse jamais réalisée, d'être quasiment inusable.
C'est le cas, entre beaucoup d'autres, de la transition énergétique.
Nous avons retrouvé le programme de développement de l'éolien off-shore  français, décidé en 2010 après les débats publics tenus du 28/04 au 10/09/2010.
Pour faire court, ce programme, établi après concertation était le suivant:
Le Tréport, 750 MW
Fécamp, 500 MW
Courseulles, 500 MW
Saint Brieuc, 500 MW
Saint Nazaire, 750 MW
Soit 3 000 MW installés, pour un investissement évalué à 10 Milliards d'euros ( 600 machines de 5 MW).
Les parcs devant être opérationnels en 2015.
L'objectif paraissait raisonnable, puisque la technologie choisie était standard (D'autres parcs off shore étaient déjà en fonctionnement en Europe du Nord avec les mêmes machines et avec la même implantation mono pieu sous faible profondeur d'eau).
En somme, un projet "sans histoire".
______________________

Aujourd'hui, sept ans plus tard, pas une seule éolienne offshore n'est encore visible depuis la côte, même par temps clair et avec une paire de jumelles.
On en est encore à discuter le bout de gras avec on ne sait plus très bien qui pour résoudre on ne sait plus quels problèmes avant de commencer, peut-être un jour, les travaux.
Il paraît, aux dernières nouvelles, que les premières machines tourneraient pour 2020...ou 2021, c'est juré.
Trois présidents (Le troisième sera élu dans six mois) auront eu à traiter de ce programme, sans aucun résultat concret jusqu'à présent.
On n'ose imaginer les sommes qui auront été dépensées pendant ce temps par les commissions de ceci, les cabinets d'expertise de cela, les réunions interministérielles d'experts, pour savoir qui, quand et comment on allait procéder.
Et pourtant il s'agit d'un programme classé prioritaire, soutenu par l'Etat, c'est-à-dire par vous et moi, qui fait partie des engagements solennels de la France, réitérés par les présidents successifs au cours des grand-messes COPxx, en accord avec la Communauté Européenne, et avec ses financements.
______________________

On peut dès lors se demander si tout cela ne serait pas une simple mascarade, certes tragique, destinée à amuser la galerie en donnant au bon peuple une image de dynamisme de bon aloi, un rideau de fumée destiné à cacher un conservatisme forcené ayant depuis longtemps décidé de laisser les enfants s'amuser avec les moulins à vent pendant que les grandes personnes vaquent à leurs affaires courantes.
Lesquelles affaires courantes sont en l'occurrence le développement du nucléaire et les accords sur les fournitures de pétrole et de gaz naturel.
(Avec en coulisse un regard en coin vers les gaz de schiste et le "revival" du Charbon).
Savez-vous que pendant que les discussions sur les parcs éoliens s'éternisaient, il a été procédé à la modernisation de la centrale à charbon de 600 MW du Havre ?
Non, ce n'est pas une blague…  
_____________________

La lecture de ce programme fantôme sur l'éolien offshore français permet par ailleurs de déceler une étrange anomalie concernant le montant des investissements prévus; étrange en ce sens qu'elle n'a soulevé aucune observation de la part de ceux qui ont, sur d'autres projets, crié au scandale à propos du coût.
Le programme éolien offshore dont nous parlons porte (portait) sur une puissance installée de 3 000 MW , pour un investissement de 10 Milliards, pour commencer.
(Et l'on sait ce que valent les budgets initiaux…, surtout s'agissant d'off-shore).
Le facteur de charge des éoliennes marines est de 35% environ, selon les résultats déjà constatés sur des parcs existants dans d'autres régions européennes.
L'énergie moyenne produite annuellement serait donc de 9 TWh, ce qui porte l'investissement à 1,1 Milliard par TWh  de production annuelle.
Par comparaison l'EPR de Flamanville produira 13 TWh par an, également pour un investissement réactualisé de 10 Milliards, soit 0,8 Milliard par TWh.
Oui, vous avez bien lu:
L'investissement (Initial) de l'éolien off shore, par TWh annuel produit, est donc de 37 % supérieur à celui de l'EPR réactualisé, sachant que ce réacteur est un prototype alors que les éoliennes de 5 MW prévues dans le projet sont des machines déjà industrialisées.
Et de plus, les éoliennes marines ont une durée de vie de 25 ans, contre 60 pour un EPR.
Et pourtant aucune voix ne s'est élevée pour s'étonner du montant de l'addition éolienne, alors que l'EPR a fait l'objet de multiples plaintes pour dépenses jugées déraisonnables, voire scandaleuses.
(Ce coût, jugé extraordinairement élevé par les opposants, reste l'un des paramètres importants du dossier à charge contre le nucléaire).
Comprenne qui peut.
____________________

L'autre anomalie qui se révèle à la lecture du rapport sur l'éolien offshore est l'absence (Disons plutôt l'oubli volontaire) d'une partie essentielle de l'investissement, celle qui concerne les installations de compensation de l'intermittence.
On sait en effet que la production éolienne, comme la production solaire, est soumise aux caprices de la météo.
L'injection de cette production, à un niveau élevé, dans le réseau de distribution nécessite donc des installations de compensation de ces fluctuations très peu prévisibles. Ceci n'est plus à démontrer, le problème étant bien documenté par les énergéticiens, et les dossiers étant  consultables sur le net.
Ces moyens de compensation sont divers:
Centrales hydroélectriques, Stations de pompage/turbinage, centrales thermiques de relève, filière Hydrogène et pile à combustible, moyens de stockage Electrochimique, ou par inertie, achats de capacités de stockage à l'étranger, éventuellement par câble sous-marin, etc.
Pour gérer une production fluctuante il faut, en plus de ces moyens de stockage tampon, un système de gestion du réseau capable d'adapter la demande à l'offre lorsque les moyens de compensation sont débordés. Il s'agit du "Smart grid", ou réseau intelligent.
Tout cela est également bien connu et largement documenté, même si les opposants aux compteur Linky font semblant de n'avoir rien compris.
(Faire l'âne pour avoir du son est une technique bien connue).
Tout cela coûte extrêmement cher, et ce coût doit logiquement être intégré au coût de mise en place d'une production intermittente.
C'est du moins ainsi que l'on procède dans l'industrie, selon les règles de l'art.
Ce "petit" détail n'a bien sûr pas échappé aux promoteurs des parcs éoliens, du moins nous osons le croire. L'omission est donc délibérée, ce qui est une tromperie qui risque de compromettre le succès du projet non seulement au plan financier, mais aussi au plan technique.
En plus du prix du KWh sortant des éoliennes, les consommateurs devront donc supporter les coûts supplémentaires des installations de compensation de l'intermittence, dont on ne leur aura jamais parlé…
Les factures deviendront plus lourdes.
_______________________

Heureusement la cata n'est pas pour demain matin.
D'abord parce que les fameuses éoliennes offshore françaises n'existent encore que sur le papier.
Ensuite parce que la production électrique des 600 machines ne représentera que 1,6% de la production brute électrique française, qui est de 550 TWh.
Et d'ici 2020, EDF aura pris les mesures nécessaires à la gestion de cette énergie capricieuse.
A condition toutefois que les usagers, bernés par les anti-tout, ne s'opposent pas à la mise en œuvre du réseau intelligent.
Mais ceci est une autre histoire…
___________________

En fait, les atermoiements actuels risquent de se prolonger encore longtemps. En effet, à force d'attendre l'arme au pied pendant cinq ans, la technologie a évolué, et maintenant la rentabilité est du côté des très grosses machine, de 8 MW voire davantage.
Et pour faire accepter ces machines, il faut les envoyer au large, donc les rendre flottantes car la profondeur ne permet plus un ancrage rigide sur le  fond.
Le projet doit donc être entièrement revu, de même que son financement car la nouvelle technologie exige des investissements beaucoup plus élevés.
Il est donc probable que nous devions encore attendre "un peu" avant de voir les premières éoliennes off shore françaises.
(Nous parlons bien sûr des parcs éoliens productifs et raccordés au réseau, et non des nombreux démonstrateurs dont on nous vante les performances époustouflantes, mais hélas non suivies de réalisations).
Un délai technique qui ne manquera pas de satisfaire les détracteurs de cette technologie, qui la considèrent ruineuse, peu efficace, et très encombrante.
Opinion évidemment discutable…
___________________

Il faut voir, dans cette marche chaotique vers la transition, une conséquence de notre politique énergétique, qui fut décidée et fixée il y a un demi-siècle.
Politique sur laquelle il n'y a plus lieu de revenir, quand le vin est tiré il faut le boire, nous parlons bien sûr du nucléaire dont il faudra bien se débarrasser un jour.
Aujourd'hui, grâce à des choix énergétiques initialisés par "qui vous savez" à la sortie de WW2,  la France peut présenter un mix électrique pratiquement vierge de tout CO2:
75 à 80% de nucléaire, 10 à 15% d'hydroélectrique, un peu de solaire et d'éolien terrestre, et nous voilà à hauteur de 90 % d'électricité "propre" au sens de la lutte contre le changement climatique.
(Le caractère renouvelable ou pas du nucléaire n'ayant jamais été réellement débattu au niveau international, le doute profite donc à l'accusé).
L'électricité ne représente que le quart environ de notre consommation énergétique finale.
Le reste, c'est-à-dire la plus grosse partie, est couvert par les énergies fossiles, mais avec un soupçon d'énergie renouvelable à carbone recyclable, qui est le bois-énergie.
Nous pouvons donc dès à présent nous prévaloir de 30% environ d'énergie "conforme" à l'esprit de la transition, même si dans le détail il y aurait beaucoup à dire.
En ajoutant un peu de biocarburants par ci, un peu de biogaz par là, un zeste de géothermie, et surtout en forçant sur les économies d'énergies fossiles, nous pouvons présenter un bilan flatteur sans avoir à dépenser d'efforts supplémentaires.
Ceci explique peut-être cela.
_________________

Tout se passe (Ou plutôt ne se passe pas) comme si cette histoire de réchauffement climatique était une bonne blague, à surtout ne pas prendre au sérieux.
Entre ceux qui doutent de la culpabilité réelle du CO2 anthropique, ceux qui pensent qu'un peu plus de CO2 serait bénéfique pour l'agriculture, ceux qui affirment que tout çà c'est la faute du Soleil, ceux qui simplement "ne croient pas" au réchauffement, ceux qui y croient mais pensent que deux ou trois degrés de plus ne feraient pas de mal, ceux qui croient en la démarche de capture et séquestration du Carbone, ceux qui attribuent les variations climatiques aux cycles naturels de Milankovic, ceux qui prédisent l'exploitation de l'Hydrogène naturel, ceux qui préparent la mise au point d'un nucléaire "propre", ceux qui annoncent la fusion froide, ceux qui pensent que nous avons des problèmes plus urgents à résoudre, ceux qui disent qu'un pays en faillite ne peut pas se permettre de casser un outil de production qui marche pour en construire un autre problématique, ceux qui réclament des investissements dans les énergies durables mais refusent de voir le prix du KWh augmenter, et ceux qui s'en foutent complètement, il est difficile de continuer à défendre des positions vertueuses, si mal défendues par les gouvernements eux-mêmes.
__________________

La représentation théâtrale de la transition énergétique suit cependant son cours sans faillir. Nous venons d'avoir droit à deux annonces de la Ministre chargée, entre autres, de notre avenir énergétique.
La première concerne un projet d'éolienne offshore flottante, la seconde est relative à l'inauguration d'un tronçon de un kilomètre de route "solaire" pavée de panneaux photovoltaïques.
L'éolienne en question n'est pour l'instant qu'un démonstrateur de 2 MW, destiné à prouver la faisabilité de la chose, pour éventuellement songer plus tard à rentrer dans le vif du sujet.
La route solaire est une idée déjà ancienne, mais dont la réalisation implique la résolution de problèmes de haut niveau comme la tenue aux surcharges des véhicules d'exception y compris à chenilles, le vieillissement sous environnement très hostile ( Température, chocs, contraintes mécaniques, déformation des soubassements, résistances aux agents corrosifs, aux incendies de véhicules, etc) , les qualités routières du revêtement, la tenue au gel, et bien entendu le coût de l'investissement et la compatibilité avec les procédures et matériels d'entretien de la voierie.
Il s'agit donc d'un projet d'études de fond qu'il faut saluer, mais qui n'aura pas de retombées à grand échelle avant longtemps, s'il y en a un jour.
Ces deux lapins, sortis du chapeau de madame la Ministre, ont surtout intéressé les délégations taïwanaise, japonaise et chinoise, on se demande bien pourquoi…
_____________________

 

 

 

Repost 0
14 décembre 2016 3 14 /12 /décembre /2016 16:38

De la relativité du risque nucléaire.

14 Décembre 2016

Dans une installation nucléaire, la cuve du réacteur est le seul composant dont le remplacement n’est pas envisagé dans le programme de maintenance « normal ».
( les raisons en sont à rechercher auprès des concepteurs des années soixante-dix, cette analyse nous entraînerait trop loin).
On peut par contre remplacer tout le reste, et on ne s’en prive pas au cours de la vie de l’installation.
Générateurs de vapeur, tuyauteries, pompes, soupapes de sureté, pressuriseur, injection d’eau de refroidissement de secours, etc… tous les composants qui interviennent dans la régulation de température et de pression, tous les composants de sécurité, tout cela est remplacé lorsque c’est nécessaire, même le couvercle de la cuve.
Mais la cuve elle-même, non.
C’est donc l’état de cette cuve qui va déterminer le moment du départ en retraite du réacteur.
Sauf si l’exploitant décide d’arrêter plus tôt pour des raisons de coûts de maintenance excessifs, ou pour non-conformité avec les nouvelles règles de sécurité, ou pour tout autre raison.
____________________

S’agissant d’un chaudron en acier avec des parois de 25 centimètres d’épaisseur, on imagine sans peine qu’il peut résister longtemps à de nombreuses sollicitations, pourvu que le matériau soit de bonne facture.
Il contient le combustible nucléaire sous forme de pastilles empilées dans des crayons en alliage de Zirconium.
Comme dans une chaudière de chauffage central, la chaleur dégagée par la réaction nucléaire est évacuée par de l’eau « normale » grâce à des pompes ad-hoc, vers des générateurs de vapeur, laquelle vapeur fait tourner une turbine entraînant un alternateur générateur d’électricité, comme dans n’importe quelle centrale thermique, enfin presque.
La température est d’environ 300 °C et la pression de 150 Kg.
Pas de quoi effrayer une chaudron d’acier avec des parois de 25 cm.
La différence avec votre chaudière, en plus de la température et de la pression élevées, c’est que l’eau est radioactive, contaminée par son passage au sein des crayons de combustible, et rendu acide par l’usage d’acide borique pour contrôler la réaction.
L’acier de cuve est attaqué par l’acide borique. Pour le protéger, l’intérieur de la cuve est tapissé d’un revêtement soudé d’acier inox de 1 cm d’épaisseur.
Le couvercle de la cuve est démontable, pour permettre le remplacement du combustible, tout les 18 mois environ.
On en profite alors pour effectuer un contrôle de l’intérieur avec des instruments sophistiqués capables de détecter des microfissures, ou tout autre anomalie.
Tout les dix ans on procède à une grande « visite décennale » au cours de laquelle une machine spéciale introduite dans la cuve analyse l’évolution de l’acier sous l’effet du vieillissement sous flux de neutrons.
Pour affiner l’évaluation du vieillissement, il y a à l’intérieur de la cuve des éprouvettes d’acier prévues pour être prélevées lors des visites décennales afin de mesurer au banc l’évolution des caractéristiques de l’acier.
On inspecte également particulièrement les soudures, tant des viroles de cuves que des tuyauterie du circuit primaire, et le bon état des passages des barres de contrôle de la réaction, du dispositif de commande des grappes de crayons de combustibles, et des passages de l’instrumentation, pour détecter toute trace de fuite.
__________________

L’exposition de l’acier de cuve au flux de neutrons entraîne une modification des caractéristiques mécaniques du métal, notamment la frontière ductile-fragile, les migrations d’impuretés à l’intérieur de la structure du métal, et la propagation d’éventuelles microfissures.
Tout cela est mesuré lors des visites d’inspection.
Ces données sont indispensables pour évaluer le vieillissement de la cuve.
Des modèles du processus de vieillissement de l’acier à partir de sa composition initiale, et des mesures effectuées périodiquement sur les échantillons prélevés à l’intérieur, permettent de suivre la «vie» du métal.
On comprend que, s’il s’avère que la composition initiale n’était pas conforme au cahier des charges, il devient nécessaire de ré évaluer les modèles pour les pièces en question.
Sans pour autant les condamner à priori; il s’agit en fait de remettre en phase les modèles d’évolution dans le temps.
On ne peut cependant exclure la possibilité que cette « remise en phase » conduise à conclure à la nécessité de réformer la cuve. Le réacteur est alors mis au rebut.
___________________

Une cuve, même âgée, se comporte sans problème dans les conditions « normales » .
Mais, comme une personne d’âge, elle peut ne pas supporter les variations trop brusques de température et de pression.
De telles conditions peuvent survenir dans des conditions accidentelles de perte importante de réfrigérant primaire.
Cet APRP, Accident par Perte de Réfrigérant Primaire, est redouté de tous les exploitants de ce type de réacteur.
Il peut survenir lors d’une rupture (Une « brèche ») importante d’un élément du circuit primaire, tuyauterie, raccord, pompe, pressuriseur, circuits des générateurs de vapeur.
Les tubes échangeurs de chaleur des générateurs de vapeur sont particulièrement vulnérables en raison de la faible épaisseur de leurs parois. Ils sont l’objet d’une surveillance permanente; toute fuite est détectée grâce à une mesure en continu du taux de radioactivité de l’eau secondaire, et à la variation brusque de pression du GV concerné.
On peut alors intervenir rapidement et ainsi éviter un APRP.
(Le GV est alors isolé du circuit primaire, et réparé ou remplacé).
Une brèche importante peut conduire à un APRP.
Lorsque survient un APRP, il est nécessaire d’injecter de l’eau dans la cuve pour maintenir le niveau afin d’éviter que les crayons de combustibles soient dénoyés. Cette eau est évidemment « froide » est crée une brusque variation de température, qui peut ne pas être bien supportée si l’acier de la cuve a mal vieilli.
Rappelons que si les crayons de combustibles restent dénoyés, la situation peut rapidement dégénérer vers une catastrophe type Fukushima.
______________________

Dans le REX (Retour d’EXpérience) il n’y a pas d’exemple connu de rupture de cuve comme élément initiateur d’un APRP.
Par contre, une rupture de cuve peut survenir suite à un APRP.
Si l’APRP est pas ou mal maîtrisé, on peut s’attendre à un percement du fond de cuve par le corium dont la température est extrêmement élevée.
Ce corium violemment radioactif se répand alors dans la nature, sauf si un dispositif de contention et de refroidissement a été prévu sous le réacteur.
(Les REP du parc existant en sont dépourvus, contrairement aux futurs EPR).
Dans ces circonstances on assiste généralement à une explosion liée au dégagement d’Hydrogène.
______________________

Il apparaît finalement que, même en présence d’une cuve de bon aloi, la survenue d’un APRP mal contrôlé conduit à la catastrophe par un enchaînement de circonstances fatales, quel que soit l’état de la cuve.
Le problème est donc certes de surveiller la cuve (et le reste), mais aussi de mettre tout en œuvre pour d’une part éviter que se produise un APRP, et d’autre part prendre toutes les dispositions pour le maîtriser s’il se produit, et en limiter les conséquences.
A ce sujet, la catastrophe de Fukushima a conduit à mieux mesurer l’importance de certains risques, peut-être sous estimés auparavant.
Ce qui a conduit à certains aménagements sur les installations existantes.
___________________

Les études initiales sur la probabilité de rupture de cuve d’un réacteur sont résumées dans le document suivant:
http://www.iaea.org/inis/collection/NCLCollectionStore/_Public/15/049/15049924.pdf
______________________

Concernant la contestation de la validité des conclusions officielles sur la sureté des cuves, on peut lire ceci:
http://www.enerzine.com/2/18163+fissures-de-cuves-de-reacteurs-nucleaires---un-probleme-mondial+.html
______________________

Le problème n’est plus de savoir si l’électronucléaire est une technologie dangereuse ou pas. Tchernobyl et Fukushima en ont fait suffisamment la démonstration.
Il n’est plus acceptable désormais de se cacher derrière des analyses de fiabilité prévisionnelles fumeuses.
Continuer dans la même voie c’est clairement accepter le risque d’une telle catastrophe sur notre territoire.
______________________

Pour ce qui est des risques de rupture d’une cuve de réacteur, le texte ci-dessous témoignera de la difficulté de décider si, oui ou non, le risque existe:

« Pour certains spécialistes en effet, l'hypothèse de la non rupture de la cuve est complètement arbitraire, car pourquoi considérer la rupture nette et brutale d'une tuyauterie primaire principale et pas la rupture de la cuve, tout aussi improbable, si ce n'est parce que dans le premier cas on sait construire des enceintes qui résistent, et pas dans le second. Ceci revient à dire que dans ces études d'accident, on ne prend en compte que ce que l'on est capable de prendre en compte. Le concept de l'accident maximum plausible resurgit et le problème est posé d'un consensus autour de ce qui est jugé «vraisemblable». Les deux hypothèses se défendent : les tuyauteries sont des zones de concentration de contraintes au niveau des raccordements et elles sont nombreuses donc il y a plus de raisons qu’un problème survienne au niveau des tuyauteries que sur la cuve. A l'inverse, on peut penser que la cuve est plus soumise à l'irradiation par les neutrons et que par conséquent la fragilisation est nettement plus grande, la probabilité de se trouver dans la zone de rupture fragile est plus grande pour la cuve que pour les tuyauteries qui sont situées plus loin . »

Source:
Archives CEA, Fonds du Haut-Commissaire, F3 23 49, «Réunions programmes 1972-1980», relevé de décisions prise par l'Administrateur Général à la suite de la réunion du programme «sûreté des réacteurs à eau bouillante» tenue au Siège le 21 mai 1974, intervention de Bourgeois sur la sûreté des réacteurs à eau ordinaire.

On peut voir que les avis étaient partagés, et ceci dès le lancement du programme nucléaire.
Quarante  ans plus tard, nous en sommes toujours au même point.
Faudra-t-il consulter madame Irma pour savoir si tel chaudron est sur le point de nous sauter au nez ?
Que penseront nos descendants si, en plus de nos déchets nucléaires qu’ils leur faudra gérer sur des millénaires, nous leur laissons un sol empoisonné et stérile ?

_____________________

 

 

Repost 0
12 décembre 2016 1 12 /12 /décembre /2016 19:10

 

12 Décembre 2016
Les énergies renouvelables sont au cœur de la démarche de transition énergétique.
Depuis plus de vingt ans, les citoyens sont invités à économiser l’énergie, et les Gouvernements successifs se sont engagés sur des programmes dont l’idée générale est le remplacement des « vieilles » sources d’énergie par des sources renouvelables, propres, décarbonées ou à carbone recyclable.
Il est temps de faire un état des lieux afin de mesurer l’effort déjà accompli et surtout l’effort qu’il nous reste à accomplir pour réaliser l’objectif.
C’est ce que nous nous proposons de faire ici.
_________________

Notre consommation d'énergie finale s'élève à 160 Mtep environ, relativement constante ces dernières années, aux variations saisonnières près.
En unité des électriciens, cette énergie correspond à 1 860 TWh, dont 475 TWh d’électricité, environ le quart de l’énergie finale consommée.
Aujourd’hui encore, l'essentiel du mix énergétique est constitué des énergies "historiques", qui occupent le devant de la scène depuis des décennies, bien avant qu’il soit question de transition énergétique:
- Le trio des fossiles: Pétrole-Gaz Naturel-Charbon,
- L'Hydroélectrique, mis en place dans les années soixante-dix.
- Le bois énergie, utilisé depuis la nuit des temps.
- L'électronucléaire, qui fournit 75% de l'électricité.
Ces énergies représentent 94% de l’énergie finale consommée en 2014.
Les 6 % restant sont représentés par les énergies nouvellement développées dans le cadre de la transition énergétique:
- Eolien.
- Solaire photovoltaïque.
- Solaire thermique basse température (Chauffe-eau,…).
- Solaire thermique haute température ( A concentration).
- Géothermie basse température ( Chaleur).
- Géothermie haute température (Turbines).
- Biocarburants.
- Biogaz.
- Déchets de biomasse.
_____________________
6% de pénétration pour une palette de neuf technologies dont on nous présente depuis plus de dix ans des réalisations prometteuses, c’est un résultat qui appelle des commentaires.
Cette fort modeste participation des énergies nouvelles montre que la transition énergétique est encore un objectif extrêmement lointain.
Ceci n’est pas une critique, mais une simple remise en phase des proclamations médiatiques avec les réalités du terrain.
Source: Commissariat Général au Développement Durable.
       Chiffres clés de l’Energie.
       Edition 2015 publiée en Février 2016
Ces chiffres doivent nous inciter à une certaine modestie et, par-dessus tout, à ne pas sous-estimer l’ampleur de la tâche qui nous attend.
Les outils de la transition existent et  nous maîtrisons ces nouvelles technologies. Il nous reste maintenant à les développer.
___________________

L’éolien et le solaire sont les deux chevaux de bataille de la transition énergétique.
Aujourd’hui, en 2015, leur part ne dépasse pas 1,5% de l’énergie finale consommée.
(28,2 TWh sur un total de 1 860 TWh).
Pourtant les médias se laissent volontiers emporter par l’enthousiasme et n’hésitent pas à les considérer comme prêts pour remplacer tout à la fois du pétrole, du gaz naturel et du nucléaire, la chose pouvant s’accomplir dans les dix ans qui viennent, grâce à la puissante méthode du « Ya ka ».
Là encore il y a lieu de tenir compte des réalités de terrain, et de ne pas confondre la carte avec le territoire, comme dirait l’autre…

________________________


L’énergie éolienne est certes une énergie d’avenir, elle est un passage obligé que personne ne songe à remettre en question.
Mais sa mise œuvre soulève quelques problèmes qu’il ne faudrait pas négliger sous peine de graves déboires.
Et il y a là aussi un problème d’échelle qu’il est essentiel de prendre en compte.
Le développement de l’éolien terrestre (Le seul existant en France) a mis en évidence les difficultés liées à des régimes de vents capricieux et irréguliers conduisant à des facteurs de charges inférieurs à 20%, et parfois moins selon les emplacements. D’autre part l’acceptabilité par les populations est elle-même problématique en raison de troubles liés à la proximité, et de nuisances visuelles, ce qui interdit pratiquement l’usage de grosses machines. Enfin l’irrégularité de la production terrestre crée des difficulté d’intégration de cette production sur le réseau, eu égard à l’absence d’installations de stockage de régulation.
Pour toutes ces raisons il a été reconnu que le développement de cette technologie devait passer par des installations « offshore », qui bénéficient de régimes de vents plus réguliers et plus forts, et d’une meilleure acceptabilité liée à la distance, ce qui permet d'utiliser des machines de puissance très élevée inacceptables à terre.
Par contre c’est une technologie incomparablement plus coûteuse que le terrestre, tant en matière d’investissements qu’en matière de maintenance et de raccordements.
Et il subsiste le problème de l’acceptabilité et de la coexistence avec les autres usages de l’espace maritime (Navigation, Pêche, Tourisme plaisance, aquaculture).
La France met en avant depuis des années sa position privilégiée en matière d’éolien off shore: des côtes maritimes abondantes et avec des régimes de vents variés permettant une production régulière et abondante.
Or, bien que cette technologie soit déjà implantée dans différents pays européens, et ailleurs dans le monde, elle est totalement absente chez nous.
Mais nous ne manquons pas de projets.
Le premier projet d’éolien offshore susceptible de voir le jour regroupera trois parcs sur des emplacements situés au large de Saint Nazaire, Fécamp, et Courseulles.
Pour un total de 238 machines de 6 MW ( Puissance totale installée de 1428 MW).
Avec un facteur de charge prévu de 35%, la quantité d’énergie produite annuellement s’élèvera à 5,5 TWh dans les conditions du catalogue.
Ce qui représente à peine la moitié de la production d’un seul réacteur nucléaire de la dernière génération des REP  de 1300 MW.
Ou encore la production d’une des dernières centrales à charbon supercritique de 600 MW de l’usine du Havre.
Ceci n’est pas un plaidoyer pour le nucléaire ou le charbon, mais simplement une base de comparaison des échelles.
Si tout va bien (Le contentieux avec les opposants n’est pas entièrement réglé) ces trois parcs entreront en production en 2020.
Cet apport de 0,3% à la consommation finale ne changera pas la face des choses, mais il faut bien prouver le mouvement en marchant.
_____________________

Le solaire n’est pas en meilleure posture. Le photovoltaïque raccordé au réseau ne fournit actuellement que 0,5% de notre consommation d’énergie finale.
Après le boom de 2010 et 2011, le déploiement s’est ralenti après 2012, en grande partie à cause de la révision des tarifs de rachat, qui met fin à l’effet d’aubaine du début.
Le solaire doit maintenant trouver un modèle économique plus adapté aux réalités. Au lieu d’être vu comme un placement financier (Qu’il n’a d’ailleurs jamais été vraiment) il faut l’intégrer dans un bilan global d’efficacité énergétique des bâtiments, qui passe d’abord par des performances thermiques de haut niveau.
Quand à la production solaire raccordée au réseau, elle trouve sa rentabilité dans des installations de puissance installée de plusieurs centaines de MW.
87% des installations (en nombre) sont des « petites installations » de moins de 3 KW, qui fournissent 18% de l’énergie électrique photovoltaïque, alors que 3% des installations sont des grosses usines solaires de plusieurs centaines de MW, qui fournissent 65% de l’énergie PV raccordée au réseau.
_______________________

Ce bilan des énergies nouvelles correspond à une situation d’attente.
Tant que la production électrique sera à près de 80% électronucléaire, et tant que le pétrole et le Gaz naturel seront disponibles à bas coût et quasiment sans taxe carbone, il n’y a aucune raison d’espérer un changement.
Certains indices montrent même que le Charbon renaît de ses cendres, ce qui serait un comble, après le matraquage que nous avons subi sur la nécessité de réduire les émissions de CO2.
Le coup de grâce serait la mise en production d’un site d’extraction de gaz de schiste…
____________________

 

 

 

Repost 0
5 décembre 2016 1 05 /12 /décembre /2016 18:57

 

5 Décembre 2016
Depuis déjà plus d’une décennie, l’ordre énergétique nouveau s’est donné pour emblème la Transition énergétique.
Cette mobilisation a pour objet principal, officiel, la lutte contre le réchauffement climatique.
Il y a d'autres motivations, sous-jacentes mais non moins importantes, comme la menace de pénurie de réserves fossiles et la recherche de l'indépendance énergétique.
Mais le réchauffement climatique, désormais dénommé "dérèglement climatique" est l'ennemi commun désigné en tant que danger immédiat, plus facilement identifiable qu’un accroissement infime de la température moyenne, souvent contredit par des évènements météorologiques locaux.
Le moyen retenu pour mener cette lutte est la réduction des émissions anthropiques de dioxyde de Carbone résultant de la combustion des énergies fossiles.
Les mots d’ordres censés galvaniser les citoyens consommateurs sont:
- Haro sur le CO2.
- Mort aux énergies fossiles.
- Sus au gaspillage énergétique.
- Gloire aux énergies renouvelables décarbonées: Eolien, Solaire, Hydraulique, Biomasse, Géothermie.
Cette liste résume l’essentiel des « commandements » de la nouvelle doxa, qui se voudrait l’expression de la religion écologique pour ce qui concerne l’énergie.
Les gardiens du temple sont les augures du GIEC, auto proclamés infaillibles en matière de climatologie.

La plupart des Etats de la Planète se sont ralliés officiellement à ce programme, même si ce n’est pas toujours pour les mêmes raisons.
(Du moment qu’il y a des sous à récupérer…).
Des actions fédératives sont décidées, des réunions œcuméniques annuelles sont organisées avec un grand apparat, au cours desquelles les engagements de chacun sont solennellement renouvelés.
Cette victoire apparente de l’Ecologie doit cependant être fortement nuancée car l’un de ses préceptes, et non des moindres, n’a pas été pris en compte dans la nouvelle doxa, qui revêt de ce fait un caractère schismatique.
Il s’agit de l’exigence d’abandon de la filière électronucléaire.
Il est vrai que cette technologie représente à la fois le meilleur de le pire:
Elle est une technologie décarbonée, ce qui satisfait l’exigence première de la transition énergétique. On ne peut donc pas lui montrer la sortie sans trahir l’engagement premier.
Par contre son caractère renouvelable n’a jamais été réellement démontré, sauf à se projeter dans un futur incertain avec la fusion nucléaire, saint graal de la filière, sorte de messie énergétique dont la venue est annoncée pour une date indéterminée, dans la plus pure tradition messianique.
Mais, dans sa forme actuelle, elle est aussi une technologie très sale, capable de polluer la Planète pour des milliers d’années, voire beaucoup plus.
L’absence de décision claire à son sujet font d’elle une Arlésienne qui s’invite à tous les conciles et qui, sans être présente, est au cœur de l’action grâce à un lobbying effréné.
C'est ainsi qu’en 2015, 450 réacteurs étaient en activité dans le monde, et 68 étaient en construction, dont 25 en Chine, incluant 2 EPR. Tout va bien, merci.
Il en résulte une ambigüité concernant la croisade du GIEC, dont on peut craindre qu’elle pourrait bien nous conduire à éviter Charybde pour mieux nous faire tomber dans scylla.
Certains se demandent même si le GIEC ne s’est pas laissé enfermé dans le rôle de « faire valoir », pendant qu’ailleurs le business se poursuit « as usual ».
Les fidèles du GIEC ne se posent évidemment pas ce genre de questions. Mais les « Libres penseurs énergétiques » (Oui, çà existe), qui lisent quand même les textes « sacrés », ne trouvent pas toujours, dans cette nouvelle « bible » que des éléments solidement établis. Il y a là matière à l’exercice du doute raisonnable.
La Science ne s’est-elle pas précisément construite sur la remise en cause des vieilles théories ?
Mais ne nous égarons pas.
Le développement des énergies éolienne, solaire, hydraulique, géothermique, et de biomasse, ne peut être qu’une bénédiction pour l’Humanité, quelles que soient les raisons qui conduisent à ce choix.
Il ne peut en résulter qu’un progrès pour les générations futures.
Et peut-être nous pardonneront-elles de leur avoir transmis nos déchets nucléaires, si en contrepartie nous leur laissons une énergie abondante et propre.
Cela vaut bien un effort, n’est-il  pas vrai ?
_________________

La France se veut en première ligne dans la lutte contre le réchauffement climatique, et ceci depuis les toutes premières escarmouches. La COP21 a été l'occasion de confirmer les engagements du concile, et de les mettre noir sur blanc lors de la COP 22.
Nous sommes donc fondés à croire qu’elle est devenue la vitrine de ce nouveau combat pour préserver la Planète.
Voyons donc ce qu’il en est concrètement du remplacement des énergies fossiles par des énergies propres et renouvelables.
Et plus spécialement pour la production électrique, puisque c’est le domaine privilégié de ces nouvelles énergies.
___________________

Avant qu’il soit question de transition énergétique, au siècle dernier, le mix électrique français reposait sur trois secteurs:
- L’électronucléaire.
- les centrales thermiques à flamme utilisant des combustibles fossiles.
- Les centrales hydroélectriques.
Par exemple, à la fin du XXè siècle, la production d’électricité se répartissait ainsi (En 2000):
- Electro nucléaire:        415 TWh
- Thermique fossile:      53 TWh
- Hydroélectrique:          72 TWh
        TOTAL:    540 TWh
Les énergies nouvelles de la transition énergétique étaient encore absentes du mix électrique, elles en étaient (Du moins en France) au stade de l'expérimentation.
( L’Hydroélectrique étant un acteur historique, dont l’existence ne doit rien à la « nouvelle » stratégie climatique).
15 années plus tard, et après moult réunions plénières des institutions internationales en charge du développement de la stratégie de transition énergétique, qu’en est-il en France ?
En 2015, la production d’électricité a été la suivante:
- Electro nucléaire:        417    TWh
- Thermique fossile:      34    TWh
- Hydroélectrique:          59    TWh
- Eolien:              21    TWh
- Solaire:                7,5 TWh
- Biomasse:                8    TWh
        TOTAL:    546     TWh

Le rapprochement des chiffres permet certaines remarques instructives:

- malgré la croisade proclamée contre le gaspillage d’énergie, la production est restée stable. Donc inefficacité complète de la stratégie sur ce point.
« On » avait simplement oublié que les gains d’efficacité énergétique seraient compensés par un accroissement des besoins liés à l’augmentation du nombre de ménages, la demande de confort, l’invasion des nouvelles technologies, et bientôt de la voiture électrique, de la pompe à chaleur, et même des climatiseurs.
Et surtout que les travaux d’isolation thermique des logements ne se décrètent pas.
En effet, contrairement à ce que pensent les hommes politiques, généralement issus de milieux aisés, ce n’est pas la mauvaise volonté qui freine l’essor des travaux d’isolation thermique, mais le manque d’argent, tout simplement.
(Eh oui, Madame le Ministre, çà existe les fins de mois difficiles…)
La transition énergétique était (est encore) basée sur une forte diminution de la demande électrique. Tout est donc à remettre en cause.
Heureusement tout n'est pas perdu car les ingénieurs de EDF, en général peu sensibles aux élucubrations des prévisionnistes du Gouvernement, ont bien anticipé cette demande d'énergie et ont su maintenir à niveau l'outil de production, il faut les en remercier.
(Les soutiers de l’énergie sont en général pleins de bon sens; on ne peut en dire autant de certains  politiciens).

- On constate que le mix électrique est très peu modifié. Les mêmes sources d’énergie, qui fournissaient 100% de la production il y a quinze ans, sont toujours massivement présentes, à hauteur de 93,3 % de la production électrique.
La percée des énergies nouvelles n’a donc pas encore eu lieu, quoiqu’en disent les documents officiels, qui confondent puissance et énergie, et qui se servent de la production hydraulique comme faire-valoir, alors que cette technologie est très ancienne et ne doit rien aux récentes décisions de la transition.

- les énergies nouvelles sont certes présentes, mais leur faible part de 6,7% dans la production électrique en fait des sources encore largement minoritaires. A peine de quoi les faire figurer dans les bilans.
Cette participation discrète ne permet même pas de prendre la mesure des difficultés de leur intégration au mix électrique, notamment concernant l’obligation d'adosser l'éolien et le solaire à des moyens de stockage d’électricité.
Il faudra attendre une part de 15 à 20% pour prendre conscience des vrais problèmes, si toutefois cette part est atteinte un jour, ce dont on peut douter….
Il y a donc de quoi s’interroger sur l’impuissance de l’Etat à appliquer des résolutions « solennelles ».
Impuissance, ou manque de conviction ?
________________________

En 2015, en France, la puissance installée totale des moyens de production électrique était de 129 GW.
La production totale d’électricité est montée à 546 TWh.
(Production brute).
L’électronucléaire, avec 48,8 % de la puissance électrique installée, a produit 76,3 % de l’énergie électrique.
Les énergies nouvelles (Eolien + Solaire), avec 12,8 % de la puissance installée, n’ont produit que 5,2 % de l’énergie électrique totale.
Ce qui correspond à un facteur de charge global de 20% environ, qui est dans la normalité de ces technologies.
(Un éolien uniquement terrestre, avec des petites machines, et un solaire qui fait ce qu'il peut car la France n'est pas le Sahara et le Soleil y est parcimonieux).
Le rapprochement de ces chiffres met en évidence le handicap des installations éoliennes et solaires par rapport à une installation de base thermique à flamme, qui peut fournir de l’énergie plus de 85% du temps.
Et de plus, une centrale à Gaz moderne à cycles combinés et cogénération peut bénéficier d’un rendement nettement amélioré, jusqu’à 70%, et donc fournir beaucoup plus d’énergie, à la fois électrique et sous forme de chaleur, ce qui est évidemment impossible avec l’éolien ou le solaire, sauf à utiliser des installations solaires à concentration, ce qui n’est pas programmé à notre connaissance, du moins en France métropolitaine.
Le projet de premier parc éolien offshore des côtes atlantiques françaises rencontre une telle opposition de la part des riverains, qu’il a dû être reporté de deux ans…
Même le charbon fait mieux que le solaire ou l’éolien, puisque les nouvelles centrales ultra-supercritiques affichent un rendement de 46% avec un facteur de charge de plus de 80%.
Mais la comparaison ne s’arrête pas là.
En effet, aujourd’hui la production éolienne et solaire est faible, et donc facilement « digérable » par le réseau EDF, sans créer de gros problèmes de réglage du réseau.
( Le "réglage" est l'exercice qui consiste à maintenir la tension et la fréquence à l'intérieur des limites définies par le cahier des charges du grand réseau européen.
Mais demain, lorsque ces énergies produiront vingt fois plus (La stratégie de transition prévoit une part de 30% d'éolien et de solaire dans le mix électrique à terme), le réseau ne pourra plus les absorber en direct, il faudra impérativement passer par un système de stockage pour réguler le débit de ces sources intermittentes.
Aujourd’hui ce système n’existe pas, et ne fait l’objet d’aucun programme de développement.
Aucune STEP à l’horizon, en dehors de celles qui existent déjà, et sont utilisées ailleurs.
Il existe par ailleurs de beaux articles sur la filières hydrogène, mais les réalisations ne suivent pas.
Sur ces deux points la France est en passe de devenir une "next year society", qui promet de surprenantes réalisations, mais toujours pour l'année prochaine…
On comprend mieux dès lors la grande réticence des énergéticiens à abandonner le nucléaire, même en partie, sachant que le remplacement de cette énergie par du solaire, de l’éolien ou de l’hydraulique supplémentaire, exigera des moyens considérables, que personne n’est disposé à fournir.
Et surtout pas le consommateur, pour qui le prix de l'énergie est un sujet explosif; et aucun homme politique n’est prêt à allumer la mèche.
D’autant plus que, selon une légende urbaine tenace, le coût de l’électricité solaire et éolienne sera nettement moindre que celui du nucléaire, alors que…  
___________________

Ces problèmes, bien réels, ne sont jamais évoqués officiellement.
Faudra-t-il attendre quinze ans de plus pour voir enfin une stratégie de transition cohérente qui permettra aux industriels d’envisager l’avenir avec un minimum de confiance ?
Par ailleurs, le boom du gaz et huiles de schistes et le renouveau du charbon ne sont-ils pas des indices du peu de crédibilité accordée aux menaces du réchauffement climatique ?
Nous sommes tranquillement en train de perdre la lutte contre le CO2. Peut-être serait-il temps de s’intéresser à une stratégie plus pragmatique, qui consisterait à apprendre à gérer les conséquences d’un réchauffement désormais inévitable ?
Il est vrai que l'on ne parle plus de réchauffement, mais de "dérèglement climatique", plus conforme à la réalité constatée.
_____________

Dans la recherche des causes de cet échec, on ne peut pas, sous peine de négligence intellectuelle, ne pas tenir compte de la probable influence d’un groupe de scientifiques confirmés, de valeur incontestable*, dont les travaux conduisent à des résultats qui contredisent les affirmations du GIEC.
* La plupart d'entre eux publient les résultats de leurs travaux dans des revues scientifiques à comité de lecture (Peer review).
Certains décideurs, et non des moindres, peuvent considérer cette démarche contradictoire comme légitime, et digne d’être examinée par un comité scientifique indépendant du GIEC.
Quelle que soit la suite donnée, ou pas, à ce contre-feu, un ferment de doute a été semé, qui peut susciter une certaine méfiance à l’égard des bouleversements de l’industrie de l’énergie, exigés par la révolution « imposée » par le GIEC.
En clair, avant de jeter le bébé avec l’eau du bain et de dépenser des centaines de milliards, il y aurait lieu d’y regarder de plus près.
C’est une idée qui fait son chemin…
________________

 

 

 

 

Repost 0
30 novembre 2016 3 30 /11 /novembre /2016 18:11

Menace de pénurie d’électricité, réalité ou électrochoc préventif ?

30 Novembre 2016
Des réacteurs nucléaires sont à l’arrêt.
Rien d’anormal. Un réacteur doit périodiquement être arrêté pour remplacer le combustible usé, ou pour effectuer une réparation suite à la détection d’une anomalie, d’une fuite, ou à titre préventif, ou à l’occasion de la grande révision décennale.
Les périodes d’immobilisation se font de plus en plus longues et fréquentes avec le cumul des années d’exploitation.
Actuellement, et avant la dernière intervention de l’ASN, ces arrêts techniques se traduisaient par un facteur de charge global de 75 % environ, ce qui traduit l’âge avancé du matériel.
(Qui a fourni quand même plus de 400 TWh dans l’année).
Suite au problème d’acier de cuve découvert à Flamanville, l’ASN a « épluché » les dossiers de fabrication des réacteurs du parc actuellement en service, et de nombreuses « irrégularités » ont été découvertes, en rapport avec ce problème de conformité de l’acier utilisé, justifiant des éclaircissements et des analyses complémentaires sur 18 réacteurs.
Les pièces incriminées sont des couvercles de cuves et des fonds de générateurs de vapeur, pièces qui font partie des circuits primaires et donc supportent la température élevée ( 300 °C), la pression élevée ( 155 bars), et bien sûr l’eau contaminée par les produits radioactifs.
Ces pièces sont donc en première ligne, elles doivent résister à des conditions extrêmes notamment l’injection d’eau froide en cas d’accident par perte de réfrigérant primaire.
Il est donc essentiel que l’acier qui les constitue soit conforme aux spécifications du cahier des charges.
___________________

Quel va être le sort de ces 18 réacteurs ?
D’abord, 6 d’entre eux ont été mis hors de cause, et ne sont donc plus concernés.
7 autres étaient déjà arrêtés pour maintenance programmée.
1 est arrêté pour une inspection programmée jusqu’à fin Décembre.
4 ne sont pas encore arrêtés, mais le seront sur la période Décembre-janvier.
Tout cela est un peu confus. Il faut retenir que le risque est grand de voir sur Décembre-janvier-Février quatre ou cinq réacteurs maintenus à l’arrêt pour des raisons autres que la maintenance programmée.
Les écarts constatés sur la composition de l’acier des pièces incriminées ne les condamnent pas à priori.
Mais des analyses approfondies doivent être effectuées, y compris sur des pièces sacrifiées, afin de re-évaluer la probabilité d’augmentation du risque statistique de rupture dans les conditions de contrainte accidentelle.
Les réacteurs en cause seront (Ou pas) remis en service progressivement au fur et à mesure de la réception des rapports d’analyse et de l’avis de l’ASN.
La production électronucléaire sera évidemment affectée par ce « contretemps », et la puissance disponible risque de ne pas être suffisante pour passer le pic de la demande au cœur de l’hiver.
Le déficit de puissance est d’environ 1 GW par réacteur indisponible.
EDF a lancé une alerte et a entrepris de mettre en œuvre un plan prévisionnel dans le but de limiter les dégâts, c’est-à-dire les délestages de certains secteurs du réseau.
_____________________

Est-ce bien grave docteur ?
Tout dépend de l’intensité de la fièvre électrique à ce moment de l’année, et du nombre de réacteurs immobilisés évidemment.
En France, de nombreux logements sont équipés de chauffage électrique; d’autres ont un chauffage ancien peu efficace, et souvent ces logements sont mal isolés. Il faut recourir à des radiateurs d’appoint. La puissance électrique demandée est alors directement dépendante de la température extérieure, entre autres causes évidemment.
Selon EDF, le facteur de proportionnalité est de 2,4 GW/ °C.
(Soit l'équivalent de 2,5 réacteurs par degré).
____________________

Contrairement à certains pays en voie de développement, où l’électricité n’est délivrée que quelques heures par jour, la France a pour principe de fournir l’électricité à ses clients 24 h sur 24 quelle que soit la demande.
Enfin presque.
Car évidemment la générosité a ses limites.
En matière d’électricité elle ne peut dépasser la puissance maximale disponible à un moment donné.
EDF a établi un plan de délestage qui fait partie de sa stratégie de gestion de crise. Ce plan sera mis en œuvre en cas de nécessité.
____________________

Mais au fait, quelle est cette puissance max disponible ?
C’est une grandeur fluctuante, qui dépend de l’état du parc de production, des circonstances et de la durée pendant laquelle elle est sollicitée.
Un peu comme le fût du canon du regretté Fernand Raynaud, y compris l’influence du vent puisque désormais il faut compter avec les éoliennes.
_________________

Les moyens qui participent à la fourniture de cette puissance électrique sont très variés.
On peut les classer en deux grandes catégories:
La première catégorie comprend les moyens de production dits « de base et semi-base », c’est-à-dire capables de fournir de l’électricité à la demande en permanence sans interruption.
En quelque sorte, qui obéissent « au doigt et à l’oeil ».
(Pour garantir cette « permanence » l’Etat a l’obligation de constituer des « réserves stratégiques » représentant trois mois de consommation).
Ces moyens permanents sont :
Les réacteurs nucléaires, qui constituent en France la colonne vertébrale du système, et les centrales thermiques à flamme qui fonctionnent au Gaz naturel, au fuel, et au charbon, qui sont dits « de semi base » car ils ne sont sollicités que lorsque c’est nécessaire, à cause du CO2.
(On peut citer pour l’anecdote quelques unités fonctionnant à la biomasse, mais leur apport au réseau est encore confidentiel).
La deuxième catégorie comprend des installations dites « d’appoint » .
Ce ne sont pas des moyens de base, car leur disponibilité n’est pas assurée, soit parce que leurs réserves d’énergie  sont limitées, soit parce que leur production est conditionnée par des circonstances hors contrôle telles que le vent ou l’ensoleillement.
Il s’agit essentiellement de l’Hydroélectrique, de l’éolien, et du solaire.
Ces moyens ne sont productifs que s’il y a de l’eau, du vent et du Soleil, cela tombe sous le sens.
C’est la conjonction de tous ces moyens, à un moment donné, qui constitue la puissance disponible.
___________________

Qu’en est-il en pratique ?

- Le parc nucléaire comprend 58 réacteurs, dont les puissances nominales cumulées atteignent 63 Gigawatts.
C’est la puissance électrique qui serait obtenue si tous les réacteurs fonctionnaient à 100 %.
Dans la vraie vie il y a toujours quelques réacteurs arrêtés pour maintenance ou remplacement du combustible, et le « facteur de charge » global sur l’année peut varier entre 75 et 85 %.
En France, compte tenu de l’âge du matériel, la puissance électronucléaire disponible à un moment donnée peut varier dans une fourchette de  48 à 53 GW environ selon l’état global du parc, qui n’est pas le même d’une année sur l’autre, et selon le nombre de réacteurs arrêtés à un moment donné.
(Elle varie selon les aléas techniques du parc nucléaire. Elle diminue pour un parc vieillissant).
A l’heure où nous écrivons ces lignes ( 12h, le 29/11) nous soutirons 78 GW sur le réseau, et EDF prévoit  un pic de 82 GW à 20h ce soir.
Le nucléaire ne suffit donc pas à satisfaire notre appétit de watts, malgré la relative clémence de la météo.
En effet, au moment où nous parlons, et compte tenu du ou des réacteurs supplémentaires arrêtés par l’ASN, le nucléaire fournit péniblement 47,5 GW, on est loin des 63 GW théoriques!
_________

Donc, lorsque la demande est supérieure à la puissance nucléaire disponible à ce moment (c’est le cas en période hivernale), il faut faire appel à d’autres moyens de production dits « de semi base » qui sont les centrales thermiques à flamme.
Il y a en France un parc de centrales thermiques diversifié. Elles fonctionnent principalement au Gaz naturel, mais aussi au Fuel et au charbon.
Les puissances max disponibles sont environ:
Gaz naturel:        11 GW
Fuel:              9 GW
Charbon:          3 GW
Soit 23 GW  en mobilisant tout le monde, y compris le charbon.
Lorsque c’est encore insuffisant, on fait appel aux moyens de production d’appoint.
________

Un moyen de production électrique est dit « d’appoint » lorsqu’il dépend d’une énergie dont il n’existe pas de stock (ou dont il existe un stock très limité), ou d’une énergie qui dépend directement d’éléments fortuits comme le vent, l’ensoleillement, le débit d’un cours d’eau.
La production d’appoint est constituée de l’Hydroélectrique, de l’Eolien, du Solaire, et des centrales à biomasse.
La production hydroélectrique comprend quatre secteurs:
- Des turbines adossées à des barrages de haute ou de basse chute.
- Des turbines associées à des barrages éclusés, sur des cours d’eau.
- Des turbines « Au fil de l’eau » (Hydroliennes et centrale marée motrice de la Rance).
- Des stations de pompage-turbinage (STEP).
Chaque secteur joue un rôle différent, mais tous sont complémentaires.
Le parc Hydraulique Français est considérable, la puissance installée (Nominale) atteint 25 GW.
Mais cette puissance n’est disponible que durant une période qui dépend de la quantité d’eau contenue dans le réservoir du barrage.
La remarque n’est pas triviale, car le taux de remplissage des réservoirs n’est pas toujours optimum, il dépend de la pluviométrie des mois précédents, du débit des cours d’eau, et des précédents prélèvement d’eau.
La puissance hydraulique sollicitée à un moment donné doit tenir compte de ce qui a été déjà consommé auparavant, et de ce dont on risque d’avoir besoin ultérieurement.
Les capacités de pompage-turbinage sont d’environ 5 GW, qui peuvent être mobilisés sur une durée limitée évidemment car la capacité de ces réservoirs est en général faible.
L’Hydraulique peut intervenir sur une durée conséquente, mais pour une puissance limitée. Ce sont alors surtout les grands barrages qui fournissent l’énergie.
L’hydraulique fournit annuellement environ 50 TWh d’électricité, ce qui correspond à une puissance moyenne de 6 GW environ.
Ce secteur est surtout sollicité en hiver, où il peut fournir temporairement 10 à 15 GW si les barrages sont bien garnis.
__________

L’autre volet des énergies d’appoint comprend le solaire et l’éolien, dont la capacité d’intervention est intermittente, du moins tant que leur production ne pourra pas être stockée.
Les STEP existantes sont déjà intégrées à la gestion des fluctuations de la production classique, elles ne peuvent dont pas être utilisées au bénéfice du Solaire ou de l’Eolien. On ne peut déshabiller Pierre pour habiller Paul.
Les puissances solaire et éolienne cumulées « installées » raccordées au réseau en Sept 2016 sont:
Eolien :      12 GW    Uniquement terrestre pour le moment.
Solaire:      7  GW
____________

La composition du mix électrique est très variable, y compris d’une heure à l’autre, en fonction de la demande intérieure, des puissances disponibles des différents moyens de production, de la stratégie énergétique de EDF, mais aussi des cours du marché.

Le 29 Novembre 2016, à 12 h, le mix électrique était le suivant:
- Electronucléaire:        47,4  GW   
- Hydraulique:                8,5  GW
- Gaz naturel:                8,6  GW
- Charbon:                    2,3  GW
- Fuel:                           0,6  GW
- Eolien:                        2,2   GW
- Solaire:                      1,8   GW
- Biomasse:                  0,8   GW
- Importations:             4,3   GW
- Pompage:                 0      
Pour une puissance totale de 76,5 GW.

Ces éléments sont accessibles en temps réel ici:
http://clients.rte-france.com/lang/fr/visiteurs/vie/courbes.jsp
Et ici:
http://www.rte-france.com/fr/eco2mix/eco2mix-mix-energetique
____________

La puissance max disponible avec les moyens de production de base et semi-base se situe donc dans une fourchette de 71 à 76 GW environ.
Au-delà il faut faire appel à des moyens de production d’appoint et/ou aux importations.
Le seul outil d’appoint à peu près contrôlable est l’Hydraulique, puisqu’il existe un stock relativement important dans les barrages, qui permet d’assurer une puissance de 10 à 15 GW plusieurs heures par jour, voire même plus.
Ce qui porte la puissance max à une fourchette de 80 à 90 GW avec un degré de vulnérabilité relativement faible.
Les autres moyens, éolien et solaire, ne peuvent être inclus dans des prévisions qu’avec beaucoup de précaution, puisque leur production n’est pas stockable ( pour le moment).
Il reste un coup de pouce qui peut être donné par les STEP, que l’on garde en réserve pour une urgence de quelques heures.
Ensuite, il faut recourir aux importations, dans la limite des 10 GW permis par les moyens transfrontaliers qui nous relient à tout nos voisins, dans le cadre des échanges Européens.
Une amputation d’une partie des moyens de production nucléaire aurait dont un effet immédiat sur nos capacités à faire face à une demande importante du marché intérieur.
Rappelons que le record du pic de la demande a été de 102 GW un certain 8 Février 1012 à 19 h.
Ce jour là le nucléaire était à 59,6 GW, L’Hydraulique à 15 GW, et l’Eolien à 4 GW.
Aujourd’hui, avec un nucléaire à 47 GW,  nous aurions les plus grandes difficultés à satisfaire le même niveau de demande.
Si, en plus, l’ASN maintient quelques réacteurs supplémentaires à l’arrêt pendant la période des grands froids, l’équation sera insoluble.
________________________

L’exercice de ping pong auquel se livrent actuellement l’ASN et EDF, en espérant qu’il ne s’agisse que d’un exercice, a au moins le mérite d’attirer l’attention des média, et donc du grand public, sur la menace bien réelle qui pèse sur la sécurité des fournitures électriques.
Menace qui pourrait bien se concrétiser si les français continuent à « tirer  du jus » sans souci d’économie, notamment sur le chauffage électrique des logements mal isolés.
(10 Millions de radiateurs d’appoint de 1000 W font 10 GW !).
Suivez mon regard, qui désigne le nouveau compteur Linky qui, précisément, se propose de nous aider à corriger tout çà.
Avec l’ancien système, toujours en usage jusqu’à l’installation des Linky, un délestage ne pouvait être appliqué que sur un secteur commutable, lequel pouvait impliquer des habitations, mais aussi un hôpital, des services, bref beaucoup de monde.
Avec le Linky, EDF pourra « délester » Monsieur Dupont et Monsieur Durant sans toucher aux établissement prioritaires.
Fini l’immunité dont « bénéficient » les usagers d’un secteur dans lequel se trouve une clinique ou une entreprise stratégique, désormais le délestage sera (pourra être)  « ciblé » à l’unité.
__________________

Ce rôle de « Père fouettard » exercé par le Linky sera tempéré par l’existence de « contrats de délestage » , un peu le genre EJP (Effacement Jours de Pointe) mais en plus fin.
L’usager participant pourra, moyennant avantages tarifaires, s’équiper d’un petit gestionnaire d’énergie capable de faire en interne du délestage sélectif, à la demande du Linky et selon un plan convenu à l’avance.
Un éventuel délestage à l’initiative de EDF ne concernerait alors que la partie des appareils désignés dans le contrat, et non la totalité de l’installation.
___________________

Un autre aspect de la « crise » actuelle du nucléaire est son caractère d’avertissement.
Une sorte de « Buzz » en direction de ceux qui n’auraient pas encore compris que les économies d’énergie électrique ne sont pas juste un « geste écologique » , mais une obligation incontournable à laquelle nous allons devoir nous plier, contents ou pas contents, au besoin par des mesures contraignantes.
___________________

Cette atmosphère de crise électrique interfère évidemment avec la politique nucléaire.
Le choix éventuel d’une stratégie programmée de sortie du nucléaire est un choix Politique, sur lequel aucun Gouvernement n’a encore voulu se prononcer clairement.
(l’annonce d’une réduction de 50% du nucléaire à l’horizon 2030 est une farce qui ne fait pas honneur à ses auteurs).
La politique actuelle est donc celle du « non choix », encore connue sous le nom de « politique du chien crevé au fil de l’eau »; on laisse les choses aller tant bien que mal, l’objectif étant d’atteindre sans dommage la date de la prochaine échéance électorale, en temporisant par des annonces fantaisistes qui ne sont prises au sérieux que par les benêts.
La raison en est qu’aucun homme politique n’ose prendre le risque de dire la vérité (En Politique la vérité est un sujet brûlant qu’il vaut mieux en général éviter).
(Un certain candidat prétend casser ce tabou et nous ouvrir enfin les yeux, nous verrons ce qu’il est si…).
Aujourd’hui, dans l’état actuel des choses, on ne peut tout simplement pas se permettre d’arrêter définitivement des réacteurs.
Il suffit d’une petite calculette pour comprendre que l’arrêt de quatre ou cinq réacteurs supplémentaires nous placerait devant la nécessité d’imposer périodiquement des restrictions de consommation d’électricité, ce qu’aucun homme politique ne prendrait le risque d’annoncer.
Le parc électronucléaire ne peut concrètement être réduit qu’après (Et non avant) la mise en œuvre des moyens de production de base de remplacement correspondants.
Ces moyens sont clairement l’éolien et le solaire adossés à des installations conséquentes de stockage de l’électricité.
Or, que se passe-t-il sur le terrain ?
Le seul projet de construction de parcs éoliens offshore sur la côte Atlantique est l’objet de tant de procédures que le contentieux résultant a entraîné un retard des travaux; le démarrage de la production a du être reporté à 2021 !
Quand aux STEP qui permettraient d’exploiter efficacement la production intermittente, elles ont effectivement été programmées:
Le démarrage du programme est planifié pour les calendes grecques, avec mise en service à la saint glin glin…
Curieuse façon d’aborder la transition énergétique…

__________________

 

 

 

 

 

Repost 0
24 novembre 2016 4 24 /11 /novembre /2016 11:23

LINKY pollueur, vrai ou faux ?

Le nouveau compteur poursuit sa pénétration des foyers, malgré la résistance que tente de lui opposer une minorité de « malgré nous » regroupés en cohortes sous des bannières variées.
La diversité de ces bannières contrarie l’efficacité du combat, et suggère même des motivations peu fondées.
Amalgamer la violation de la vie privée avec des agressions contre les personnes EHS, des perturbations des réseaux domestiques, des troubles de réception des programmes radio et télé, et des tentatives d’abus de facturation de l’électricité, constitue un tableau revendicatif impressionnant, mais très dispersé et donc peu efficace jusqu’à présent contre un « ennemi » insaisissable.
Tout çà parce qu’on a voulu faire travailler ensemble des gens qui ne parlent pas la même langue.
_______________

Les réseaux de production  et de distribution de l’énergie électrique sont du domaine de l’Electrotechnique, alors que les CPL sont du domaine des Télécommunications.
Ces deux mondes sont séparés, ont des cultures différentes, des technologies différentes, des applications différentes, des institutions internationales différentes, des normes et des réglementations différentes.
Le diagramme suivant montre la difficulté d’obtenir une coopération efficace sur le sujet des CPL, ne serait-ce que pour constituer des équipes et définir des bases de coopération.

 

 

 

 

 

 

 

LINKY pollueur, vrai ou faux ?

Les ramifications complexes de cette structure de coopération permettent de comprendre la difficulté de faire converger des domaines aussi différents vers une application par ailleurs contestée par une partie des intéressés.
Car en effet, certains experts, notamment des radio télécoms, estiment que la volonté d’étendre la technologie CPL à des applications haut débit n’est pas pertinente et ne peut qu’engendrer du désordre.
Il y aurait donc lieu, selon eux, d’appliquer le principe de précaution, qui veut dire en l’occurrence s’abstenir.
D’ailleurs la pratique de terrain montre qu’il est pratiquement impossible d’établir une réglementation concernant une application sur un réseau qui n’est pas lui-même configuré pour les télécommunications.
A l’impossible nul n’est tenu…
______________________

Le désordre au sein des réseaux CPL, on connaît. Mais cela se passe au sein des réseaux domestiques, où les conflits se règlent par la « bricole » transmise grâce aux forums du net, et parfois devant les tribunaux, qui évidemment sont désarmés eu égard à l’absence de textes et de retour d’expériences.
L’installation d’un réseau domestique CPL est libre de toute démarche ou autorisation. Il suffit d’acheter n’importe où le matériel présumé conforme dès lors qu’il est estampillé CE.
(Penser qu’un produit estampillé CE est automatiquement conforme aux normes, lorsqu’elles existent, est un raccourci intellectuel audacieux).
La mise en œuvre d’un réseau domestique est effectuée par les moyens du bord, sans aucun contrôle.
Le réseau électrique domestique est régi par la norme NFC 15 100 qui est orientée sécurité des biens et des personnes, et pas du tout communications numériques, surtout hautes fréquences.
Le matériel CPL lui-même est de qualité très variable; le respect des normes  y est approximatif, l’interopérabilité y est une notion exotique, et telle paire d’adaptateurs CPL vendue pour assurer (On vous l’assure) un débit de 1 200 Mbps, plafonne au dixième de cette valeur sans provoquer de protestation majeure, puisque « C’est la faute du réseau »…
Quand aux troubles éventuels à des tiers, qui pourraient résulter de ces installations CPL « sauvages », ils sont classés dans la rubrique « Troubles de voisinage » et reçoivent, ou pas, des traitements peu satisfaisants eu égard à l’absence de normes suffisamment sévères.
Seuls les utilisateurs professionnels des transmissions radio, ainsi que les radio amateurs, ont pu obtenir une prise en compte « acceptable » de leurs problèmes, encore faut-il que les solutions préconisées (Exclusions de fréquences) soient effectivement appliquées, ce qui est loin d’être toujours le cas…
____________________

L’arrivée des CPL du LINKY est perçue comme un élément perturbateur dès lors qu’ils sont imposés et que leur utilité n’est pas directement comprise  par le client .
On peut y voir un défaut de communication de EDF, mais aussi de toute la profession.
Les premiers compteurs Linky utilisaient la technologie G1 pour les CPL. Cette technologie a été remplacée par la G3 pour le déploiement à grande échelle.
G3 est une technologie à large bande à porteuses multiples.
On ne peut évidemment pas reprocher à EDF d’utiliser la technologie la plus moderne, alors que les clients l’utilisent déjà dans leur installation domestique multimédia (Home Plug ).
La bande « utile » de G3 s’étend environ de 36 KHz à 90 KHz, donc dans la bande allouée par le CENELEC aux distributeurs d’électricité.
______________

On constate ici une première zone de flou.
Les CPL reçus et/ou générés par EDF et le compteur Linky pénètrent à l’intérieur du logement car il n’existe aucun filtre.
Il y a certes un affaiblissement dans le compteur, puis lors de la traversée du baco, de 10 à 20 dB, mais l’amplitude demeure assez importante pour qu’on en tienne compte.
On peut alors se demander ce que des signaux CPL de la bande A viennent faire à l’intérieur d’un réseau domestique, puisqu’ils sont en principe réservés à la zone « Outdoor ».
Il existe donc une zone de « Non droit » dont il faudra bien définir un jour le statut juridique.
________________

Un réseau c’est comme un repas de famille; si tout le monde parle en même temps il n’y a plus d’échange possible.
Le premier principe de base est donc la fixation d’une règle d’accès au réseau.
Le réseau domestique CPL doit donc lui aussi suivre une semblable règle sous peine de dérèglements certains.
Toutes les applications domotiques utilisant la même bande de fréquence doivent donc également utiliser le même protocole de communication, incluant évidemment le même procédé d’accès au réseau.
Les applications haut débit multimédia utilisent la bande de 1,6 à 30 MHz, en cours d’extension à 100 MHz.
Les applications domotiques bas débit travaillent sur des fréquences beaucoup plus basses fixées par le CENELEC:
Sous bande A: 9 KHz à 95 KHz  réservée aux distributeurs d’énergie électrique (télé relevé)
Sous bande B: 95 à 125 KHz  réservé aux applications domestiques.
Les CPL du compteur LINKY travaillent dans la bande de 36 à 90 KHz, donc très proche de la bande utilisée par les applications bas débit domestiques (Commandes de volets roulants, d’éclairage, de radiateurs de chauffage, etc…).
Il faut donc s’attendre à des choses bizarres de ce côté car de nombreux matériels bon marché ne sont pas toujours équipés de filtres suffisamment sélectifs.
Par ailleurs il existe de nombreux appareils « Non CPL » munis de touches « sensitives » ou « à effleurement » dont les entrées à haute impédance sont très sensibles au champ électrique.
Ce genre de dispositif est évidemment vulnérable aux ondes émises par les CPL.
(Même si le champ émis est dans les normes).

___________________

Nous avons donc d’une part les applications domestiques bas débit utilisant un type de protocole et d’accès au réseau.
Une deuxième groupe d’applications, à haut débit multimédia, qui utilisent un autre type de protocole et d’accès au réseau, mais à des fréquences très élevées.
Là-dessus viennent se greffer les signaux CPL G3 de EDF, qui ne tiennent pas vraiment compte de ce qui se passe dans l’habitation, notamment en ce qui concerne l’accès au réseau, puisque en principe les gammes de fréquences sont différentes.
Ce bazar peut cependant fonctionner, à condition que chacun reste chez soi, c’est-à-dire respecte soigneusement la bande de fréquence allouée.
Et c’est là que le bât blesse.
__________________

Dans les temps anciens EDF utilisait déjà des signaux CPL, mais de manière très discrète.
Il s’agissait d’envoyer deux ou trois fois par jour, à tout le monde, de très courts signaux pour télécommander la commutation de mode Jour/nuit.
La fréquence utilisée, 175 Hz, ne provoquait aucun trouble, d’autant plus que les applications domotiques étaient alors anecdotiques.
Avec le nouveau compteur, les choses sont très différentes:
D’une part, le nombre des messages qui circuleront sur un tronçon du réseau BT EDF sera très élevé car le gestionnaire devra s’adresser à chaque client séparément, et plusieurs fois par jour sinon par heure. Le trafic sera donc beaucoup plus important, quasiment semi-permanent.
D’autre part, la communication se fera dans une bande de fréquence proche de celle du réseau domestique bas débit, et avec une modulation à large bande à porteuses multiples.
De plus, en cas d’affaiblissement du signal si la ligne est trop longue, un ou plusieurs compteurs pourront être utilisés comme répéteurs.
Ces signaux CPL du compteur, n’étant pas intégrés (Synchronisés) dans le réseau domestique, seront nécessairement perturbateurs car leur niveau sera relativement élevé en phase d’émission vers le concentrateur situé à proximité du transfo BT, c’est-à-dire à une distance qui peut dépasser un km.
______________________

Les réseaux électriques domestiques utilisés pour constituer un réseau de communications CPL , sans précautions particulières, sont vulnérables et la multiplication des applications mettra cette vulnérabilité en évidence.
L’arrivée du compteur Linky n’est que le révélateur de cette vulnérabilité potentielle, dont il faut maintenant rechercher les causes et trouver des solutions, sachant que EDF est logiquement le seul utilisateur légitime du réseau de distribution électrique, et qu’à ce titre il doit bénéficier d’un droit de priorité pour mettre en œuvre les applications du programme « Smart Grid ».
Tout en respectant les normes et les réglementations existantes.
Le retour d’expérience est aujourd’hui insuffisant pour quantifier statistiquement les rejets de la greffe Linky fondés sur une réelle incompatibilité technologique.
(Laquelle doit être évidemment établie après une analyse technique des cas).
Néanmoins dès à présent on doit constater qu’il existe une suspicion d’incompatibilité avec certaines configurations de réseaux domestiques déjà existantes.
Il est probable que chacune des parties y a sa part de responsabilité, même si elle est involontaire.
Faire du Linky le bouc émissaire à priori n’est pas une attitude constructive.
L’analyse doit être globale et donc remettre en cause tous les éléments:
- Le réseau électrique de distribution d’énergie lui-même, tel qu’il découle de l’application de la norme NFC 15 100 , qu’il sera peut-être nécessaire d’aménager.
- Les bandes de fréquences et leur allocation, en harmonie avec la compatibilité électromagnétique, éventuellement sévérisée.
- Le cahier des charges des couches basses de l’architecture du réseau, notamment la couche PHY.
- les protocoles de communication, notamment les protocoles d’accès au réseau, la protection des données, les corrections d’erreurs, les stratégies de streaming, etc…
- les matériels assurant la réalisation des couches basses de la communication, dont le fonctionnement doit être conforme à un cahier des charges incluant les perturbations du réseau.
_______________

La période actuelle doit être vue comme un round d’observation.
Les réseaux électriques domestiques ne sont absolument pas conçus pour être utilisés en réseau de communications.
Et encore moins lorsqu’il s’agit d’y implémenter un réseau partagé entre différents types de protocoles et dans des gammes de fréquences de quelques KHz jusqu’à plus de 100 MHz !
Il n’est donc pas anormal de constater quelques dysfonctionnements dans la période de mise en place.
_______________

 

 

Repost 0
20 novembre 2016 7 20 /11 /novembre /2016 18:46

 

20 Novembre 2016
La campagne de protestation, voire de rejet, contre le compteur communicant LINKY s’accompagne de la tentative d’établir une sorte de « Ligne Maginot » visant à bloquer l’entrée des signaux CPL dans l’habitation.
Les usagers qui montent aux créneaux (Ils sont minoritaires, faut-il le rappeler) le font pour des raisons différentes, en partie complémentaires:
- Les pragmatiques, qui constatent que, depuis l’installation du LINKY, leur réseau domestique CPL (Ou autre) ne fonctionnent plus correctement, et qui en attribuent la faute au nouvel arrivé, à tort ou à raison.
- Les méfiants, souvent les mêmes, qui soupçonnent EDF et/ou le gestionnaire de réseau de vouloir « espionner » leur vie privée à des fins inavouables, et qui veulent se protéger de cette « intrusion ».
- Les scrupuleux, qui estiment que leur installation domotique CPL ne doit pas polluer tout le quartier, et qui donc veulent installer un filtre en sortie du BACO.
(Il s’agit cette fois d’empêcher les signaux du réseau domestique de sortir de l’habitation).
- les personnes EHS (Electro Hyper Sensibles) ou qui se revendiquent comme telles, qui sont malades à la seule idée de voir arriver une nouvelle source présumée agressive.

Quelles que soient les raisons invoquées, justifiées ou pas, la demande existe pour un filtre CPL définissant une frontière entre le réseau domestique et l’extérieur, qui est du domaine public.
____________________

Jusqu’à une période récente, les domaines de l’énergie et des communications vivaient leur vies propres avec leurs problèmes, leurs solutions, leurs réglementations, leurs réseaux, leurs technologies, leurs instances internationales, et tout allait pour le mieux dans le meilleur des monde possible…à condition que chacun reste chez soi.
De plus, dans le domaine de l’énergie électrique, sa production et sa distribution, il existait une frontière quasi sacrée entre la chose publique et la chose privée, cette frontière étant gardée par le fameux « Disjoncteur EDF », plus connu sous le sobriquet de « Baco », le rôle du douanier étant dévolu au compteur d’énergie réputé incorruptible.
Tout au plus voyait-on passer à travers la frontière, une ou deux fois par jour, quelques impulsions destinées à commuter le mode HP/HC et un éventuel « cumulus », pas de quoi fouetter un chat.

____________________

Et puis les temps ont changé.
La révolution numérique a fait entrer dans le domicile toutes sortes d’objets « connectés », de la lampe de chevet jusqu’à la lunette des toilettes en passant par la niche du chien; ces objets sont venus s’ajouter à des applications « utiles » comme la gestion du chauffage, de la centrale anti-intrusion, du gestionnaire d’énergie, du portail d’entrée.
Last but not least, l’informatique et la télévision numérique ont envahi la place, exigeant l’accès au moindre recoin du logis pour l’internet et pour le multimédia, incluant le téléphone et les tablettes évidemment.
___________________

Dans les premiers temps, le réseau domestique de communication numérique télécom et multimédia s’est sagement orienté vers l’utilisation de technologies spécifiques éprouvées comme le câble coaxial (Ou la fibre optique) ou la liaison filaire Ethernet, laissant les CPL aux applications domotiques bas débits pour lesquelles 2 400 bauds suffisent amplement, et les infrarouges à la télécommande du poste.
La WiFi n’était encore qu’une affaire d’intérêt local,, mais qui ne tarderait pas à faire parler d’elle.

Entre temps les ingénieurs avaient développé une technologie extraordinaire, nécessaire pour implémenter la téléphonie cellulaire. Il s’agit de la transmission des signaux numériques par codage utilisant un multiplex fréquentiel et temporel, couplé à une modulation d’amplitude adaptative à multiple états de phase.
C’est un procédé à porteuses multiples, capable de s’adapter aux conditions de transmissions les plus mauvaises, et de passer dans des environnements improbables.
Mais c’est aussi un procédé à large bande, par opposition aux anciens procédés à bande étroite, plus discrets.
C’est ainsi que des petits malins (Aux innocents les mains pleines) se sont avisés que l’ont pouvait même s’en servir pour transmettre internet et la télévision sur les fils électriques du secteur grâce à la technologie CPL!
Et çà marche, enfin en général, car les bons résultats ne sont pas garantis, tant ils sont dépendants de la « qualité » du réseau.
En effet, une installation électrique domestique constitue le pire environnement pour établir un réseau de communication.
(On peut même dire sans exagération que c’est une caricature de réseau). Les spécialistes des télécoms ont levé les bras au ciel, mais l’affaire s’est mise en place, tant était facile l’installation du réseau puisqu’il suffit d’un « simple » adaptateur à bancher sur une prise standard  sans avoir quoi que ce soit à modifier sur le câblage.
________________

Mais ce télescopage forcé entre le monde de l’énergie et le monde des communications est un mariage contre nature, dont les rejetons sont très turbulents.
Le réseau de distribution électrique, même parfaitement conforme à la norme NF C 15 100, n’est absolument pas prévu pour le service de télécommunications.
Les fils électriques ne sont pas blindés, leurs longueurs et leurs diamètres sont variables, l’impédance et les pertes en lignes sont imprévisibles, et surtout ils constituent un réseau très pollué par toutes sortes de signaux, conduits et/ou rayonnés, de formes et de fréquences quelconques provenant de l’extérieur ou de l’intérieur du domicile, et causé par le fonctionnement normal (ou anormal) des appareils divers, branchés ou non.
___________________

Dans cet environnement très hostile, la conception des adaptateurs CPL ne souffre pas la médiocrité.
Ils doivent être capables de remplir plusieurs fonctions:
D’une part extraire, parmi les divers signaux reçus, le signal qui leur est destiné, le démoduler, le décoder, et en faire l’usage défini par leur application, tout cela conformément à la norme et en assurant la rétrocompatibilité et l’interopérabilité avec les autres matériels du même type et pour les mêmes applications.
D’autre part, ils doivent coexister, sans troubles de fonctionnement, avec les autres signaux CPL présents sur la ligne, dès lors que ces signaux sont conformes aux normes en vigueur.
Par ailleurs, ils doivent fonctionner correctement en présence de signaux parasites rayonnés ou conduits, dès lors que ces signaux sont contenu dans les limites fixées par la norme.
Enfin, ils ne doivent pas être eux-mêmes sources de perturbations conduites ou rayonnées, dont les caractéristiques n’entrent pas dans le cadre de la norme.
_____________________

La qualité d’un matériel participant au fonctionnement d’un réseau de communications par CPL se mesure (devrait se mesurer) à ses performances dans quatre domaines différents:
- Le domaine de la sécurité des biens et des personnes, en l’occurrence la protection contre l’incendie, l’électrisation des personnes, la pollution, l’explosion,  etc…En principe garanti par le marquage CE.
(Il y aurait beaucoup à dire sur ce marquage CE).
- Le domaine des protocoles de communication, qui garantit la compatibilité (Y compris avec les protocoles antérieurs) et l’interopérabilité.
- le domaine de la compatibilité électromagnétique (CEM), qui garantit l’innocuité du matériel vis-à-vis des autres applications utilisant des signaux conduits ou rayonnés (Radio) dans les mêmes gammes de fréquences.
- Le domaine de la robustesse vis-à-vis des signaux parasites conduits ou rayonnés, dès lors que ceux-ci ne sortent pas du cadre défini par la norme
(Lorsqu’il existe une norme).
_______________________

Le premier domaine, la sécurité, est très bien maîtrisé puisqu’il reprend les procédures déjà existantes applicables aux matériels électriques classiques ( Du sèche-cheveux à la cuisinière à induction…).

Le second domaine (Protocoles de communication) est déjà un peu plus flou, les protocoles en usage sont encore évolutifs, et la compatibilité n’est pas assurée dans tous les cas.
Il y a donc là une première source de conflits ou de dysfonctionnements.

Le troisième domaine (CEM) est à la limite de l’insaisissable, puisqu’il implique à la fois les caractéristiques du matériel à brancher et celles du réseau électrique, lesquels appartiennent à deux domaines disjoints, l’énergie et les télécom, qui ont du mal à travailler ensemble, pour des raisons historiques.
En effet, le branchement d’adaptateurs CPL sur un réseau électrique domestique constitue un émetteur radio, les fils électriques étant l’antenne, dont les caractéristiques sont évidemment quelconques.
Le problème des perturbations radioélectriques vis-à-vis des radioamateurs et d’autres usagers éventuellement professionnels, a été (en partie) réglé par la norme EN 50 561-1 publiée au JO le 25-02-2014, qui impose entre autres un plan d’exclusion de fréquences interdites aux CPL.
Mais il subsiste les problèmes des perturbations causées aux appareils domestiques télécommandés par radio ou munis de touches à effleurement, pas nécessairement prévus pour supporter les champs électriques de proximité causés par les CPL.
Notons ici qu’il n’existe (encore) aucune recommandation concernant la conception et l’installation d’une réseau de distribution électrique domestique assurant un certain niveau de compatibilité avec les transmissions CPL.
Il y a bien eu une tentative pour imposer un câblage en RJ45, mais peu convainquant.
(C’était pourtant techniquement une bonne solution).

Avec le quatrième domaine, nous entrons  dans l’inconnu.
Les « parasites » que les adaptateurs CPL devront supporter sans faiblir   sont de plusieurs sortes:
- Soit d’autres signaux CPL correspondant à d’autres gammes de fréquences ( par exemple la bande CENELEC  de 3 à 148,5 KHz), et/ou d’autres types de signaux de la couche physique ou d’autres types de protocoles. Par exemple les signaux du Linky.
- Soit des signaux impulsionnels de différentes sources:
Les impulsions parasites présentes sur la ligne EDF, ou créées par le réseau domotique lui-même (Ou celui des plus proches voisins) en provenance de commutations diverses, d’alims à découpage, de démarrage et coupures de moteurs, etc, etc.
Ce quatrième domaine est pratiquement impossible à normaliser, il peut être générateur de troubles et de conflits.
____________________

Rappelons que le compteur Linky communique dans les deux sens avec son maître EDF par des signaux CPL.
Ces signaux se propagent sur la ligne dans les deux sens, et se retrouvent donc chez l’usager car il n’y a aucun filtrage à l’intérieur du Linky.
Cette absence de filtre peut se justifier de plusieurs façons:
- Dans le cadre du projet Smart Grid, EDF a voulu se réserver la possibilité de communiquer plus tard directement par CPL avec certaines zones du réseau électrique de l’usager, soit pour gérer un contrat d’effacement sélectif, soit pour gérer une installation client de production d’électricité, une installation de charge de batterie, ou des moyens de stockage d’énergie partagés.
Pour cela il est nécessaire de laisser libre le passage des CPL, ce qui justifie l’absence de filtre.
- Un filtre secteur bloquant les signaux de la bande A du CENELEC , et placé à l’intérieur du compteur, devrait être conçu pour supporter le courant max permis par celui-ci, c’est-à-dire 100 A.  
Un tel filtre serait énorme, lourd, et onéreux, coûtant probablement trois fois le prix du compteur lui-même.
Sans compter les pertes énergétiques dans les fils et les noyaux des inductances.
Et de plus, ce filtre ne devrait pas perturber le fonctionnement de l’interface CPL du compteur, ni créer de surtensions destructrices lors de coupures du courant ou de court-circuits.
- Le compteur Linky utilise des CPL réputés conformes à la norme et respecte le plan de fréquence puisque son spectre d’émission occupe la bande de 3 à 9O KHz allouée aux distributeurs d’énergie.
Les niveaux d’émissions conduites ou rayonnées sont réputés conforme à la norme.
Les applications CPL du réseau domestique utilisent d’autres bandes de fréquences et, si les installations sont réalisées dans les règles de l’art, les uns et les autres doivent coexister sans problèmes, sauf cas d’espèces.
 
Pour ces trois raisons, le compteur Linky ne comporte aucun filtre.
______________________

Bien sûr, il sera toujours possible de tenter de démontrer que les éventuelles perturbations constatées sont causées par le Linky, dont les signaux CPL ne seraient pas conformes aux normes.
Mais il faudra d’abord démontrer que l’installation domestique du plaignant (Ou des plaignants) respecte elle-même les règles de l’art et n’utilise que du matériel lui-même conforme, ce qui pourrait réserver des surprises quant à certains produits, même estampillés CE.
Quant à remettre en cause les normes elles-mêmes, pourquoi pas ?
Mais attention, quelles normes ?
Une discussion sur le sujet des perturbations pourrait très bien se terminer par une nouvelle réglementation qui imposerait un additif à la NF C 15 100 imposant par exemple un aménagement du câblage électrique de l’habitation (câblage électrique blindé, séparation des lignes de forte puissance et des lignes courants faibles, obligation de certaines liaisons en RJ 45, sévérisation des procédures d’homologation des matériels CPL, etc…)
___________

Lors de la conception du compteur Linky, les ingénieurs de EDF connaissaient bien sûr le « bazar » régnant dans le monde des CPL domestiques, et se sont bien gardés d’y mettre les pieds avant qu’il y soit mis bon ordre ( Car il faudra bien, un jour ou l’autre, faire le ménage).
Ils ont donc prévu dans le nouveau compteur une interface de communication client ( TIC, Télé Information Client) basée sur une transmission filaire (Comme sur le CBE, Compteur Bleu Electronique) qui peut être connectée à un gestionnaire d’énergie du client.
Pour les amateurs de radio, il est prévu dans le compteur Linky un (Petit)  emplacement pour enficher une interface ad-hoc vendue dans le commerce sous le nom d’ERL, Emetteur Radio Linky. Cet interface transmet les mêmes signaux que son homologue filaire.
Donc le gestionnaire du réseau de distribution peut dialoguer avec le client sans utiliser les CPL. Il passe alors par le gestionnaire d’énergie du client, dans la mesure où celui-ci le souhaite.
__________________

Dans un futur plus ou moins lointain les appareils domestiques électriques gros consommateurs d’énergie seront équipés d’interfaces de communication permettant de les raccorder à un gestionnaire local d’énergie.
Sont concernés essentiellement le chauffage, un ballon d’eau chaude, un lave-linge, un sèche-linge, un lave-vaisselle, un four à micro ondes, une pompe à chaleur, une installation de charge de batterie, un climatiseur, une installation de production d’électricité, etc.
La centrale domestique locale de gestion d’énergie sera évidemment programmable, et pourra     être pilotée en accord avec un éventuel contrat de gestion d’énergie dans le cadre du programme EDF « Smart Grid ».
Les liaisons entre le gestionnaire local d’énergie (GLE) du domicile et les différents appareils pourront transiter par n’importe quel réseau compatible avec les interfaces livrés avec les appareils: CPL, Filaire, Radio.
_____________________

Si le client désire filtrer les CPL du compteur, il faudra donc qu’il le fasse lui-même.
Mais attention, il s’agit de laisser passer le secteur jusqu’à l’harmonique trois, et d’affaiblir d’au moins 30 dB à partir de 3 KHz, ce qui n’est pas une mince affaire.

Le filtrage des CPL du Linky reste donc possible, mais à quelques conditions:
- rester respectueux de la norme NF C 15 100.
- Obtenir les homologations adéquates, notamment concernant la sécurité.
- Faire les démarches nécessaires pour obtenir le marquage CE.
- Obtenir les homologations techniques.
- Et bien sûr respecter les obligations vis-à-vis de EDF: Ne pas perturber le fonctionnement du compteur Linky, ne pas créer de composante de puissance réactive, ne pas générer des surtensions liées aux variations brusques de courant ( Coupure ou mise en route d’appareils, sectionnement du baco, court circuits ).

Le bricolage à ce niveau paraît devoir être exclu, sauf à assumer les risques vis-à-vis des assurances et du fournisseur d’énergie.
Et pour un résultat qui ne sera pas garanti, puisqu’un tel filtre risque d’être lui-même source de perturbations s’il n’est pas réalisé avec les plus grandes précautions.
Le remède risque d’être pire que le mal.
_______________

 

 

 

 

 

 

 

Repost 0
14 novembre 2016 1 14 /11 /novembre /2016 11:57

14 Novembre 2016
Selon le scénario classique, chaque avancée technologique présente des inconvénients spécifiques avec lesquels nous devons composer.
Il peut se faire que, lorsque ces inconvénients constituent un risque pour le consommateur usager, une technologie soit abandonnée ou profondément adaptée.
Actuellement, nous vivons un de ces épisodes avec les moteurs thermiques qui équipent nos automobiles.
Les critères de tolérance en matière de santé publique ayant fortement évolué, la pollution émise par ces moteurs est devenue inacceptable selon les nouvelles règles définies par les normes européennes Euro 6, et à fortiori par les suivantes.
(En l’occurrence il s’agit des émissions de dioxyde de Carbone, d’oxydes d’Azote, d’Hydrocarbures imbrûlés, de suies, de particules fines et de nanoparticules).
Malgré les perfectionnements apportés à la conception, à la gestion des moteurs et aux dispositifs de dépollution, les constructeurs ne peuvent plus produire des moteurs thermiques conformes aux exigences des dernières normes.
Ils en sont réduits à tricher avec les tests d’homologation et, ce qui est plus grave, avec les règles de protection de la santé publique.
Les derniers épisodes judiciaires sont la révélation d’un état d’esprit délétère qui ne peut que nuire à tout le monde.
Le moment est donc venu de changer de technologie.
En ce domaine il n’existe qu’une alternative, c’est le moteur électrique.
_________________

La saga de la voiture automobile électrique a débuté dès la fin du XIXè siècle. Le premier modèle doté d’accumulateurs rechargeables aurait circulé en 1884.
L’électricité était fournie par des batteries d’accumulateurs au Plomb récemment mis au point par Planté, et l’autonomie ne dépassait pas quelques dizaines de Km malgré des vitesses fort modestes.
Quant aux bornes de rechargement, inutile d’en parler…
Ces voitures connurent cependant un grand succès, puis furent détrônées par le pétrole.

L’explication était, déjà,
« Il est plus facile d’emporter un bidon de pétrole qu’un bidon d’électricité »
__________________

Le véhicule électrique à batterie a cependant continué d’exister à côté du véhicule à moteur thermique, pour des applications spécifiques pouvant s’accommoder d’une autonomie réduite.
Mais son déploiement sur une grande échelle est resté impossible, faute d’une autonomie suffisante.
_______________

Aujourd’hui les progrès de la technologie permettent d’envisager une nouvelle percée sur le marché grâce à deux avancées prometteuses:
D’une part la batterie au Lithium, et d’autre par la pile à combustible.
C’est aujourd’hui la batterie au Lithium qui a été choisie pour stocker l’énergie électrique embarquée, eu égard à l’état d’avancement de cette technologie.
Mais la pile à combustible constitue une solution de repli très crédible,  expérimentée par ailleurs dans le cadre de la filière Hydrogène et de l’utilisation de biocarburants. Quelques modèles sont proposés en petites séries.
A quelques rares exceptions près, les véhicules électriques proposés aujourd’hui sur le marché sont équipés de batteries Lithium-ion, et le réseau d’infrastructures de recharge en cours de déploiement est adapté à ce type de batteries.
_________________

Cette nouvelle technologie n’échappe pas à la règle; elle est accompagnée de certains inconvénients spécifiques qui doivent être pris en compte dans le cadre des études de sécurité.
Il serait irresponsable de nier l’existence de certains risques de santé publique liés à l’utilisation de tensions élevées ( 400 V, et 800 V dans le futur) et de substances telles de LiPF6 dont l’instabilité thermique est connue.
Tout cela est expliqué dans le rapport d’étude de l’INERIS*
DRA-10-111085-11390 D du 06/06/2011
Disponible ici:
ineris.fr/centredoc/ve-analyse-apr-couv-ineris-1386077293.pdf
*Institut National de l’Environnement industriel et des RISques.]
Objectifs du rapport:

« Effectuer une cartographie des enjeux relatifs aux risques accidentels que pourraient présenter les véhicules électriques sur l’ensemble de leur cycle de vie (production, utilisation, recharge, fin de vie). »
_______________

Nous nous intéressons ici aux risques liés à l’utilisation du véhicule par l’usager.
Les principaux risques sont résumés dans le tableau ci-dessous, directement issu du rapport INERIS.

 

Quels risques pour les batteries au Lithium des VE ?

 

Pas d’affolement.
Ces risques étant connus, ils sont pris en compte tout au long de la fabrication des batteries et de leur utilisation sur toute la durée de vie, et même lors du recyclage.
Sur un véhicule, la gestion de la batterie est confiée à un véritable cerveau, le BMS (Battery Management System), qui prend en charge la gestion et la surveillance permanente. Il intervient pour équilibrer la charge et la décharge des différentes cellules, surveiller les températures, déclencher le circuit de refroidissement éventuellement, contrôler la totalité des processus de charge et de décharge, l’ajuster en fonction des caractéristiques des bornes de charge et de l’état de la batterie, de la température ambiante, déclencher si nécessaire les dispositifs de sécurité.
C’est sur le BMS que repose non seulement le bon fonctionnement du système, mais aussi la sécurité du véhicule et éventuellement celle des passagers.
_____________________

Nous avons donc affaire à un système dont la gestion et le contrôle ne souffrent pas la médiocrité, compte tenu des conséquences plus que fâcheuses d’un accident de batterie.
La fiabilité des composants, et particulièrement du BMS, doit donc être exceptionnelle, compte tenu de l’utilisation sur une longue durée et par des usagers dépourvus par principe de toute expertise technique.
Tout repose donc sur l’automatisation des processus. Les personnels habilités à intervenir sur des véhicules électriques doivent avoir reçu une formation spécifique, qu’il s’agisse d’un contrôle technique, d’une révision chez le concessionnaire, ou d’une intervention à la suite d’un accident de la circulation ou d’une panne.
Le VE à batterie au Lithium ne tolère pas le bricolage. La sécurité en dépend.

Et c’est en connaissant les risques que l’on peut s’en protéger, non en les niant.
Les quelques exemples de feux d’artifices offerts par des « accidents de batterie » montrent, s’il en était besoin, que l’on ne plaisante pas avec ce genre de dispositif, et pas seulement dans l’automobile, de beaux exemples nous sont offerts avec les PC portables, tablettes et Smartphones, et même les avions, qui sont pourtant réputés pour leur fiabilité.
__________________

Les batteries Lithium-ion actuelles (On ne peut pas préjuger des progrès futurs ) utilisent un électrolyte à base de Li P F6.
Au-delà d’une température d’environ 170 °C l’électrolyte réagit avec les électrodes pour provoquer une réaction exothermique avec dégagement gazeux inflammable et toxique, un emballement thermique.
Il est donc essentiel de contrôler la température d’un élément au Lithium afin d’intervenir avant que sa valeur critique ne soit atteinte.
La connaissance de la température est également nécessaire pour gérer les différents régimes de fonctionnement (Température ambiante très basse, ou très élevée, courant de charge, courant de décharge, charge lente, charge rapide, etc..).
Une batterie comprend un nombre important de cellules élémentaires, et chacune d’entre elle doit être contrôlée individuellement car leurs caractéristiques ne sont pas identiques, elles ne vieillissent pas de la même manière, et la température n’est pas uniforme au sein de la batterie, il faut pouvoir gérer intelligemment le refroidissement.

Car il y a un circuit de refroidissement, nécessaire pour évacuer la chaleur dégagée par tout système énergétique dont le rendement n’est pas de 100%.
Aujourd’hui les VE utilisent une tension de l’ordre de 400 V. Une cellule élémentaire au Lithium-ion fournit une tension de 3,7 V; il en faut donc au minimum 100 disposées en série pour obtenir 370 V.
Mais si l’une des cellules est HS, c’est l’ensemble du pack qui est hors service. Pour éviter cela chaque étage de 3,7V est constitué de plusieurs cellules en parallèle, en sorte qu’une cellule HS peut être déconnectée sans compromettre le fonctionnement de l’ensemble, sauf au niveau du courant max.
Une batterie de 370 V peut donc être constituée de plusieurs centaines de cellules élémentaires, voire plusieurs milliers comme chez Tesla.
Chacune des cellules élémentaires peut être un risque d’emballement thermique si elle n’est pas surveillée attentivement par le BMS.
L’emballement peut survenir pour diverses raisons, comme exposé dans le tableau de l’INERIS.
________________

Donc oui, la batterie auto Lithium-ion comporte des risques, mais ceux-ci

peuvent être considérablement réduits grâce au respect des règles de sécurité à toutes les étapes de la vie du produit.
La conception, la préparation des matériaux, l’assemblage, les tests de fiabilité, le montage sur véhicule, le système de gestion (BMS), la protection contre les chocs, la procédure de recharge, la procédure d’intervention en cas de panne ou d’accident, la formation des personnels à tous les postes d’intervention, le programme de révisions périodiques, toutes ces étapes doivent être intégrées dans une chaîne de sécurité sans maillon faible, dans laquelle le petit mécanicien bricoleur n’a plus sa place, sinon pour changer une roue.
_______________

Malgré ce panorama, qui peut être inquiétant à la lecture, la situation sur le terrain incite plutôt à l’optimisme.
Les incendies spectaculaires rapportés par les média, impliquant un véhicule électrique, et comportant des conséquences liées à la présence d’une batterie au Lithium, sont plutôt rares.
Le nombre de véhicules électriques en circulation dans le monde est maintenant suffisamment élevé pour autoriser une évaluation statistique.  
Les statistiques d’incendies de véhicules aux Etats-Unis rapportent les chiffres suivants:
1 feu de véhicule pour 20 Millions de miles parcourus, tous types.
1 feu de véhicule pour 100 Millions de miles parcourus, pour les seuls véhicules électriques.
Les VE sont donc statistiquement cinq fois moins exposés au risque d’incendie que les véhicules thermiques.
Rapportés à la moyenne annuelle française de 12 000 Km par an, cela donne la probabilité d’incendie de 1/15 000 , ou encore 0,007 %.
Ce qui prouve une maîtrise certaine de la technologie, même si de meilleurs résultats sont toujours souhaitables.
(Nous ne disposons pas de statistiques européennes…)
Il n’y a donc pas lieu de sonner le tocsin, le véhicule électrique est entre bonnes mains, pourvu que çà dure…
_______________

Il faut cependant rester vigilants car le déploiement du marché de gros volumes implique un certains nombres de démarches:
- réduction des coûts, la batterie actuelle demeure beaucoup trop chère.
- Augmentation des capacités, car il faut améliorer significativement l’autonomie.
30 KWh aujourd’hui, 60 KWh dès 2018, et 100 KWh en ligne de mire.
- Amélioration de la capacité énergétique spécifique pour maintenir le poids dans des limites raisonnables tout en augmentant les capacités.
- Couplage de la batterie avec un supercondensateur, pour obtenir à la fois une grande capacité spécifique et une puissance disponible importante.
 Il est important que cette course à l’échalote ne porte pas préjudice à la fiabilité.
La règlementation (ISO 12405 et ISO 6469 et suivantes) devra veiller à maintenir le plus haut niveau d’exigence afin que l’exercice de la concurrence ne conduise pas au moins-disant technique.
________________

La barre est placée très haut, et compte tenu du problème des bornes de recharge, la partie n’est pas gagnée d’avance.
_______________

Repost 0
10 novembre 2016 4 10 /11 /novembre /2016 12:09

10 Novembre 2016
Ces temps-ci il souffle un grand vent de révolte contre les nouvelles technologies.
Non pas que les services qu'on en attend soient remis en question, sauf peut-être pour le compteur communicant Linky, suspecté par certains d'être l'œil de Big Brother.
La cause de la bronca contre les nouvelles technologies, minoritaire, faut-il le préciser, réside dans leurs effets secondaires réels ou supposés.
Tour à tour se sont trouvés cloués au pilori les émetteurs de téléphonie mobile, le compteur communicant Linky, les CPL en général, les ondes électromagnétiques, et les infrasons des aérogénérateurs.
Parmi les prochains sur la liste des bannis nous trouverons probablement  les RFID (Radio Frequency Identification Device). Mais n’anticipons pas.
________________


Cent cinquante ans de progrès auraient pourtant dû nous habituer à rencontrer derrière chaque avancée un cortège de calamités avec lesquelles nous avons dû nous "arranger" tant bien que mal.
Ainsi chaque médicament comporte son cortège d’effets secondaires dont la nuisance est proportionnelle à son efficacité réelle. La profession gère ce fardeau tant bien que mal, parfois très mal, tant sont grands les intérêts en jeu.
Mais il y a aussi parfois des effets secondaires positifs.
La technologie est ainsi, une face positive, une face négative.
Plutôt que de jeter le bébé avec l’eau du bain, notre société a fait le choix de garder le bébé avec son bain, même si l’eau n’est pas très claire,
et de s’efforcer de gérer les effets secondaires négatifs, tout en profitant des effets secondaires positifs.
Bien sûr le problème est de savoir jusqu’où ne pas aller trop loin.
Et là les citoyens ont leur mot à dire, à travers les associations de consommateurs, ce dont ils ne se privent pas.
Mais leur pouvoir, limité par des dispositions législatives adéquates, est bien souvent dérisoire.
Pire, on a vu récemment des lanceurs d’alerte poursuivis en justice à la place des coupables, pourtant pris la main dans le sac…
La démocratie emprunte parfois des détours surprenants.
Mais ne nous égarons pas.

Après le syndrome de l'homme EHS*, qui n'a toujours pas trouvé sa solution, loin s'en faut (Voir article précédent), voici le "syndrome éolien", qui risque de faire florès lorsque la transition énergétique vers l’éolien entrera dans sa phase concrète.
* Electro Hyper Sensibilité
____________________

De quoi s’agit-il ?
Plutôt qu’un long discours, examinons le graphique suivant:

Le syndrome éolien, quoi de neuf docteur ?

Nous y voyons l’enregistrement du bruit spectral d’une éolienne.
Les circonstances sont décrites dans le rapport référencé joint, très bien documenté.
Ce type de spectre se retrouve sur toute éolienne, avec des valeurs différentes mais l’aspect général est commun.
On constate une très forte remontée du « bruit » dans les basses fréquences, spécialement dans le domaine des infrasons, inaudibles par définition.
« Inaudible » signifiant non perçu par l’oreille en tant que « son »,
ce qui ne préjuge pas des autres modes de perception éventuelle par l’organisme sous des formes différentes.
On remarque également que les infrasons ne sont pas atténués à l’intérieur de l’habitation, ou très peu, ce qui est logique eu égard aux faibles atténuations subies par les infrasons en général.
(Qu’on se souvienne que les éléphants communiquent sur de très grandes distances grâce aux infrasons).
Il n'existe pas de protection efficace contre les infrasons, le seul remède est leur réduction à la source.
Les infrasons « éoliens » sont dus aux vibrations des pales et aux turbulences causées par le passage des pales devant le mât. Des vibrations du mât lui-même viennent se superposer au « signal » transmis par l’air et le sol.
Certaines fréquences d’infrasons peuvent être amplifiées à l’intérieur des habitations par effet de résonnance à la fréquence propre des locaux.
Dans le cas d’un parc éolien, les spectres des différentes machines se combinent en fonction des distances respectives.
_______________


Nous y voyons l’enregistrement du bruit spectral d’une éolienne.
Les circonstances sont décrites dans le rapport référencé joint, très bien documenté.
Ce type de spectre se retrouve sur toute éolienne, avec des valeurs différentes mais l’aspect général est commun.
On constate une très forte remontée du « bruit » dans les basses fréquences, spécialement dans le domaine des infrasons, inaudibles par définition.
« Inaudible » signifiant non perçu par l’oreille en tant que « son »,
ce qui ne préjuge pas des autres modes de perception éventuelle par l’organisme sous des formes différentes.
On remarque également que les infrasons ne sont pas atténués à l’intérieur de l’habitation, ou très peu, ce qui est logique eu égard aux faibles atténuations subies par les infrasons en général.
(Qu’on se souvienne que les éléphants communiquent sur de très grandes distances grâce aux infrasons).
Il n'existe pas de protection efficace contre les infrasons, le seul remède est leur réduction à la source.
Les infrasons « éoliens » sont dus aux vibrations des pales et aux turbulences causées par le passage des pales devant le mât. Des vibrations du mât lui-même viennent se superposer au « signal » transmis par l’air et le sol.
Certaines fréquences d’infrasons peuvent être amplifiées à l’intérieur des habitations par effet de résonnance à la fréquence propre des locaux.
Dans le cas d’un parc éolien, les spectres des différentes machines se combinent en fonction des distances respectives.

_______________

Les effets physiologiques des sons de très basse fréquence (Infrasons) sont connus.
Mais la réglementation concerne le bruit « audible » , mesuré dans la bande 20 Hz - 20 000 Hz, qui exclut les infrasons.
Lire à ce sujet:
HAL / Perception des infrasons / jacques Chatillon
https://hal.archives-ouvertes.fr/hal-00743497/document

Egalement:
Infrasons et ultrasons / P.Grandjean et G.Nexer:
http://www.hearingprotech.com/pdf/Infrasons%20et%20ultrasons%20-%20les%20risques,%20les%20moyens%20de%20protections.pdf

Ou encore:
INRS 2250 / Limites d’exposition aux infrasons et aux ultrasons / J.Chatillon.
www.inrs.fr/media.html?refINRS=ND%202250

_______________

La nature, le spectre, et la puissance des infrasons subis sont très variables selon la distance entre l’habitation et les sources d’émission, la structure de l’habitation, le type des éoliennes, leur puissance, la vitesse du vent, le taux d’humidité, l’orientation du vent, etc.
L’établissement d’une distance de sécurité unique n’est pas une précaution suffisante, car chaque cas est un cas particulier.
L’absence de prise en compte sérieuse du problème des infrasons peut être à l’origine d’un gisement important de contentieux.
Encore une affaire à suivre…
___________________
 

Repost 0

Présentation

  • : Le blog de doc zaius
  • : Suivi des problèmes environnementaux du moment. Analyses techniques . Comptes rendus avancements projets.
  • Contact

Recherche

Liens