Overblog
Suivre ce blog
Administration Créer mon blog
5 décembre 2016 1 05 /12 /décembre /2016 18:57

 

5 Décembre 2016
Depuis déjà plus d’une décennie, l’ordre énergétique nouveau s’est donné pour emblème la Transition énergétique.
Cette mobilisation a pour objet principal, officiel, la lutte contre le réchauffement climatique.
Il y a d'autres motivations, sous-jacentes mais non moins importantes, comme la menace de pénurie de réserves fossiles et la recherche de l'indépendance énergétique.
Mais le réchauffement climatique, désormais dénommé "dérèglement climatique" est l'ennemi commun désigné en tant que danger immédiat, plus facilement identifiable qu’un accroissement infime de la température moyenne, souvent contredit par des évènements météorologiques locaux.
Le moyen retenu pour mener cette lutte est la réduction des émissions anthropiques de dioxyde de Carbone résultant de la combustion des énergies fossiles.
Les mots d’ordres censés galvaniser les citoyens consommateurs sont:
- Haro sur le CO2.
- Mort aux énergies fossiles.
- Sus au gaspillage énergétique.
- Gloire aux énergies renouvelables décarbonées: Eolien, Solaire, Hydraulique, Biomasse, Géothermie.
Cette liste résume l’essentiel des « commandements » de la nouvelle doxa, qui se voudrait l’expression de la religion écologique pour ce qui concerne l’énergie.
Les gardiens du temple sont les augures du GIEC, auto proclamés infaillibles en matière de climatologie.

La plupart des Etats de la Planète se sont ralliés officiellement à ce programme, même si ce n’est pas toujours pour les mêmes raisons.
(Du moment qu’il y a des sous à récupérer…).
Des actions fédératives sont décidées, des réunions œcuméniques annuelles sont organisées avec un grand apparat, au cours desquelles les engagements de chacun sont solennellement renouvelés.
Cette victoire apparente de l’Ecologie doit cependant être fortement nuancée car l’un de ses préceptes, et non des moindres, n’a pas été pris en compte dans la nouvelle doxa, qui revêt de ce fait un caractère schismatique.
Il s’agit de l’exigence d’abandon de la filière électronucléaire.
Il est vrai que cette technologie représente à la fois le meilleur de le pire:
Elle est une technologie décarbonée, ce qui satisfait l’exigence première de la transition énergétique. On ne peut donc pas lui montrer la sortie sans trahir l’engagement premier.
Par contre son caractère renouvelable n’a jamais été réellement démontré, sauf à se projeter dans un futur incertain avec la fusion nucléaire, saint graal de la filière, sorte de messie énergétique dont la venue est annoncée pour une date indéterminée, dans la plus pure tradition messianique.
Mais, dans sa forme actuelle, elle est aussi une technologie très sale, capable de polluer la Planète pour des milliers d’années, voire beaucoup plus.
L’absence de décision claire à son sujet font d’elle une Arlésienne qui s’invite à tous les conciles et qui, sans être présente, est au cœur de l’action grâce à un lobbying effréné.
C'est ainsi qu’en 2015, 450 réacteurs étaient en activité dans le monde, et 68 étaient en construction, dont 25 en Chine, incluant 2 EPR. Tout va bien, merci.
Il en résulte une ambigüité concernant la croisade du GIEC, dont on peut craindre qu’elle pourrait bien nous conduire à éviter Charybde pour mieux nous faire tomber dans scylla.
Certains se demandent même si le GIEC ne s’est pas laissé enfermé dans le rôle de « faire valoir », pendant qu’ailleurs le business se poursuit « as usual ».
Les fidèles du GIEC ne se posent évidemment pas ce genre de questions. Mais les « Libres penseurs énergétiques » (Oui, çà existe), qui lisent quand même les textes « sacrés », ne trouvent pas toujours, dans cette nouvelle « bible » que des éléments solidement établis. Il y a là matière à l’exercice du doute raisonnable.
La Science ne s’est-elle pas précisément construite sur la remise en cause des vieilles théories ?
Mais ne nous égarons pas.
Le développement des énergies éolienne, solaire, hydraulique, géothermique, et de biomasse, ne peut être qu’une bénédiction pour l’Humanité, quelles que soient les raisons qui conduisent à ce choix.
Il ne peut en résulter qu’un progrès pour les générations futures.
Et peut-être nous pardonneront-elles de leur avoir transmis nos déchets nucléaires, si en contrepartie nous leur laissons une énergie abondante et propre.
Cela vaut bien un effort, n’est-il  pas vrai ?
_________________

La France se veut en première ligne dans la lutte contre le réchauffement climatique, et ceci depuis les toutes premières escarmouches. La COP21 a été l'occasion de confirmer les engagements du concile, et de les mettre noir sur blanc lors de la COP 22.
Nous sommes donc fondés à croire qu’elle est devenue la vitrine de ce nouveau combat pour préserver la Planète.
Voyons donc ce qu’il en est concrètement du remplacement des énergies fossiles par des énergies propres et renouvelables.
Et plus spécialement pour la production électrique, puisque c’est le domaine privilégié de ces nouvelles énergies.
___________________

Avant qu’il soit question de transition énergétique, au siècle dernier, le mix électrique français reposait sur trois secteurs:
- L’électronucléaire.
- les centrales thermiques à flamme utilisant des combustibles fossiles.
- Les centrales hydroélectriques.
Par exemple, à la fin du XXè siècle, la production d’électricité se répartissait ainsi (En 2000):
- Electro nucléaire:        415 TWh
- Thermique fossile:      53 TWh
- Hydroélectrique:          72 TWh
        TOTAL:    540 TWh
Les énergies nouvelles de la transition énergétique étaient encore absentes du mix électrique, elles en étaient (Du moins en France) au stade de l'expérimentation.
( L’Hydroélectrique étant un acteur historique, dont l’existence ne doit rien à la « nouvelle » stratégie climatique).
15 années plus tard, et après moult réunions plénières des institutions internationales en charge du développement de la stratégie de transition énergétique, qu’en est-il en France ?
En 2015, la production d’électricité a été la suivante:
- Electro nucléaire:        417    TWh
- Thermique fossile:      34    TWh
- Hydroélectrique:          59    TWh
- Eolien:              21    TWh
- Solaire:                7,5 TWh
- Biomasse:                8    TWh
        TOTAL:    546     TWh

Le rapprochement des chiffres permet certaines remarques instructives:

- malgré la croisade proclamée contre le gaspillage d’énergie, la production est restée stable. Donc inefficacité complète de la stratégie sur ce point.
« On » avait simplement oublié que les gains d’efficacité énergétique seraient compensés par un accroissement des besoins liés à l’augmentation du nombre de ménages, la demande de confort, l’invasion des nouvelles technologies, et bientôt de la voiture électrique, de la pompe à chaleur, et même des climatiseurs.
Et surtout que les travaux d’isolation thermique des logements ne se décrètent pas.
En effet, contrairement à ce que pensent les hommes politiques, généralement issus de milieux aisés, ce n’est pas la mauvaise volonté qui freine l’essor des travaux d’isolation thermique, mais le manque d’argent, tout simplement.
(Eh oui, Madame le Ministre, çà existe les fins de mois difficiles…)
La transition énergétique était (est encore) basée sur une forte diminution de la demande électrique. Tout est donc à remettre en cause.
Heureusement tout n'est pas perdu car les ingénieurs de EDF, en général peu sensibles aux élucubrations des prévisionnistes du Gouvernement, ont bien anticipé cette demande d'énergie et ont su maintenir à niveau l'outil de production, il faut les en remercier.
(Les soutiers de l’énergie sont en général pleins de bon sens; on ne peut en dire autant de certains  politiciens).

- On constate que le mix électrique est très peu modifié. Les mêmes sources d’énergie, qui fournissaient 100% de la production il y a quinze ans, sont toujours massivement présentes, à hauteur de 93,3 % de la production électrique.
La percée des énergies nouvelles n’a donc pas encore eu lieu, quoiqu’en disent les documents officiels, qui confondent puissance et énergie, et qui se servent de la production hydraulique comme faire-valoir, alors que cette technologie est très ancienne et ne doit rien aux récentes décisions de la transition.

- les énergies nouvelles sont certes présentes, mais leur faible part de 6,7% dans la production électrique en fait des sources encore largement minoritaires. A peine de quoi les faire figurer dans les bilans.
Cette participation discrète ne permet même pas de prendre la mesure des difficultés de leur intégration au mix électrique, notamment concernant l’obligation d'adosser l'éolien et le solaire à des moyens de stockage d’électricité.
Il faudra attendre une part de 15 à 20% pour prendre conscience des vrais problèmes, si toutefois cette part est atteinte un jour, ce dont on peut douter….
Il y a donc de quoi s’interroger sur l’impuissance de l’Etat à appliquer des résolutions « solennelles ».
Impuissance, ou manque de conviction ?
________________________

En 2015, en France, la puissance installée totale des moyens de production électrique était de 129 GW.
La production totale d’électricité est montée à 546 TWh.
(Production brute).
L’électronucléaire, avec 48,8 % de la puissance électrique installée, a produit 76,3 % de l’énergie électrique.
Les énergies nouvelles (Eolien + Solaire), avec 12,8 % de la puissance installée, n’ont produit que 5,2 % de l’énergie électrique totale.
Ce qui correspond à un facteur de charge global de 20% environ, qui est dans la normalité de ces technologies.
(Un éolien uniquement terrestre, avec des petites machines, et un solaire qui fait ce qu'il peut car la France n'est pas le Sahara et le Soleil y est parcimonieux).
Le rapprochement de ces chiffres met en évidence le handicap des installations éoliennes et solaires par rapport à une installation de base thermique à flamme, qui peut fournir de l’énergie plus de 85% du temps.
Et de plus, une centrale à Gaz moderne à cycles combinés et cogénération peut bénéficier d’un rendement nettement amélioré, jusqu’à 70%, et donc fournir beaucoup plus d’énergie, à la fois électrique et sous forme de chaleur, ce qui est évidemment impossible avec l’éolien ou le solaire, sauf à utiliser des installations solaires à concentration, ce qui n’est pas programmé à notre connaissance, du moins en France métropolitaine.
Le projet de premier parc éolien offshore des côtes atlantiques françaises rencontre une telle opposition de la part des riverains, qu’il a dû être reporté de deux ans…
Même le charbon fait mieux que le solaire ou l’éolien, puisque les nouvelles centrales ultra-supercritiques affichent un rendement de 46% avec un facteur de charge de plus de 80%.
Mais la comparaison ne s’arrête pas là.
En effet, aujourd’hui la production éolienne et solaire est faible, et donc facilement « digérable » par le réseau EDF, sans créer de gros problèmes de réglage du réseau.
( Le "réglage" est l'exercice qui consiste à maintenir la tension et la fréquence à l'intérieur des limites définies par le cahier des charges du grand réseau européen.
Mais demain, lorsque ces énergies produiront vingt fois plus (La stratégie de transition prévoit une part de 30% d'éolien et de solaire dans le mix électrique à terme), le réseau ne pourra plus les absorber en direct, il faudra impérativement passer par un système de stockage pour réguler le débit de ces sources intermittentes.
Aujourd’hui ce système n’existe pas, et ne fait l’objet d’aucun programme de développement.
Aucune STEP à l’horizon, en dehors de celles qui existent déjà, et sont utilisées ailleurs.
Il existe par ailleurs de beaux articles sur la filières hydrogène, mais les réalisations ne suivent pas.
Sur ces deux points la France est en passe de devenir une "next year society", qui promet de surprenantes réalisations, mais toujours pour l'année prochaine…
On comprend mieux dès lors la grande réticence des énergéticiens à abandonner le nucléaire, même en partie, sachant que le remplacement de cette énergie par du solaire, de l’éolien ou de l’hydraulique supplémentaire, exigera des moyens considérables, que personne n’est disposé à fournir.
Et surtout pas le consommateur, pour qui le prix de l'énergie est un sujet explosif; et aucun homme politique n’est prêt à allumer la mèche.
D’autant plus que, selon une légende urbaine tenace, le coût de l’électricité solaire et éolienne sera nettement moindre que celui du nucléaire, alors que…  
___________________

Ces problèmes, bien réels, ne sont jamais évoqués officiellement.
Faudra-t-il attendre quinze ans de plus pour voir enfin une stratégie de transition cohérente qui permettra aux industriels d’envisager l’avenir avec un minimum de confiance ?
Par ailleurs, le boom du gaz et huiles de schistes et le renouveau du charbon ne sont-ils pas des indices du peu de crédibilité accordée aux menaces du réchauffement climatique ?
Nous sommes tranquillement en train de perdre la lutte contre le CO2. Peut-être serait-il temps de s’intéresser à une stratégie plus pragmatique, qui consisterait à apprendre à gérer les conséquences d’un réchauffement désormais inévitable ?
Il est vrai que l'on ne parle plus de réchauffement, mais de "dérèglement climatique", plus conforme à la réalité constatée.
_____________

Dans la recherche des causes de cet échec, on ne peut pas, sous peine de négligence intellectuelle, ne pas tenir compte de la probable influence d’un groupe de scientifiques confirmés, de valeur incontestable*, dont les travaux conduisent à des résultats qui contredisent les affirmations du GIEC.
* La plupart d'entre eux publient les résultats de leurs travaux dans des revues scientifiques à comité de lecture (Peer review).
Certains décideurs, et non des moindres, peuvent considérer cette démarche contradictoire comme légitime, et digne d’être examinée par un comité scientifique indépendant du GIEC.
Quelle que soit la suite donnée, ou pas, à ce contre-feu, un ferment de doute a été semé, qui peut susciter une certaine méfiance à l’égard des bouleversements de l’industrie de l’énergie, exigés par la révolution « imposée » par le GIEC.
En clair, avant de jeter le bébé avec l’eau du bain et de dépenser des centaines de milliards, il y aurait lieu d’y regarder de plus près.
C’est une idée qui fait son chemin…
________________

 

 

 

 

30 novembre 2016 3 30 /11 /novembre /2016 18:11

Menace de pénurie d’électricité, réalité ou électrochoc préventif ?

30 Novembre 2016
Des réacteurs nucléaires sont à l’arrêt.
Rien d’anormal. Un réacteur doit périodiquement être arrêté pour remplacer le combustible usé, ou pour effectuer une réparation suite à la détection d’une anomalie, d’une fuite, ou à titre préventif, ou à l’occasion de la grande révision décennale.
Les périodes d’immobilisation se font de plus en plus longues et fréquentes avec le cumul des années d’exploitation.
Actuellement, et avant la dernière intervention de l’ASN, ces arrêts techniques se traduisaient par un facteur de charge global de 75 % environ, ce qui traduit l’âge avancé du matériel.
(Qui a fourni quand même plus de 400 TWh dans l’année).
Suite au problème d’acier de cuve découvert à Flamanville, l’ASN a « épluché » les dossiers de fabrication des réacteurs du parc actuellement en service, et de nombreuses « irrégularités » ont été découvertes, en rapport avec ce problème de conformité de l’acier utilisé, justifiant des éclaircissements et des analyses complémentaires sur 18 réacteurs.
Les pièces incriminées sont des couvercles de cuves et des fonds de générateurs de vapeur, pièces qui font partie des circuits primaires et donc supportent la température élevée ( 300 °C), la pression élevée ( 155 bars), et bien sûr l’eau contaminée par les produits radioactifs.
Ces pièces sont donc en première ligne, elles doivent résister à des conditions extrêmes notamment l’injection d’eau froide en cas d’accident par perte de réfrigérant primaire.
Il est donc essentiel que l’acier qui les constitue soit conforme aux spécifications du cahier des charges.
___________________

Quel va être le sort de ces 18 réacteurs ?
D’abord, 6 d’entre eux ont été mis hors de cause, et ne sont donc plus concernés.
7 autres étaient déjà arrêtés pour maintenance programmée.
1 est arrêté pour une inspection programmée jusqu’à fin Décembre.
4 ne sont pas encore arrêtés, mais le seront sur la période Décembre-janvier.
Tout cela est un peu confus. Il faut retenir que le risque est grand de voir sur Décembre-janvier-Février quatre ou cinq réacteurs maintenus à l’arrêt pour des raisons autres que la maintenance programmée.
Les écarts constatés sur la composition de l’acier des pièces incriminées ne les condamnent pas à priori.
Mais des analyses approfondies doivent être effectuées, y compris sur des pièces sacrifiées, afin de re-évaluer la probabilité d’augmentation du risque statistique de rupture dans les conditions de contrainte accidentelle.
Les réacteurs en cause seront (Ou pas) remis en service progressivement au fur et à mesure de la réception des rapports d’analyse et de l’avis de l’ASN.
La production électronucléaire sera évidemment affectée par ce « contretemps », et la puissance disponible risque de ne pas être suffisante pour passer le pic de la demande au cœur de l’hiver.
Le déficit de puissance est d’environ 1 GW par réacteur indisponible.
EDF a lancé une alerte et a entrepris de mettre en œuvre un plan prévisionnel dans le but de limiter les dégâts, c’est-à-dire les délestages de certains secteurs du réseau.
_____________________

Est-ce bien grave docteur ?
Tout dépend de l’intensité de la fièvre électrique à ce moment de l’année, et du nombre de réacteurs immobilisés évidemment.
En France, de nombreux logements sont équipés de chauffage électrique; d’autres ont un chauffage ancien peu efficace, et souvent ces logements sont mal isolés. Il faut recourir à des radiateurs d’appoint. La puissance électrique demandée est alors directement dépendante de la température extérieure, entre autres causes évidemment.
Selon EDF, le facteur de proportionnalité est de 2,4 GW/ °C.
(Soit l'équivalent de 2,5 réacteurs par degré).
____________________

Contrairement à certains pays en voie de développement, où l’électricité n’est délivrée que quelques heures par jour, la France a pour principe de fournir l’électricité à ses clients 24 h sur 24 quelle que soit la demande.
Enfin presque.
Car évidemment la générosité a ses limites.
En matière d’électricité elle ne peut dépasser la puissance maximale disponible à un moment donné.
EDF a établi un plan de délestage qui fait partie de sa stratégie de gestion de crise. Ce plan sera mis en œuvre en cas de nécessité.
____________________

Mais au fait, quelle est cette puissance max disponible ?
C’est une grandeur fluctuante, qui dépend de l’état du parc de production, des circonstances et de la durée pendant laquelle elle est sollicitée.
Un peu comme le fût du canon du regretté Fernand Raynaud, y compris l’influence du vent puisque désormais il faut compter avec les éoliennes.
_________________

Les moyens qui participent à la fourniture de cette puissance électrique sont très variés.
On peut les classer en deux grandes catégories:
La première catégorie comprend les moyens de production dits « de base et semi-base », c’est-à-dire capables de fournir de l’électricité à la demande en permanence sans interruption.
En quelque sorte, qui obéissent « au doigt et à l’oeil ».
(Pour garantir cette « permanence » l’Etat a l’obligation de constituer des « réserves stratégiques » représentant trois mois de consommation).
Ces moyens permanents sont :
Les réacteurs nucléaires, qui constituent en France la colonne vertébrale du système, et les centrales thermiques à flamme qui fonctionnent au Gaz naturel, au fuel, et au charbon, qui sont dits « de semi base » car ils ne sont sollicités que lorsque c’est nécessaire, à cause du CO2.
(On peut citer pour l’anecdote quelques unités fonctionnant à la biomasse, mais leur apport au réseau est encore confidentiel).
La deuxième catégorie comprend des installations dites « d’appoint » .
Ce ne sont pas des moyens de base, car leur disponibilité n’est pas assurée, soit parce que leurs réserves d’énergie  sont limitées, soit parce que leur production est conditionnée par des circonstances hors contrôle telles que le vent ou l’ensoleillement.
Il s’agit essentiellement de l’Hydroélectrique, de l’éolien, et du solaire.
Ces moyens ne sont productifs que s’il y a de l’eau, du vent et du Soleil, cela tombe sous le sens.
C’est la conjonction de tous ces moyens, à un moment donné, qui constitue la puissance disponible.
___________________

Qu’en est-il en pratique ?

- Le parc nucléaire comprend 58 réacteurs, dont les puissances nominales cumulées atteignent 63 Gigawatts.
C’est la puissance électrique qui serait obtenue si tous les réacteurs fonctionnaient à 100 %.
Dans la vraie vie il y a toujours quelques réacteurs arrêtés pour maintenance ou remplacement du combustible, et le « facteur de charge » global sur l’année peut varier entre 75 et 85 %.
En France, compte tenu de l’âge du matériel, la puissance électronucléaire disponible à un moment donnée peut varier dans une fourchette de  48 à 53 GW environ selon l’état global du parc, qui n’est pas le même d’une année sur l’autre, et selon le nombre de réacteurs arrêtés à un moment donné.
(Elle varie selon les aléas techniques du parc nucléaire. Elle diminue pour un parc vieillissant).
A l’heure où nous écrivons ces lignes ( 12h, le 29/11) nous soutirons 78 GW sur le réseau, et EDF prévoit  un pic de 82 GW à 20h ce soir.
Le nucléaire ne suffit donc pas à satisfaire notre appétit de watts, malgré la relative clémence de la météo.
En effet, au moment où nous parlons, et compte tenu du ou des réacteurs supplémentaires arrêtés par l’ASN, le nucléaire fournit péniblement 47,5 GW, on est loin des 63 GW théoriques!
_________

Donc, lorsque la demande est supérieure à la puissance nucléaire disponible à ce moment (c’est le cas en période hivernale), il faut faire appel à d’autres moyens de production dits « de semi base » qui sont les centrales thermiques à flamme.
Il y a en France un parc de centrales thermiques diversifié. Elles fonctionnent principalement au Gaz naturel, mais aussi au Fuel et au charbon.
Les puissances max disponibles sont environ:
Gaz naturel:        11 GW
Fuel:              9 GW
Charbon:          3 GW
Soit 23 GW  en mobilisant tout le monde, y compris le charbon.
Lorsque c’est encore insuffisant, on fait appel aux moyens de production d’appoint.
________

Un moyen de production électrique est dit « d’appoint » lorsqu’il dépend d’une énergie dont il n’existe pas de stock (ou dont il existe un stock très limité), ou d’une énergie qui dépend directement d’éléments fortuits comme le vent, l’ensoleillement, le débit d’un cours d’eau.
La production d’appoint est constituée de l’Hydroélectrique, de l’Eolien, du Solaire, et des centrales à biomasse.
La production hydroélectrique comprend quatre secteurs:
- Des turbines adossées à des barrages de haute ou de basse chute.
- Des turbines associées à des barrages éclusés, sur des cours d’eau.
- Des turbines « Au fil de l’eau » (Hydroliennes et centrale marée motrice de la Rance).
- Des stations de pompage-turbinage (STEP).
Chaque secteur joue un rôle différent, mais tous sont complémentaires.
Le parc Hydraulique Français est considérable, la puissance installée (Nominale) atteint 25 GW.
Mais cette puissance n’est disponible que durant une période qui dépend de la quantité d’eau contenue dans le réservoir du barrage.
La remarque n’est pas triviale, car le taux de remplissage des réservoirs n’est pas toujours optimum, il dépend de la pluviométrie des mois précédents, du débit des cours d’eau, et des précédents prélèvement d’eau.
La puissance hydraulique sollicitée à un moment donné doit tenir compte de ce qui a été déjà consommé auparavant, et de ce dont on risque d’avoir besoin ultérieurement.
Les capacités de pompage-turbinage sont d’environ 5 GW, qui peuvent être mobilisés sur une durée limitée évidemment car la capacité de ces réservoirs est en général faible.
L’Hydraulique peut intervenir sur une durée conséquente, mais pour une puissance limitée. Ce sont alors surtout les grands barrages qui fournissent l’énergie.
L’hydraulique fournit annuellement environ 50 TWh d’électricité, ce qui correspond à une puissance moyenne de 6 GW environ.
Ce secteur est surtout sollicité en hiver, où il peut fournir temporairement 10 à 15 GW si les barrages sont bien garnis.
__________

L’autre volet des énergies d’appoint comprend le solaire et l’éolien, dont la capacité d’intervention est intermittente, du moins tant que leur production ne pourra pas être stockée.
Les STEP existantes sont déjà intégrées à la gestion des fluctuations de la production classique, elles ne peuvent dont pas être utilisées au bénéfice du Solaire ou de l’Eolien. On ne peut déshabiller Pierre pour habiller Paul.
Les puissances solaire et éolienne cumulées « installées » raccordées au réseau en Sept 2016 sont:
Eolien :      12 GW    Uniquement terrestre pour le moment.
Solaire:      7  GW
____________

La composition du mix électrique est très variable, y compris d’une heure à l’autre, en fonction de la demande intérieure, des puissances disponibles des différents moyens de production, de la stratégie énergétique de EDF, mais aussi des cours du marché.

Le 29 Novembre 2016, à 12 h, le mix électrique était le suivant:
- Electronucléaire:        47,4  GW   
- Hydraulique:                8,5  GW
- Gaz naturel:                8,6  GW
- Charbon:                    2,3  GW
- Fuel:                           0,6  GW
- Eolien:                        2,2   GW
- Solaire:                      1,8   GW
- Biomasse:                  0,8   GW
- Importations:             4,3   GW
- Pompage:                 0      
Pour une puissance totale de 76,5 GW.

Ces éléments sont accessibles en temps réel ici:
http://clients.rte-france.com/lang/fr/visiteurs/vie/courbes.jsp
Et ici:
http://www.rte-france.com/fr/eco2mix/eco2mix-mix-energetique
____________

La puissance max disponible avec les moyens de production de base et semi-base se situe donc dans une fourchette de 71 à 76 GW environ.
Au-delà il faut faire appel à des moyens de production d’appoint et/ou aux importations.
Le seul outil d’appoint à peu près contrôlable est l’Hydraulique, puisqu’il existe un stock relativement important dans les barrages, qui permet d’assurer une puissance de 10 à 15 GW plusieurs heures par jour, voire même plus.
Ce qui porte la puissance max à une fourchette de 80 à 90 GW avec un degré de vulnérabilité relativement faible.
Les autres moyens, éolien et solaire, ne peuvent être inclus dans des prévisions qu’avec beaucoup de précaution, puisque leur production n’est pas stockable ( pour le moment).
Il reste un coup de pouce qui peut être donné par les STEP, que l’on garde en réserve pour une urgence de quelques heures.
Ensuite, il faut recourir aux importations, dans la limite des 10 GW permis par les moyens transfrontaliers qui nous relient à tout nos voisins, dans le cadre des échanges Européens.
Une amputation d’une partie des moyens de production nucléaire aurait dont un effet immédiat sur nos capacités à faire face à une demande importante du marché intérieur.
Rappelons que le record du pic de la demande a été de 102 GW un certain 8 Février 1012 à 19 h.
Ce jour là le nucléaire était à 59,6 GW, L’Hydraulique à 15 GW, et l’Eolien à 4 GW.
Aujourd’hui, avec un nucléaire à 47 GW,  nous aurions les plus grandes difficultés à satisfaire le même niveau de demande.
Si, en plus, l’ASN maintient quelques réacteurs supplémentaires à l’arrêt pendant la période des grands froids, l’équation sera insoluble.
________________________

L’exercice de ping pong auquel se livrent actuellement l’ASN et EDF, en espérant qu’il ne s’agisse que d’un exercice, a au moins le mérite d’attirer l’attention des média, et donc du grand public, sur la menace bien réelle qui pèse sur la sécurité des fournitures électriques.
Menace qui pourrait bien se concrétiser si les français continuent à « tirer  du jus » sans souci d’économie, notamment sur le chauffage électrique des logements mal isolés.
(10 Millions de radiateurs d’appoint de 1000 W font 10 GW !).
Suivez mon regard, qui désigne le nouveau compteur Linky qui, précisément, se propose de nous aider à corriger tout çà.
Avec l’ancien système, toujours en usage jusqu’à l’installation des Linky, un délestage ne pouvait être appliqué que sur un secteur commutable, lequel pouvait impliquer des habitations, mais aussi un hôpital, des services, bref beaucoup de monde.
Avec le Linky, EDF pourra « délester » Monsieur Dupont et Monsieur Durant sans toucher aux établissement prioritaires.
Fini l’immunité dont « bénéficient » les usagers d’un secteur dans lequel se trouve une clinique ou une entreprise stratégique, désormais le délestage sera (pourra être)  « ciblé » à l’unité.
__________________

Ce rôle de « Père fouettard » exercé par le Linky sera tempéré par l’existence de « contrats de délestage » , un peu le genre EJP (Effacement Jours de Pointe) mais en plus fin.
L’usager participant pourra, moyennant avantages tarifaires, s’équiper d’un petit gestionnaire d’énergie capable de faire en interne du délestage sélectif, à la demande du Linky et selon un plan convenu à l’avance.
Un éventuel délestage à l’initiative de EDF ne concernerait alors que la partie des appareils désignés dans le contrat, et non la totalité de l’installation.
___________________

Un autre aspect de la « crise » actuelle du nucléaire est son caractère d’avertissement.
Une sorte de « Buzz » en direction de ceux qui n’auraient pas encore compris que les économies d’énergie électrique ne sont pas juste un « geste écologique » , mais une obligation incontournable à laquelle nous allons devoir nous plier, contents ou pas contents, au besoin par des mesures contraignantes.
___________________

Cette atmosphère de crise électrique interfère évidemment avec la politique nucléaire.
Le choix éventuel d’une stratégie programmée de sortie du nucléaire est un choix Politique, sur lequel aucun Gouvernement n’a encore voulu se prononcer clairement.
(l’annonce d’une réduction de 50% du nucléaire à l’horizon 2030 est une farce qui ne fait pas honneur à ses auteurs).
La politique actuelle est donc celle du « non choix », encore connue sous le nom de « politique du chien crevé au fil de l’eau »; on laisse les choses aller tant bien que mal, l’objectif étant d’atteindre sans dommage la date de la prochaine échéance électorale, en temporisant par des annonces fantaisistes qui ne sont prises au sérieux que par les benêts.
La raison en est qu’aucun homme politique n’ose prendre le risque de dire la vérité (En Politique la vérité est un sujet brûlant qu’il vaut mieux en général éviter).
(Un certain candidat prétend casser ce tabou et nous ouvrir enfin les yeux, nous verrons ce qu’il est si…).
Aujourd’hui, dans l’état actuel des choses, on ne peut tout simplement pas se permettre d’arrêter définitivement des réacteurs.
Il suffit d’une petite calculette pour comprendre que l’arrêt de quatre ou cinq réacteurs supplémentaires nous placerait devant la nécessité d’imposer périodiquement des restrictions de consommation d’électricité, ce qu’aucun homme politique ne prendrait le risque d’annoncer.
Le parc électronucléaire ne peut concrètement être réduit qu’après (Et non avant) la mise en œuvre des moyens de production de base de remplacement correspondants.
Ces moyens sont clairement l’éolien et le solaire adossés à des installations conséquentes de stockage de l’électricité.
Or, que se passe-t-il sur le terrain ?
Le seul projet de construction de parcs éoliens offshore sur la côte Atlantique est l’objet de tant de procédures que le contentieux résultant a entraîné un retard des travaux; le démarrage de la production a du être reporté à 2021 !
Quand aux STEP qui permettraient d’exploiter efficacement la production intermittente, elles ont effectivement été programmées:
Le démarrage du programme est planifié pour les calendes grecques, avec mise en service à la saint glin glin…
Curieuse façon d’aborder la transition énergétique…

__________________

 

 

 

 

 

24 novembre 2016 4 24 /11 /novembre /2016 11:23

LINKY pollueur, vrai ou faux ?

Le nouveau compteur poursuit sa pénétration des foyers, malgré la résistance que tente de lui opposer une minorité de « malgré nous » regroupés en cohortes sous des bannières variées.
La diversité de ces bannières contrarie l’efficacité du combat, et suggère même des motivations peu fondées.
Amalgamer la violation de la vie privée avec des agressions contre les personnes EHS, des perturbations des réseaux domestiques, des troubles de réception des programmes radio et télé, et des tentatives d’abus de facturation de l’électricité, constitue un tableau revendicatif impressionnant, mais très dispersé et donc peu efficace jusqu’à présent contre un « ennemi » insaisissable.
Tout çà parce qu’on a voulu faire travailler ensemble des gens qui ne parlent pas la même langue.
_______________

Les réseaux de production  et de distribution de l’énergie électrique sont du domaine de l’Electrotechnique, alors que les CPL sont du domaine des Télécommunications.
Ces deux mondes sont séparés, ont des cultures différentes, des technologies différentes, des applications différentes, des institutions internationales différentes, des normes et des réglementations différentes.
Le diagramme suivant montre la difficulté d’obtenir une coopération efficace sur le sujet des CPL, ne serait-ce que pour constituer des équipes et définir des bases de coopération.

 

 

 

 

 

 

 

LINKY pollueur, vrai ou faux ?

Les ramifications complexes de cette structure de coopération permettent de comprendre la difficulté de faire converger des domaines aussi différents vers une application par ailleurs contestée par une partie des intéressés.
Car en effet, certains experts, notamment des radio télécoms, estiment que la volonté d’étendre la technologie CPL à des applications haut débit n’est pas pertinente et ne peut qu’engendrer du désordre.
Il y aurait donc lieu, selon eux, d’appliquer le principe de précaution, qui veut dire en l’occurrence s’abstenir.
D’ailleurs la pratique de terrain montre qu’il est pratiquement impossible d’établir une réglementation concernant une application sur un réseau qui n’est pas lui-même configuré pour les télécommunications.
A l’impossible nul n’est tenu…
______________________

Le désordre au sein des réseaux CPL, on connaît. Mais cela se passe au sein des réseaux domestiques, où les conflits se règlent par la « bricole » transmise grâce aux forums du net, et parfois devant les tribunaux, qui évidemment sont désarmés eu égard à l’absence de textes et de retour d’expériences.
L’installation d’un réseau domestique CPL est libre de toute démarche ou autorisation. Il suffit d’acheter n’importe où le matériel présumé conforme dès lors qu’il est estampillé CE.
(Penser qu’un produit estampillé CE est automatiquement conforme aux normes, lorsqu’elles existent, est un raccourci intellectuel audacieux).
La mise en œuvre d’un réseau domestique est effectuée par les moyens du bord, sans aucun contrôle.
Le réseau électrique domestique est régi par la norme NFC 15 100 qui est orientée sécurité des biens et des personnes, et pas du tout communications numériques, surtout hautes fréquences.
Le matériel CPL lui-même est de qualité très variable; le respect des normes  y est approximatif, l’interopérabilité y est une notion exotique, et telle paire d’adaptateurs CPL vendue pour assurer (On vous l’assure) un débit de 1 200 Mbps, plafonne au dixième de cette valeur sans provoquer de protestation majeure, puisque « C’est la faute du réseau »…
Quand aux troubles éventuels à des tiers, qui pourraient résulter de ces installations CPL « sauvages », ils sont classés dans la rubrique « Troubles de voisinage » et reçoivent, ou pas, des traitements peu satisfaisants eu égard à l’absence de normes suffisamment sévères.
Seuls les utilisateurs professionnels des transmissions radio, ainsi que les radio amateurs, ont pu obtenir une prise en compte « acceptable » de leurs problèmes, encore faut-il que les solutions préconisées (Exclusions de fréquences) soient effectivement appliquées, ce qui est loin d’être toujours le cas…
____________________

L’arrivée des CPL du LINKY est perçue comme un élément perturbateur dès lors qu’ils sont imposés et que leur utilité n’est pas directement comprise  par le client .
On peut y voir un défaut de communication de EDF, mais aussi de toute la profession.
Les premiers compteurs Linky utilisaient la technologie G1 pour les CPL. Cette technologie a été remplacée par la G3 pour le déploiement à grande échelle.
G3 est une technologie à large bande à porteuses multiples.
On ne peut évidemment pas reprocher à EDF d’utiliser la technologie la plus moderne, alors que les clients l’utilisent déjà dans leur installation domestique multimédia (Home Plug ).
La bande « utile » de G3 s’étend environ de 36 KHz à 90 KHz, donc dans la bande allouée par le CENELEC aux distributeurs d’électricité.
______________

On constate ici une première zone de flou.
Les CPL reçus et/ou générés par EDF et le compteur Linky pénètrent à l’intérieur du logement car il n’existe aucun filtre.
Il y a certes un affaiblissement dans le compteur, puis lors de la traversée du baco, de 10 à 20 dB, mais l’amplitude demeure assez importante pour qu’on en tienne compte.
On peut alors se demander ce que des signaux CPL de la bande A viennent faire à l’intérieur d’un réseau domestique, puisqu’ils sont en principe réservés à la zone « Outdoor ».
Il existe donc une zone de « Non droit » dont il faudra bien définir un jour le statut juridique.
________________

Un réseau c’est comme un repas de famille; si tout le monde parle en même temps il n’y a plus d’échange possible.
Le premier principe de base est donc la fixation d’une règle d’accès au réseau.
Le réseau domestique CPL doit donc lui aussi suivre une semblable règle sous peine de dérèglements certains.
Toutes les applications domotiques utilisant la même bande de fréquence doivent donc également utiliser le même protocole de communication, incluant évidemment le même procédé d’accès au réseau.
Les applications haut débit multimédia utilisent la bande de 1,6 à 30 MHz, en cours d’extension à 100 MHz.
Les applications domotiques bas débit travaillent sur des fréquences beaucoup plus basses fixées par le CENELEC:
Sous bande A: 9 KHz à 95 KHz  réservée aux distributeurs d’énergie électrique (télé relevé)
Sous bande B: 95 à 125 KHz  réservé aux applications domestiques.
Les CPL du compteur LINKY travaillent dans la bande de 36 à 90 KHz, donc très proche de la bande utilisée par les applications bas débit domestiques (Commandes de volets roulants, d’éclairage, de radiateurs de chauffage, etc…).
Il faut donc s’attendre à des choses bizarres de ce côté car de nombreux matériels bon marché ne sont pas toujours équipés de filtres suffisamment sélectifs.
Par ailleurs il existe de nombreux appareils « Non CPL » munis de touches « sensitives » ou « à effleurement » dont les entrées à haute impédance sont très sensibles au champ électrique.
Ce genre de dispositif est évidemment vulnérable aux ondes émises par les CPL.
(Même si le champ émis est dans les normes).

___________________

Nous avons donc d’une part les applications domestiques bas débit utilisant un type de protocole et d’accès au réseau.
Une deuxième groupe d’applications, à haut débit multimédia, qui utilisent un autre type de protocole et d’accès au réseau, mais à des fréquences très élevées.
Là-dessus viennent se greffer les signaux CPL G3 de EDF, qui ne tiennent pas vraiment compte de ce qui se passe dans l’habitation, notamment en ce qui concerne l’accès au réseau, puisque en principe les gammes de fréquences sont différentes.
Ce bazar peut cependant fonctionner, à condition que chacun reste chez soi, c’est-à-dire respecte soigneusement la bande de fréquence allouée.
Et c’est là que le bât blesse.
__________________

Dans les temps anciens EDF utilisait déjà des signaux CPL, mais de manière très discrète.
Il s’agissait d’envoyer deux ou trois fois par jour, à tout le monde, de très courts signaux pour télécommander la commutation de mode Jour/nuit.
La fréquence utilisée, 175 Hz, ne provoquait aucun trouble, d’autant plus que les applications domotiques étaient alors anecdotiques.
Avec le nouveau compteur, les choses sont très différentes:
D’une part, le nombre des messages qui circuleront sur un tronçon du réseau BT EDF sera très élevé car le gestionnaire devra s’adresser à chaque client séparément, et plusieurs fois par jour sinon par heure. Le trafic sera donc beaucoup plus important, quasiment semi-permanent.
D’autre part, la communication se fera dans une bande de fréquence proche de celle du réseau domestique bas débit, et avec une modulation à large bande à porteuses multiples.
De plus, en cas d’affaiblissement du signal si la ligne est trop longue, un ou plusieurs compteurs pourront être utilisés comme répéteurs.
Ces signaux CPL du compteur, n’étant pas intégrés (Synchronisés) dans le réseau domestique, seront nécessairement perturbateurs car leur niveau sera relativement élevé en phase d’émission vers le concentrateur situé à proximité du transfo BT, c’est-à-dire à une distance qui peut dépasser un km.
______________________

Les réseaux électriques domestiques utilisés pour constituer un réseau de communications CPL , sans précautions particulières, sont vulnérables et la multiplication des applications mettra cette vulnérabilité en évidence.
L’arrivée du compteur Linky n’est que le révélateur de cette vulnérabilité potentielle, dont il faut maintenant rechercher les causes et trouver des solutions, sachant que EDF est logiquement le seul utilisateur légitime du réseau de distribution électrique, et qu’à ce titre il doit bénéficier d’un droit de priorité pour mettre en œuvre les applications du programme « Smart Grid ».
Tout en respectant les normes et les réglementations existantes.
Le retour d’expérience est aujourd’hui insuffisant pour quantifier statistiquement les rejets de la greffe Linky fondés sur une réelle incompatibilité technologique.
(Laquelle doit être évidemment établie après une analyse technique des cas).
Néanmoins dès à présent on doit constater qu’il existe une suspicion d’incompatibilité avec certaines configurations de réseaux domestiques déjà existantes.
Il est probable que chacune des parties y a sa part de responsabilité, même si elle est involontaire.
Faire du Linky le bouc émissaire à priori n’est pas une attitude constructive.
L’analyse doit être globale et donc remettre en cause tous les éléments:
- Le réseau électrique de distribution d’énergie lui-même, tel qu’il découle de l’application de la norme NFC 15 100 , qu’il sera peut-être nécessaire d’aménager.
- Les bandes de fréquences et leur allocation, en harmonie avec la compatibilité électromagnétique, éventuellement sévérisée.
- Le cahier des charges des couches basses de l’architecture du réseau, notamment la couche PHY.
- les protocoles de communication, notamment les protocoles d’accès au réseau, la protection des données, les corrections d’erreurs, les stratégies de streaming, etc…
- les matériels assurant la réalisation des couches basses de la communication, dont le fonctionnement doit être conforme à un cahier des charges incluant les perturbations du réseau.
_______________

La période actuelle doit être vue comme un round d’observation.
Les réseaux électriques domestiques ne sont absolument pas conçus pour être utilisés en réseau de communications.
Et encore moins lorsqu’il s’agit d’y implémenter un réseau partagé entre différents types de protocoles et dans des gammes de fréquences de quelques KHz jusqu’à plus de 100 MHz !
Il n’est donc pas anormal de constater quelques dysfonctionnements dans la période de mise en place.
_______________

 

 

20 novembre 2016 7 20 /11 /novembre /2016 18:46

 

20 Novembre 2016
La campagne de protestation, voire de rejet, contre le compteur communicant LINKY s’accompagne de la tentative d’établir une sorte de « Ligne Maginot » visant à bloquer l’entrée des signaux CPL dans l’habitation.
Les usagers qui montent aux créneaux (Ils sont minoritaires, faut-il le rappeler) le font pour des raisons différentes, en partie complémentaires:
- Les pragmatiques, qui constatent que, depuis l’installation du LINKY, leur réseau domestique CPL (Ou autre) ne fonctionnent plus correctement, et qui en attribuent la faute au nouvel arrivé, à tort ou à raison.
- Les méfiants, souvent les mêmes, qui soupçonnent EDF et/ou le gestionnaire de réseau de vouloir « espionner » leur vie privée à des fins inavouables, et qui veulent se protéger de cette « intrusion ».
- Les scrupuleux, qui estiment que leur installation domotique CPL ne doit pas polluer tout le quartier, et qui donc veulent installer un filtre en sortie du BACO.
(Il s’agit cette fois d’empêcher les signaux du réseau domestique de sortir de l’habitation).
- les personnes EHS (Electro Hyper Sensibles) ou qui se revendiquent comme telles, qui sont malades à la seule idée de voir arriver une nouvelle source présumée agressive.

Quelles que soient les raisons invoquées, justifiées ou pas, la demande existe pour un filtre CPL définissant une frontière entre le réseau domestique et l’extérieur, qui est du domaine public.
____________________

Jusqu’à une période récente, les domaines de l’énergie et des communications vivaient leur vies propres avec leurs problèmes, leurs solutions, leurs réglementations, leurs réseaux, leurs technologies, leurs instances internationales, et tout allait pour le mieux dans le meilleur des monde possible…à condition que chacun reste chez soi.
De plus, dans le domaine de l’énergie électrique, sa production et sa distribution, il existait une frontière quasi sacrée entre la chose publique et la chose privée, cette frontière étant gardée par le fameux « Disjoncteur EDF », plus connu sous le sobriquet de « Baco », le rôle du douanier étant dévolu au compteur d’énergie réputé incorruptible.
Tout au plus voyait-on passer à travers la frontière, une ou deux fois par jour, quelques impulsions destinées à commuter le mode HP/HC et un éventuel « cumulus », pas de quoi fouetter un chat.

____________________

Et puis les temps ont changé.
La révolution numérique a fait entrer dans le domicile toutes sortes d’objets « connectés », de la lampe de chevet jusqu’à la lunette des toilettes en passant par la niche du chien; ces objets sont venus s’ajouter à des applications « utiles » comme la gestion du chauffage, de la centrale anti-intrusion, du gestionnaire d’énergie, du portail d’entrée.
Last but not least, l’informatique et la télévision numérique ont envahi la place, exigeant l’accès au moindre recoin du logis pour l’internet et pour le multimédia, incluant le téléphone et les tablettes évidemment.
___________________

Dans les premiers temps, le réseau domestique de communication numérique télécom et multimédia s’est sagement orienté vers l’utilisation de technologies spécifiques éprouvées comme le câble coaxial (Ou la fibre optique) ou la liaison filaire Ethernet, laissant les CPL aux applications domotiques bas débits pour lesquelles 2 400 bauds suffisent amplement, et les infrarouges à la télécommande du poste.
La WiFi n’était encore qu’une affaire d’intérêt local,, mais qui ne tarderait pas à faire parler d’elle.

Entre temps les ingénieurs avaient développé une technologie extraordinaire, nécessaire pour implémenter la téléphonie cellulaire. Il s’agit de la transmission des signaux numériques par codage utilisant un multiplex fréquentiel et temporel, couplé à une modulation d’amplitude adaptative à multiple états de phase.
C’est un procédé à porteuses multiples, capable de s’adapter aux conditions de transmissions les plus mauvaises, et de passer dans des environnements improbables.
Mais c’est aussi un procédé à large bande, par opposition aux anciens procédés à bande étroite, plus discrets.
C’est ainsi que des petits malins (Aux innocents les mains pleines) se sont avisés que l’ont pouvait même s’en servir pour transmettre internet et la télévision sur les fils électriques du secteur grâce à la technologie CPL!
Et çà marche, enfin en général, car les bons résultats ne sont pas garantis, tant ils sont dépendants de la « qualité » du réseau.
En effet, une installation électrique domestique constitue le pire environnement pour établir un réseau de communication.
(On peut même dire sans exagération que c’est une caricature de réseau). Les spécialistes des télécoms ont levé les bras au ciel, mais l’affaire s’est mise en place, tant était facile l’installation du réseau puisqu’il suffit d’un « simple » adaptateur à bancher sur une prise standard  sans avoir quoi que ce soit à modifier sur le câblage.
________________

Mais ce télescopage forcé entre le monde de l’énergie et le monde des communications est un mariage contre nature, dont les rejetons sont très turbulents.
Le réseau de distribution électrique, même parfaitement conforme à la norme NF C 15 100, n’est absolument pas prévu pour le service de télécommunications.
Les fils électriques ne sont pas blindés, leurs longueurs et leurs diamètres sont variables, l’impédance et les pertes en lignes sont imprévisibles, et surtout ils constituent un réseau très pollué par toutes sortes de signaux, conduits et/ou rayonnés, de formes et de fréquences quelconques provenant de l’extérieur ou de l’intérieur du domicile, et causé par le fonctionnement normal (ou anormal) des appareils divers, branchés ou non.
___________________

Dans cet environnement très hostile, la conception des adaptateurs CPL ne souffre pas la médiocrité.
Ils doivent être capables de remplir plusieurs fonctions:
D’une part extraire, parmi les divers signaux reçus, le signal qui leur est destiné, le démoduler, le décoder, et en faire l’usage défini par leur application, tout cela conformément à la norme et en assurant la rétrocompatibilité et l’interopérabilité avec les autres matériels du même type et pour les mêmes applications.
D’autre part, ils doivent coexister, sans troubles de fonctionnement, avec les autres signaux CPL présents sur la ligne, dès lors que ces signaux sont conformes aux normes en vigueur.
Par ailleurs, ils doivent fonctionner correctement en présence de signaux parasites rayonnés ou conduits, dès lors que ces signaux sont contenu dans les limites fixées par la norme.
Enfin, ils ne doivent pas être eux-mêmes sources de perturbations conduites ou rayonnées, dont les caractéristiques n’entrent pas dans le cadre de la norme.
_____________________

La qualité d’un matériel participant au fonctionnement d’un réseau de communications par CPL se mesure (devrait se mesurer) à ses performances dans quatre domaines différents:
- Le domaine de la sécurité des biens et des personnes, en l’occurrence la protection contre l’incendie, l’électrisation des personnes, la pollution, l’explosion,  etc…En principe garanti par le marquage CE.
(Il y aurait beaucoup à dire sur ce marquage CE).
- Le domaine des protocoles de communication, qui garantit la compatibilité (Y compris avec les protocoles antérieurs) et l’interopérabilité.
- le domaine de la compatibilité électromagnétique (CEM), qui garantit l’innocuité du matériel vis-à-vis des autres applications utilisant des signaux conduits ou rayonnés (Radio) dans les mêmes gammes de fréquences.
- Le domaine de la robustesse vis-à-vis des signaux parasites conduits ou rayonnés, dès lors que ceux-ci ne sortent pas du cadre défini par la norme
(Lorsqu’il existe une norme).
_______________________

Le premier domaine, la sécurité, est très bien maîtrisé puisqu’il reprend les procédures déjà existantes applicables aux matériels électriques classiques ( Du sèche-cheveux à la cuisinière à induction…).

Le second domaine (Protocoles de communication) est déjà un peu plus flou, les protocoles en usage sont encore évolutifs, et la compatibilité n’est pas assurée dans tous les cas.
Il y a donc là une première source de conflits ou de dysfonctionnements.

Le troisième domaine (CEM) est à la limite de l’insaisissable, puisqu’il implique à la fois les caractéristiques du matériel à brancher et celles du réseau électrique, lesquels appartiennent à deux domaines disjoints, l’énergie et les télécom, qui ont du mal à travailler ensemble, pour des raisons historiques.
En effet, le branchement d’adaptateurs CPL sur un réseau électrique domestique constitue un émetteur radio, les fils électriques étant l’antenne, dont les caractéristiques sont évidemment quelconques.
Le problème des perturbations radioélectriques vis-à-vis des radioamateurs et d’autres usagers éventuellement professionnels, a été (en partie) réglé par la norme EN 50 561-1 publiée au JO le 25-02-2014, qui impose entre autres un plan d’exclusion de fréquences interdites aux CPL.
Mais il subsiste les problèmes des perturbations causées aux appareils domestiques télécommandés par radio ou munis de touches à effleurement, pas nécessairement prévus pour supporter les champs électriques de proximité causés par les CPL.
Notons ici qu’il n’existe (encore) aucune recommandation concernant la conception et l’installation d’une réseau de distribution électrique domestique assurant un certain niveau de compatibilité avec les transmissions CPL.
Il y a bien eu une tentative pour imposer un câblage en RJ45, mais peu convainquant.
(C’était pourtant techniquement une bonne solution).

Avec le quatrième domaine, nous entrons  dans l’inconnu.
Les « parasites » que les adaptateurs CPL devront supporter sans faiblir   sont de plusieurs sortes:
- Soit d’autres signaux CPL correspondant à d’autres gammes de fréquences ( par exemple la bande CENELEC  de 3 à 148,5 KHz), et/ou d’autres types de signaux de la couche physique ou d’autres types de protocoles. Par exemple les signaux du Linky.
- Soit des signaux impulsionnels de différentes sources:
Les impulsions parasites présentes sur la ligne EDF, ou créées par le réseau domotique lui-même (Ou celui des plus proches voisins) en provenance de commutations diverses, d’alims à découpage, de démarrage et coupures de moteurs, etc, etc.
Ce quatrième domaine est pratiquement impossible à normaliser, il peut être générateur de troubles et de conflits.
____________________

Rappelons que le compteur Linky communique dans les deux sens avec son maître EDF par des signaux CPL.
Ces signaux se propagent sur la ligne dans les deux sens, et se retrouvent donc chez l’usager car il n’y a aucun filtrage à l’intérieur du Linky.
Cette absence de filtre peut se justifier de plusieurs façons:
- Dans le cadre du projet Smart Grid, EDF a voulu se réserver la possibilité de communiquer plus tard directement par CPL avec certaines zones du réseau électrique de l’usager, soit pour gérer un contrat d’effacement sélectif, soit pour gérer une installation client de production d’électricité, une installation de charge de batterie, ou des moyens de stockage d’énergie partagés.
Pour cela il est nécessaire de laisser libre le passage des CPL, ce qui justifie l’absence de filtre.
- Un filtre secteur bloquant les signaux de la bande A du CENELEC , et placé à l’intérieur du compteur, devrait être conçu pour supporter le courant max permis par celui-ci, c’est-à-dire 100 A.  
Un tel filtre serait énorme, lourd, et onéreux, coûtant probablement trois fois le prix du compteur lui-même.
Sans compter les pertes énergétiques dans les fils et les noyaux des inductances.
Et de plus, ce filtre ne devrait pas perturber le fonctionnement de l’interface CPL du compteur, ni créer de surtensions destructrices lors de coupures du courant ou de court-circuits.
- Le compteur Linky utilise des CPL réputés conformes à la norme et respecte le plan de fréquence puisque son spectre d’émission occupe la bande de 3 à 9O KHz allouée aux distributeurs d’énergie.
Les niveaux d’émissions conduites ou rayonnées sont réputés conforme à la norme.
Les applications CPL du réseau domestique utilisent d’autres bandes de fréquences et, si les installations sont réalisées dans les règles de l’art, les uns et les autres doivent coexister sans problèmes, sauf cas d’espèces.
 
Pour ces trois raisons, le compteur Linky ne comporte aucun filtre.
______________________

Bien sûr, il sera toujours possible de tenter de démontrer que les éventuelles perturbations constatées sont causées par le Linky, dont les signaux CPL ne seraient pas conformes aux normes.
Mais il faudra d’abord démontrer que l’installation domestique du plaignant (Ou des plaignants) respecte elle-même les règles de l’art et n’utilise que du matériel lui-même conforme, ce qui pourrait réserver des surprises quant à certains produits, même estampillés CE.
Quant à remettre en cause les normes elles-mêmes, pourquoi pas ?
Mais attention, quelles normes ?
Une discussion sur le sujet des perturbations pourrait très bien se terminer par une nouvelle réglementation qui imposerait un additif à la NF C 15 100 imposant par exemple un aménagement du câblage électrique de l’habitation (câblage électrique blindé, séparation des lignes de forte puissance et des lignes courants faibles, obligation de certaines liaisons en RJ 45, sévérisation des procédures d’homologation des matériels CPL, etc…)
___________

Lors de la conception du compteur Linky, les ingénieurs de EDF connaissaient bien sûr le « bazar » régnant dans le monde des CPL domestiques, et se sont bien gardés d’y mettre les pieds avant qu’il y soit mis bon ordre ( Car il faudra bien, un jour ou l’autre, faire le ménage).
Ils ont donc prévu dans le nouveau compteur une interface de communication client ( TIC, Télé Information Client) basée sur une transmission filaire (Comme sur le CBE, Compteur Bleu Electronique) qui peut être connectée à un gestionnaire d’énergie du client.
Pour les amateurs de radio, il est prévu dans le compteur Linky un (Petit)  emplacement pour enficher une interface ad-hoc vendue dans le commerce sous le nom d’ERL, Emetteur Radio Linky. Cet interface transmet les mêmes signaux que son homologue filaire.
Donc le gestionnaire du réseau de distribution peut dialoguer avec le client sans utiliser les CPL. Il passe alors par le gestionnaire d’énergie du client, dans la mesure où celui-ci le souhaite.
__________________

Dans un futur plus ou moins lointain les appareils domestiques électriques gros consommateurs d’énergie seront équipés d’interfaces de communication permettant de les raccorder à un gestionnaire local d’énergie.
Sont concernés essentiellement le chauffage, un ballon d’eau chaude, un lave-linge, un sèche-linge, un lave-vaisselle, un four à micro ondes, une pompe à chaleur, une installation de charge de batterie, un climatiseur, une installation de production d’électricité, etc.
La centrale domestique locale de gestion d’énergie sera évidemment programmable, et pourra     être pilotée en accord avec un éventuel contrat de gestion d’énergie dans le cadre du programme EDF « Smart Grid ».
Les liaisons entre le gestionnaire local d’énergie (GLE) du domicile et les différents appareils pourront transiter par n’importe quel réseau compatible avec les interfaces livrés avec les appareils: CPL, Filaire, Radio.
_____________________

Si le client désire filtrer les CPL du compteur, il faudra donc qu’il le fasse lui-même.
Mais attention, il s’agit de laisser passer le secteur jusqu’à l’harmonique trois, et d’affaiblir d’au moins 30 dB à partir de 3 KHz, ce qui n’est pas une mince affaire.

Le filtrage des CPL du Linky reste donc possible, mais à quelques conditions:
- rester respectueux de la norme NF C 15 100.
- Obtenir les homologations adéquates, notamment concernant la sécurité.
- Faire les démarches nécessaires pour obtenir le marquage CE.
- Obtenir les homologations techniques.
- Et bien sûr respecter les obligations vis-à-vis de EDF: Ne pas perturber le fonctionnement du compteur Linky, ne pas créer de composante de puissance réactive, ne pas générer des surtensions liées aux variations brusques de courant ( Coupure ou mise en route d’appareils, sectionnement du baco, court circuits ).

Le bricolage à ce niveau paraît devoir être exclu, sauf à assumer les risques vis-à-vis des assurances et du fournisseur d’énergie.
Et pour un résultat qui ne sera pas garanti, puisqu’un tel filtre risque d’être lui-même source de perturbations s’il n’est pas réalisé avec les plus grandes précautions.
Le remède risque d’être pire que le mal.
_______________

 

 

 

 

 

 

 

14 novembre 2016 1 14 /11 /novembre /2016 11:57

14 Novembre 2016
Selon le scénario classique, chaque avancée technologique présente des inconvénients spécifiques avec lesquels nous devons composer.
Il peut se faire que, lorsque ces inconvénients constituent un risque pour le consommateur usager, une technologie soit abandonnée ou profondément adaptée.
Actuellement, nous vivons un de ces épisodes avec les moteurs thermiques qui équipent nos automobiles.
Les critères de tolérance en matière de santé publique ayant fortement évolué, la pollution émise par ces moteurs est devenue inacceptable selon les nouvelles règles définies par les normes européennes Euro 6, et à fortiori par les suivantes.
(En l’occurrence il s’agit des émissions de dioxyde de Carbone, d’oxydes d’Azote, d’Hydrocarbures imbrûlés, de suies, de particules fines et de nanoparticules).
Malgré les perfectionnements apportés à la conception, à la gestion des moteurs et aux dispositifs de dépollution, les constructeurs ne peuvent plus produire des moteurs thermiques conformes aux exigences des dernières normes.
Ils en sont réduits à tricher avec les tests d’homologation et, ce qui est plus grave, avec les règles de protection de la santé publique.
Les derniers épisodes judiciaires sont la révélation d’un état d’esprit délétère qui ne peut que nuire à tout le monde.
Le moment est donc venu de changer de technologie.
En ce domaine il n’existe qu’une alternative, c’est le moteur électrique.
_________________

La saga de la voiture automobile électrique a débuté dès la fin du XIXè siècle. Le premier modèle doté d’accumulateurs rechargeables aurait circulé en 1884.
L’électricité était fournie par des batteries d’accumulateurs au Plomb récemment mis au point par Planté, et l’autonomie ne dépassait pas quelques dizaines de Km malgré des vitesses fort modestes.
Quant aux bornes de rechargement, inutile d’en parler…
Ces voitures connurent cependant un grand succès, puis furent détrônées par le pétrole.

L’explication était, déjà,
« Il est plus facile d’emporter un bidon de pétrole qu’un bidon d’électricité »
__________________

Le véhicule électrique à batterie a cependant continué d’exister à côté du véhicule à moteur thermique, pour des applications spécifiques pouvant s’accommoder d’une autonomie réduite.
Mais son déploiement sur une grande échelle est resté impossible, faute d’une autonomie suffisante.
_______________

Aujourd’hui les progrès de la technologie permettent d’envisager une nouvelle percée sur le marché grâce à deux avancées prometteuses:
D’une part la batterie au Lithium, et d’autre par la pile à combustible.
C’est aujourd’hui la batterie au Lithium qui a été choisie pour stocker l’énergie électrique embarquée, eu égard à l’état d’avancement de cette technologie.
Mais la pile à combustible constitue une solution de repli très crédible,  expérimentée par ailleurs dans le cadre de la filière Hydrogène et de l’utilisation de biocarburants. Quelques modèles sont proposés en petites séries.
A quelques rares exceptions près, les véhicules électriques proposés aujourd’hui sur le marché sont équipés de batteries Lithium-ion, et le réseau d’infrastructures de recharge en cours de déploiement est adapté à ce type de batteries.
_________________

Cette nouvelle technologie n’échappe pas à la règle; elle est accompagnée de certains inconvénients spécifiques qui doivent être pris en compte dans le cadre des études de sécurité.
Il serait irresponsable de nier l’existence de certains risques de santé publique liés à l’utilisation de tensions élevées ( 400 V, et 800 V dans le futur) et de substances telles de LiPF6 dont l’instabilité thermique est connue.
Tout cela est expliqué dans le rapport d’étude de l’INERIS*
DRA-10-111085-11390 D du 06/06/2011
Disponible ici:
ineris.fr/centredoc/ve-analyse-apr-couv-ineris-1386077293.pdf
*Institut National de l’Environnement industriel et des RISques.]
Objectifs du rapport:

« Effectuer une cartographie des enjeux relatifs aux risques accidentels que pourraient présenter les véhicules électriques sur l’ensemble de leur cycle de vie (production, utilisation, recharge, fin de vie). »
_______________

Nous nous intéressons ici aux risques liés à l’utilisation du véhicule par l’usager.
Les principaux risques sont résumés dans le tableau ci-dessous, directement issu du rapport INERIS.

 

Quels risques pour les batteries au Lithium des VE ?

 

Pas d’affolement.
Ces risques étant connus, ils sont pris en compte tout au long de la fabrication des batteries et de leur utilisation sur toute la durée de vie, et même lors du recyclage.
Sur un véhicule, la gestion de la batterie est confiée à un véritable cerveau, le BMS (Battery Management System), qui prend en charge la gestion et la surveillance permanente. Il intervient pour équilibrer la charge et la décharge des différentes cellules, surveiller les températures, déclencher le circuit de refroidissement éventuellement, contrôler la totalité des processus de charge et de décharge, l’ajuster en fonction des caractéristiques des bornes de charge et de l’état de la batterie, de la température ambiante, déclencher si nécessaire les dispositifs de sécurité.
C’est sur le BMS que repose non seulement le bon fonctionnement du système, mais aussi la sécurité du véhicule et éventuellement celle des passagers.
_____________________

Nous avons donc affaire à un système dont la gestion et le contrôle ne souffrent pas la médiocrité, compte tenu des conséquences plus que fâcheuses d’un accident de batterie.
La fiabilité des composants, et particulièrement du BMS, doit donc être exceptionnelle, compte tenu de l’utilisation sur une longue durée et par des usagers dépourvus par principe de toute expertise technique.
Tout repose donc sur l’automatisation des processus. Les personnels habilités à intervenir sur des véhicules électriques doivent avoir reçu une formation spécifique, qu’il s’agisse d’un contrôle technique, d’une révision chez le concessionnaire, ou d’une intervention à la suite d’un accident de la circulation ou d’une panne.
Le VE à batterie au Lithium ne tolère pas le bricolage. La sécurité en dépend.

Et c’est en connaissant les risques que l’on peut s’en protéger, non en les niant.
Les quelques exemples de feux d’artifices offerts par des « accidents de batterie » montrent, s’il en était besoin, que l’on ne plaisante pas avec ce genre de dispositif, et pas seulement dans l’automobile, de beaux exemples nous sont offerts avec les PC portables, tablettes et Smartphones, et même les avions, qui sont pourtant réputés pour leur fiabilité.
__________________

Les batteries Lithium-ion actuelles (On ne peut pas préjuger des progrès futurs ) utilisent un électrolyte à base de Li P F6.
Au-delà d’une température d’environ 170 °C l’électrolyte réagit avec les électrodes pour provoquer une réaction exothermique avec dégagement gazeux inflammable et toxique, un emballement thermique.
Il est donc essentiel de contrôler la température d’un élément au Lithium afin d’intervenir avant que sa valeur critique ne soit atteinte.
La connaissance de la température est également nécessaire pour gérer les différents régimes de fonctionnement (Température ambiante très basse, ou très élevée, courant de charge, courant de décharge, charge lente, charge rapide, etc..).
Une batterie comprend un nombre important de cellules élémentaires, et chacune d’entre elle doit être contrôlée individuellement car leurs caractéristiques ne sont pas identiques, elles ne vieillissent pas de la même manière, et la température n’est pas uniforme au sein de la batterie, il faut pouvoir gérer intelligemment le refroidissement.

Car il y a un circuit de refroidissement, nécessaire pour évacuer la chaleur dégagée par tout système énergétique dont le rendement n’est pas de 100%.
Aujourd’hui les VE utilisent une tension de l’ordre de 400 V. Une cellule élémentaire au Lithium-ion fournit une tension de 3,7 V; il en faut donc au minimum 100 disposées en série pour obtenir 370 V.
Mais si l’une des cellules est HS, c’est l’ensemble du pack qui est hors service. Pour éviter cela chaque étage de 3,7V est constitué de plusieurs cellules en parallèle, en sorte qu’une cellule HS peut être déconnectée sans compromettre le fonctionnement de l’ensemble, sauf au niveau du courant max.
Une batterie de 370 V peut donc être constituée de plusieurs centaines de cellules élémentaires, voire plusieurs milliers comme chez Tesla.
Chacune des cellules élémentaires peut être un risque d’emballement thermique si elle n’est pas surveillée attentivement par le BMS.
L’emballement peut survenir pour diverses raisons, comme exposé dans le tableau de l’INERIS.
________________

Donc oui, la batterie auto Lithium-ion comporte des risques, mais ceux-ci

peuvent être considérablement réduits grâce au respect des règles de sécurité à toutes les étapes de la vie du produit.
La conception, la préparation des matériaux, l’assemblage, les tests de fiabilité, le montage sur véhicule, le système de gestion (BMS), la protection contre les chocs, la procédure de recharge, la procédure d’intervention en cas de panne ou d’accident, la formation des personnels à tous les postes d’intervention, le programme de révisions périodiques, toutes ces étapes doivent être intégrées dans une chaîne de sécurité sans maillon faible, dans laquelle le petit mécanicien bricoleur n’a plus sa place, sinon pour changer une roue.
_______________

Malgré ce panorama, qui peut être inquiétant à la lecture, la situation sur le terrain incite plutôt à l’optimisme.
Les incendies spectaculaires rapportés par les média, impliquant un véhicule électrique, et comportant des conséquences liées à la présence d’une batterie au Lithium, sont plutôt rares.
Le nombre de véhicules électriques en circulation dans le monde est maintenant suffisamment élevé pour autoriser une évaluation statistique.  
Les statistiques d’incendies de véhicules aux Etats-Unis rapportent les chiffres suivants:
1 feu de véhicule pour 20 Millions de miles parcourus, tous types.
1 feu de véhicule pour 100 Millions de miles parcourus, pour les seuls véhicules électriques.
Les VE sont donc statistiquement cinq fois moins exposés au risque d’incendie que les véhicules thermiques.
Rapportés à la moyenne annuelle française de 12 000 Km par an, cela donne la probabilité d’incendie de 1/15 000 , ou encore 0,007 %.
Ce qui prouve une maîtrise certaine de la technologie, même si de meilleurs résultats sont toujours souhaitables.
(Nous ne disposons pas de statistiques européennes…)
Il n’y a donc pas lieu de sonner le tocsin, le véhicule électrique est entre bonnes mains, pourvu que çà dure…
_______________

Il faut cependant rester vigilants car le déploiement du marché de gros volumes implique un certains nombres de démarches:
- réduction des coûts, la batterie actuelle demeure beaucoup trop chère.
- Augmentation des capacités, car il faut améliorer significativement l’autonomie.
30 KWh aujourd’hui, 60 KWh dès 2018, et 100 KWh en ligne de mire.
- Amélioration de la capacité énergétique spécifique pour maintenir le poids dans des limites raisonnables tout en augmentant les capacités.
- Couplage de la batterie avec un supercondensateur, pour obtenir à la fois une grande capacité spécifique et une puissance disponible importante.
 Il est important que cette course à l’échalote ne porte pas préjudice à la fiabilité.
La règlementation (ISO 12405 et ISO 6469 et suivantes) devra veiller à maintenir le plus haut niveau d’exigence afin que l’exercice de la concurrence ne conduise pas au moins-disant technique.
________________

La barre est placée très haut, et compte tenu du problème des bornes de recharge, la partie n’est pas gagnée d’avance.
_______________

10 novembre 2016 4 10 /11 /novembre /2016 12:09

10 Novembre 2016
Ces temps-ci il souffle un grand vent de révolte contre les nouvelles technologies.
Non pas que les services qu'on en attend soient remis en question, sauf peut-être pour le compteur communicant Linky, suspecté par certains d'être l'œil de Big Brother.
La cause de la bronca contre les nouvelles technologies, minoritaire, faut-il le préciser, réside dans leurs effets secondaires réels ou supposés.
Tour à tour se sont trouvés cloués au pilori les émetteurs de téléphonie mobile, le compteur communicant Linky, les CPL en général, les ondes électromagnétiques, et les infrasons des aérogénérateurs.
Parmi les prochains sur la liste des bannis nous trouverons probablement  les RFID (Radio Frequency Identification Device). Mais n’anticipons pas.
________________


Cent cinquante ans de progrès auraient pourtant dû nous habituer à rencontrer derrière chaque avancée un cortège de calamités avec lesquelles nous avons dû nous "arranger" tant bien que mal.
Ainsi chaque médicament comporte son cortège d’effets secondaires dont la nuisance est proportionnelle à son efficacité réelle. La profession gère ce fardeau tant bien que mal, parfois très mal, tant sont grands les intérêts en jeu.
Mais il y a aussi parfois des effets secondaires positifs.
La technologie est ainsi, une face positive, une face négative.
Plutôt que de jeter le bébé avec l’eau du bain, notre société a fait le choix de garder le bébé avec son bain, même si l’eau n’est pas très claire,
et de s’efforcer de gérer les effets secondaires négatifs, tout en profitant des effets secondaires positifs.
Bien sûr le problème est de savoir jusqu’où ne pas aller trop loin.
Et là les citoyens ont leur mot à dire, à travers les associations de consommateurs, ce dont ils ne se privent pas.
Mais leur pouvoir, limité par des dispositions législatives adéquates, est bien souvent dérisoire.
Pire, on a vu récemment des lanceurs d’alerte poursuivis en justice à la place des coupables, pourtant pris la main dans le sac…
La démocratie emprunte parfois des détours surprenants.
Mais ne nous égarons pas.

Après le syndrome de l'homme EHS*, qui n'a toujours pas trouvé sa solution, loin s'en faut (Voir article précédent), voici le "syndrome éolien", qui risque de faire florès lorsque la transition énergétique vers l’éolien entrera dans sa phase concrète.
* Electro Hyper Sensibilité
____________________

De quoi s’agit-il ?
Plutôt qu’un long discours, examinons le graphique suivant:

Le syndrome éolien, quoi de neuf docteur ?

Nous y voyons l’enregistrement du bruit spectral d’une éolienne.
Les circonstances sont décrites dans le rapport référencé joint, très bien documenté.
Ce type de spectre se retrouve sur toute éolienne, avec des valeurs différentes mais l’aspect général est commun.
On constate une très forte remontée du « bruit » dans les basses fréquences, spécialement dans le domaine des infrasons, inaudibles par définition.
« Inaudible » signifiant non perçu par l’oreille en tant que « son »,
ce qui ne préjuge pas des autres modes de perception éventuelle par l’organisme sous des formes différentes.
On remarque également que les infrasons ne sont pas atténués à l’intérieur de l’habitation, ou très peu, ce qui est logique eu égard aux faibles atténuations subies par les infrasons en général.
(Qu’on se souvienne que les éléphants communiquent sur de très grandes distances grâce aux infrasons).
Il n'existe pas de protection efficace contre les infrasons, le seul remède est leur réduction à la source.
Les infrasons « éoliens » sont dus aux vibrations des pales et aux turbulences causées par le passage des pales devant le mât. Des vibrations du mât lui-même viennent se superposer au « signal » transmis par l’air et le sol.
Certaines fréquences d’infrasons peuvent être amplifiées à l’intérieur des habitations par effet de résonnance à la fréquence propre des locaux.
Dans le cas d’un parc éolien, les spectres des différentes machines se combinent en fonction des distances respectives.
_______________


Nous y voyons l’enregistrement du bruit spectral d’une éolienne.
Les circonstances sont décrites dans le rapport référencé joint, très bien documenté.
Ce type de spectre se retrouve sur toute éolienne, avec des valeurs différentes mais l’aspect général est commun.
On constate une très forte remontée du « bruit » dans les basses fréquences, spécialement dans le domaine des infrasons, inaudibles par définition.
« Inaudible » signifiant non perçu par l’oreille en tant que « son »,
ce qui ne préjuge pas des autres modes de perception éventuelle par l’organisme sous des formes différentes.
On remarque également que les infrasons ne sont pas atténués à l’intérieur de l’habitation, ou très peu, ce qui est logique eu égard aux faibles atténuations subies par les infrasons en général.
(Qu’on se souvienne que les éléphants communiquent sur de très grandes distances grâce aux infrasons).
Il n'existe pas de protection efficace contre les infrasons, le seul remède est leur réduction à la source.
Les infrasons « éoliens » sont dus aux vibrations des pales et aux turbulences causées par le passage des pales devant le mât. Des vibrations du mât lui-même viennent se superposer au « signal » transmis par l’air et le sol.
Certaines fréquences d’infrasons peuvent être amplifiées à l’intérieur des habitations par effet de résonnance à la fréquence propre des locaux.
Dans le cas d’un parc éolien, les spectres des différentes machines se combinent en fonction des distances respectives.

_______________

Les effets physiologiques des sons de très basse fréquence (Infrasons) sont connus.
Mais la réglementation concerne le bruit « audible » , mesuré dans la bande 20 Hz - 20 000 Hz, qui exclut les infrasons.
Lire à ce sujet:
HAL / Perception des infrasons / jacques Chatillon
https://hal.archives-ouvertes.fr/hal-00743497/document

Egalement:
Infrasons et ultrasons / P.Grandjean et G.Nexer:
http://www.hearingprotech.com/pdf/Infrasons%20et%20ultrasons%20-%20les%20risques,%20les%20moyens%20de%20protections.pdf

Ou encore:
INRS 2250 / Limites d’exposition aux infrasons et aux ultrasons / J.Chatillon.
www.inrs.fr/media.html?refINRS=ND%202250

_______________

La nature, le spectre, et la puissance des infrasons subis sont très variables selon la distance entre l’habitation et les sources d’émission, la structure de l’habitation, le type des éoliennes, leur puissance, la vitesse du vent, le taux d’humidité, l’orientation du vent, etc.
L’établissement d’une distance de sécurité unique n’est pas une précaution suffisante, car chaque cas est un cas particulier.
L’absence de prise en compte sérieuse du problème des infrasons peut être à l’origine d’un gisement important de contentieux.
Encore une affaire à suivre…
___________________
 

4 novembre 2016 5 04 /11 /novembre /2016 19:04

 

4 Novembre 2016

Pour améliorer ses conditions de vie l'Homme a inventé le progrès.
Si ce progrès, essentiellement technologique, n'a pas eu d'effet sur les mentalités et n'a pas permis d'améliorer le "vivre ensemble", il a par contre généré un cortège de calamités avec lesquelles il nous faut hélas composer.
______________

Tout le monde n'a pas les moyens d'échapper à la vie moderne en partant s'installer en Lozère (Ou en Ardèche…) avec trois chèvres.
Cet échappatoire peut être un pis aller tout au plus provisoire, qui permet une remise à neuf champêtre, au même titre qu'une cure à Bagnères, dont l'effet sera similaire, avec en prime le bénéfice d'un remboursement par la sécu et la complémentaire.
_________________

Reste la lutte du pot de terre, sans grand espoir de vaincre, sinon celui d'y gagner une identité de victime avec, peut-être, quelque compensation financière.
Mais lutter contre quoi, contre qui ?
L'ennemi est légion, comme disait l'autre qui s'y connaissait.
Le bruit et les odeurs, la pollution de l'air et des eaux, la promiscuité des grandes villes, le temps perdu dans les transports, le stress au travail, l'inquiétude du lendemain, le chômage, la faillite, sont les maux permanents qui nous accablent et auxquels il faut ajouter quelques ennemis sournois car invisibles:
les aliments dénaturés, les pesticides, les OGM, les perturbateurs endocriniens, les nanoparticules, les oxydes d'Azote, les métaux lourds, les médicaments tueurs, l'Amiante, le Plomb, les additifs, la radioactivité, les ondes électromagnétiques, et bien d'autres encore à démasquer.
__________________

La liste est infinie des agressions qu'il nous faut supporter, et que notre organisme n'est pas nécessairement apte à amortir, du moins pour certains d'entre nous.
En résultent la fatigue, le stress, les troubles du sommeil, la dépression, le burn out, ou le refuge dans les antidépresseurs, le tabac, l'alcool, ou la drogue, c'est le chemin de croix qu'offre parfois une "vie moderne" plutôt subie que réellement choisie.
___________________

Quelle vision que  ce "meilleur des mondes", auquel nous sommes gentiment conviés et vers lequel nous nous précipitons joyeusement sans voir que nous-mêmes serrons la corde qui va nous étouffer.
Un monde connecté, mais connecté à qui et pour quels objectifs ?
Et quelle porte de sortie, comment couper une chaîne que nous avons nous-mêmes solidement forgée ?
Que nous reste-t-il alors, sinon le langage du corps, la somatisation, en espérant une écoute qui, à défaut du remède, nous apportera une reconnaissance, un statut de malade.
Devant ce tableau navrant, la médecine ne sait plus très bien distinguer le trouble psychosomatique du réel désordre organique, voire même de la simulation.
__________________

La pollution par les champs électromagnétiques n'est qu'une calamité parmi les autres, mais avec certaines caractéristiques qui lui confèrent un pouvoir de nuisance particulier.
C'est une pollution invisible, contre laquelle il est difficile de se protéger sauf à recourir à des procédés déraisonnables rendant toute vie normale impossible.
C'est une pollution insaisissable car elle peut sévir n'importe où, son aspect protéiforme la rend difficilement caractérisable, elle peut sévir dans n'importe quelle gamme de fréquences sous des aspects inattendus, et ses effets se camouflent sous des apparences de symptômes communs à de nombreux autres troubles eux-mêmes difficiles à relier à une cause unique.
C'est une pollution qui, pour le moment, ne fait l'objet d'aucune mesure de contrôle quant à ses effets sur l'organisme humain, elle peut donc exercer ses ravages en toute impunité.
C'est une pollution niée par le corps médical dans la grande majorité des cas, ce qui lui permet de s'étendre sans rencontrer de contre-mesures efficaces ni de prise en charge, sauf rares exceptions.
C'est une pollution dont l'importance croît avec le développement des applications de communication visant à la création d'un monde connecté.
C'est une pollution dont on ne connaît pas les effets, et pour cause.  
C'est une pollution dont se plaignent un nombre de plus en plus élevé de patients. On parle officiellement d'une prévalence de 2% en France, ce qui commence à ressembler à un problème de santé publique.
________________

Les champs EM sont partout présents, et dans toute la gamme des  
fréquences. Les champs magnétiques ne sont pas moins pervers, bien que moins connus.
- Le réseau de distribution d'énergie électrique est en lui-même source rayonnante à 50 Hz, avec des valeurs de champ qui sont parfois très élevées au voisinage des lignes HT et THT, et des transformateurs qui rayonnent un fort champ magnétique.
L'enfouissement des lignes réduit l'importance du rayonnement.
Ce réseau, lorsqu'il est aérien, constitue un système d'antennes et devient source de rayonnement pour les éventuels signaux superposés au 50 Hz, il s'agit des CPL ( Courants Porteurs en Ligne).
- Les émetteurs Radio et Télévision du réseau terrestre, dont le champ EM de proximité n'est pas négligeable.
- Les antennes UHF des réseaux de communication mobile.
- Et surtout les émetteurs des téléphonie mobile (Smart phone), dangereux à cause de leur extrême proximité avec le corps humain (Cerveau, organes génitaux).
- Les réseaux domestiques CPL, à cause de l'absence de blindage et des nouvelles applications utilisant des gammes de fréquences jusqu'à 100 Mhz, voire beaucoup plus.
- Les applications connectées par radio ( Wi-Fi, Blue-Tooth, etc) à cause de leur proximité.
Il est donc impossible d'envisager un arrêt de cette technologie à laquelle n'échappe aucune application moderne.
La solution est dans le compromis.
__________________

Les plaignants rapportent des troubles fonctionnels dont la nature très variée ne les distingue pas des troubles habituellement rapportés dans d'autre affections comme la fatigue, la dépression, le stress, sans spécificité particulière, sinon que ces troubles sont attribués par les patients à  l'influence néfaste des ondes électromagnétiques.
Il n'a pas encore pu être établi une relation de cause à effet incontestable entre les ondes électromagnétiques et l'un des symptômes présentés par les plaignants.
Mais attention,
L'absence de preuve n'est pas la preuve de l'absence.
La relation de cause à effet n'a peut être pas été trouvée tout simplement parce qu'on ne l'a pas cherchée convenablement.
__________________

Le problème de l'électro hypersensibilité est récurrent. Il est évoqué dans diverses publications médicales, sans résultats probants.
L'OMS a cependant pris acte de son existence et l'a cataloguée sous l'appellation IEI-CEM, " Intolérance environnementale Idiopathique attribuée aux champs électromagnétiques".
Le qualificatif "Idiopathique" traduit l'impossibilité d'identifier formellement la cause des troubles rapportés.
L'adjectif "attribuée" précise que les champs électromagnétiques sont une cause revendiquée par les malades eux-mêmes, mais non avérée.
Le terme "Intolérance environnementale" désigne un ensemble de syndromes associés par les malades à des influences néfastes de leur environnement, qu'il s'agisse de pollution de l'air, de l'eau, des aliments, du bruit excessif, de l'insalubrité des locaux, des ondes EM, de la température trop élevée, trop basse, de l'ascenseur en panne, de la proximité d'une éolienne, de l'insécurité, etc, etc…
IEI-CEM  est donc un acronyme confortable mais non signifiant.
On parle également d' HSEM, Hyper Sensibilité Electro Magnétique, ou encore de SICEM, Syndrome d'Intolérance aux Champs EM.
Un malade devient alors une "personne EHS", ce qui est beaucoup plus valorisant mais, comme dirait feu ma grand-mère, "çà lui fait une belle jambe".
De même que la fatigue en général a longtemps été considérée comme une "non maladie", et n'a été prise en compte médicalement que récemment, les personnes EHS peinent à obtenir une reconnaissance et un statut médical.
Quoiqu'il en soit la plainte du malade est bien réelle et doit être prise en compte.
C'est à la médecine qu'il appartient ensuite d'analyser les troubles et d'y apporter les remèdes adéquats, en essayant d'éviter de recourir aux extrêmes de la consultation psychiatrique ou de la pension d'invalidité.
__________________

Les pouvoirs publics ne sont pas indifférents au problème de l'hyper sensibilité électromagnétique.
En France l'Agence Nationale de Sécurité Sanitaire (ANSES) a créé en 2011 le Comité de dialogue "Radio fréquences et santé" chargé d'établir un état des connaissances du sujet.
Le rapport d'expertise collective a été publié en JUIN 2016.
Ce document très dense de 297 pages peut être consulté ici:

https://www.anses.fr/fr/system/files/Consultation_AP_2011SA0150_EHS.pdf

On trouve dans ce document un état des lieux du problème, résultat de la contribution d'un grand nombre de participants cités, incluant des médecins, des associations de défense des usagers, des organismes de régulation, des représentants des télécommunications, des distributeurs d'énergie, de la radiodiffusion, des organismes normatifs, et bien d'autres.
Ce travail se veut une base de départ vers une connaissance plus systématique du problème, une caractérisation des relations de cause à effet, visant à l'établissement de règles de sécurité reposant sur des données fiables et renseignées.
________________

Le collationnement des résultats de tests effectués par les différentes unités de recherche avait pour objectif de chercher à mettre en évidence un ou plusieurs symptômes spécifiques d'une hypersensibilité aux ondes.
Des indices ont été rapportés, mais rien de concluant sinon qu'il est nécessaire de continuer les travaux, y compris dans le sens d'une recherche d'effets organiques démontrables.
(Un peu comme une exposition à la radioactivité ou à l'amiante peut être démontrée par une analyse de la Thyroïde ou des poumon).
Dans l'ensemble, il a été rapporté par les études sur des personnes EHS (Electro Hyper Sensibles) un corpus de symptômes qui se retrouvent dans de nombreuses maladies déjà répertoriées:
- Fatigue chronique.
- Dépression.
- Fibromyalgie.
- SCM ( Sensibilité Chimique Multiple).
- Mononucléose.
- Maladie métabolique.
- Neurasthénie.
- Maladie de Lyme.
- Troubles trophiques.
- SEG ( Sensibilité Environnementale Généralisée).
- Burn out.
- Syndrome des bâtiments malsains ( !).
- Maladie des amalgames dentaires.
- Intolérance au bruit.
- Syndrome éolien (!).
- Somatisations chroniques invalidantes.
- Etc ?

Comment alors mettre en évidence la responsabilité exclusive, ou non,  des ondes EM dans l'une quelconque des ces maladies ou syndromes, et selon quels critères faut-il poser le diagnostic ?
Ou bien s'agit-il d'une maladie spécifique des ondes EM ?
_________________

C'est pour répondre à ces questions que d'autres travaux doivent être entrepris.
Affaire à suivre…

_________________

 

 

 

 

 


 

 

 

29 octobre 2016 6 29 /10 /octobre /2016 16:29

 

29 Octobre 2016
Au sein du microcosme nucléaire, il traîne depuis des années un contentieux au sujet de l'intégrité de l'acier qui compose un certain nombre de pièces forgées du circuit primaire de certains des réacteurs REP en exploitation.
Il s'agit de la cuve , de son couvercle, du pressuriseur, des fonds primaires des générateurs de vapeur, des plaques de soutien des tubes échangeurs de chaleur des mêmes.
________________

L'affaire a débuté avec l'arrêté ministériel du 10 Nov 1999, qui impose à l'exploitant (EDF) d'établir pour chaque réacteur, et de tenir à jour, des "Dossiers de Référence Réglementaires" (DRR) relatifs aux composants du Circuit Primaire Principal ( CPP), permettant de suivre en exploitation l'évolution des matériaux utilisés.
Les DRR doivent être en particulier réactualisés lors de chaque visite décennale.
Dix ans plus tard, en 2010/2011, il a été engagé un programme "Matériaux 60 ans"  dans l'objectif d'une prolongation à 60 ans de la durée d'exploitation des réacteurs.
Ce programme impose entre autres de vérifier que tous les mécanismes de vieillissement sont bien identifiés et que, là où des lacunes dans la connaissance des processus auront été découvertes, il soit mis en place un programme d'acquisition des données nécessaires.
_________________

Ce cadre réglementaire exigeant justifie le branle-bas que l'on peut observer à propos des couvercles de cuves et autres fonds de marmites concernés par l'arrêté ministériel.
Le personnel est désormais prié de regarder de très près ces objets suspectés de pouvoir leur sauter au nez si une faiblesse quelconque était passée inaperçue.
C'est dans ce contexte que furent découvertes les "anomalies" de taux de Carbone d'abord sur le couvercle de Flamanville, puis un peu partout dès lors que l'alerte était donnée (46 générateurs de vapeur sont tout de même concernés, concernant 18 réacteurs!).
Et nous n'avons encore parlé ni des pressuriseurs, ni des cuves elles-mêmes…
_________________

L'acier utilisé pour forger ces pièces est d'un type parfaitement défini, sur lequel ont été effectués tous les essais de qualification dans les conditions d'usage en exploitation, et particulièrement la bonne tenue dans le temps sous irradiation, et lors de variations de température.
Parmi tous les éléments présents en petites quantités dans cet acier, le Carbone joue un rôle spécial puisque son taux est directement lié aux variations de la frontière ductile-fragile, paramètre essentiel pour la résistance aux variations de températures.
Il est essentiel que l'acier constituant les pièces forgées soit conforme à la spécification de départ (16 Mn Ni Mo 5, types A ou B), et que la composition soit homogène dans toutes les parties de la pièce.
________________

On sait que lors du forgeage de grosses pièces, comme c'est le cas ici, le taux de Carbone augmente dans certaines parties au cours du refroidissement du lingot. Ce phénomène (Ségrégations) étant connu, des mesures sont mises en œuvre pour éliminer ces parties lors de l'usinage.
Malgré ces précautions, qui figurent dans le cahier des charges du fabricant, il semble que certaines pièces en exploitation n'aient pas bénéficié de la meilleure attention. Ces pièces sont susceptibles de présenter des zones de concentrations anormales de Carbone, modifiant in situ les caractéristiques mécaniques et thermiques de l'acier par rapport à la spécification.
________________

Ces anomalies ne sont pas à priori génératrices d'un risque de rupture, mais elles créent une zone à l'intérieur de laquelle les caractéristiques de l'acier sont différentes de celles de l'acier conforme aux spécifications.
Il est donc nécessaire de procéder à une analyse métallurgique pour déterminer l'importance de l'écart des spécifications, et les conséquences possibles de cet écart sur la tenue de la pièce, au besoin en procédant à des essais sur des pièces représentatives.
L'affaire est exposée de manière exhaustive dans la note d'information de l'IRSN du 18 Octobre 2016, que l'on peut trouver ici:
IRSN NI Centrales-EDF-Anomalies-Générateurs-Vapeur 20161018
________________

Le communiqué se veut rassurant dans la mesure où cette transparence est en soi la garantie du sérieux du travail de l'IRSN et de l'ASN.
Ou bien l'inverse, car certains pourront y voir une opération d'ouverture de parapluie, laissant présager la crainte d'une averse prochaine…
Mais par contre, ces informations ne sont pas de nature à rassurer les populations quant à la rigueur des procédés industriels mis en œuvre, pas plus que les contrôles à postériori, qui auraient dû normalement détecter ces anomalies avant la mise en exploitation.
Les anti-nucléaires ne manqueront pas d'exploiter ce nouveau pataquès pour exiger l'arrêt de cette technologie, et en premier lieu le renoncement à la décision de prolonger jusqu'à soixante ans la durée d'exploitation des installations existantes.
Et qui pourra leur en vouloir ?

 

 

25 octobre 2016 2 25 /10 /octobre /2016 11:53

Grand ménage dans les centrales nucléaires.

25 Octobre 2016
L'ASN (Autorité de Sureté Nucléaire) est l'organe indépendant chargé de veiller au maintien de la sureté nucléaire à son plus haut niveau.
Ses arrêts sont exécutoires; d'eux dépend le maintien en fonctionnement des INB (Installations Nucléaires de Base) ou leur mise à l'arrêt.
Le fonctionnement de cette institution est soumis aux règles de la transparence.
Les rapports d'activité sont publics.
_____________________

La catastrophe de Fukushima a été à l'origine d'une prise de conscience de la réalité de certains risques d'accidents jusque là classés "hautement improbables", sans qu'il soit par ailleurs donné la raison de ce classement, ni les conséquences sur les mesures de sureté spécifiques garantissant cette improbabilité.
Il s'agit notamment de la probabilité de rupture de cuve suite à un APRP (Accident par Perte de Réfrigérant Primaire) suivi d'une fusion du coeur.
Un tel accident est le pire qui puisse arriver à un réacteur.
________________

Jusqu'à Fukushima, la probabilité d'une rupture de cuve sur l'un des réacteurs du parc français était considéré comme pratiquement nulle.
Depuis 2011, les autorités de sureté ont dû accepter un changement de paradigme. Désormais la possibilité d'un tel accident n'est plus exclue, et donc les installations nucléaires doivent être aménagées pour en limiter les conséquences.
Cette prise de conscience a eu l'effet d'un coup de pied dans une fourmilière. Toute la stratégie de sureté nucléaire a dû être revue.
"Chat échaudé craint l'eau froide" dit-on.
Et c'est bien d'eau qu'il s'agit en l'occurrence.
______________________

Pour arrêter une chaudière classique, il suffit de couper l'arrivée du gaz ou du fuel.
Sur une chaudière nucléaire, ce n'est pas aussi simple.
Une telle chaudière s'arrête en deux temps:
Dans un premier temps, on plonge dans la cuve des barres de régulation qui ralentissent, puis stoppent la réaction nucléaire. On peut également injecter dans l'eau des produits "ralentisseurs". Le réacteur est alors en "veilleuse".
Mais dans cet état le combustible continue à dégager de la chaleur, plusieurs centaines de Mégawatts ( Environ 7% de la puissance thermique nominale).
Il est donc impératif dans un deuxième temps de continuer à maintenir la circulation d'eau pour évacuer cette chaleur résiduelle, jusqu'à refroidissement complet, ce qui peut prendre un mois.
_______________

Le combustible nucléaire est constitué de pastilles logées dans les gaines en alliage de Zirconium et de Niobium, choisis pour leurs propriétés en présence des neutrons.
Si, par malheur, une partie des gaines de combustible n’est plus refroidie (niveau d’eau trop bas) la température va monter rapidement.
Lorsqu’elle atteint 1 000 °C le Zirconium s’oxyde au contact de l’eau vaporisée, avec un fort dégagement d’Hydrogène:
        Zr  +  2 H2O  ---------------  Zr O2  +  2 H2
Dans le même temps, le Zirconium oxydé fragilise la gaine, qui devient poreuse et laisse passer les produits de fission radioactifs qui se mélangent à l’hydrogène.
Au-dessus de 1 200 °C il y a rupture des gaines et très forte contamination des gaz émis.
Ce mélange gazeux se répand dans l’enceinte de confinement, où il finit par se recombiner à l’oxygène présent en une explosion qui peut faire  sauter le couvercle de la marmite.
C’est le "feu de Zirconium".
Le couvercle ayant sauté, les gaz contenus dans l’enceinte de confinement sont éjectés dans l’atmosphère et contaminent l’environnement car ils sont porteurs de produits de fission hautement radioactifs.
Une telle explosion a été observée à Fukushima. Les photos montrant l’état des couvercle de cuves en dit long sur la puissance du phénomène.
Si rien n'est fait pour limiter les dégâts le combustible fondu, allié aux éléments métalliques contenus dans la cuve, constitue un magma à très haute température (Corium) capable de percer la cuve et de se répandre dans la nature, comme à Fukushima.
Lors de la conception des réacteurs REP du parc actuel, cet accident ultime a été tout simplement nié. Sa probabilité ayant été estimée voisine de zéro, il n'a été prévu aucun dispositif de recueil du corium, de son refroidissement, et l'épaisseur du radier n'a pas été spécialement augmentée (Le corium à haute température se comporte comme un chalumeau à plasma et traverse le béton sur plusieurs mètres ).
___________________

La preuve de la possibilité d'une rupture de cuve ayant été apportée d'abord à Tchernobyl, puis à Fukushima, il a bien fallu se rendre à l'évidence: un accident nucléaire majeur est une éventualité à prendre en compte lors de la conception d'une installation, et lors de sa gestion et de sa maintenance.
___________________

Deux grosses lacunes sont apparues dès les premières analyses post-Fukushima:
- Dès lors que l'on admet que la cuve du réacteur est susceptible de se percer et de laisser s'écouler le corium résultant de la fusion du cœur, il faut s'interroger sur les dégâts que ce corium peut causer à l'environnement, et comment il peut être contrôlé.
Quelles précautions ont été prises dans ce but sur les installations du parc nucléaire français ?
Réponse: Aucune.
Un tel accident était tout simplement impensable.
On a par exemple construit la centrale de Fessenheim juste au-dessus de la nappe phréatique d'Alsace, qui est la plus importante d'Europe, sans précaution particulière pour protéger cette nappe.
- Lors d'un accident susceptible de conduire à la fusion du cœur, le dernier rempart contre la catastrophe est le maintien du circuit de refroidissement de secours, lequel implique une alimentation électrique à toute épreuve.
Or les inspections ont montré que, dans de nombreux cas, les groupes électrogènes de secours étaient vulnérables à des conditions météos extrêmes comme un séisme, ou une inondation (Comme à Fukushima).
Un programme de remise en sécurité à été mis en œuvre pour tenter de corriger ces deux lacunes:
- Renforcement des radiers sous la cuve des réacteurs.
- Sécurisation des systèmes d'alimentation électrique de secours.
___________________

Avant Fukushima, la sureté d'une installation nucléaire de base (INB) reposait sur l'existence de trois barrières physiques entre le combustible radioactif et l'environnement:
- La première barrière est constituée des gaines métalliques (Zirconium) encapsulant les pastilles de combustible et évitant un contact direct du matériau radioactif avec l'eau qui est le fluide caloporteur.
- La seconde barrière est constituée des parois du circuit primaire lui-même, lequel comprend la cuve, les fourreaux de passage des barres de contrôle et le l'instrumentation, les tubulures de raccordement, les corps des pompes primaires, les tubulures des échangeurs de chaleur des générateurs de vapeur, et le pressuriseur , avec les soupapes de sécurité.
- La troisième barrière est l'enceinte de confinement en béton, qui contient le réacteur.
Ces trois barrières physiques étaient, en théorie, la garantie contre toute émission indésirable de produits radioactifs dans l'environnement.
_________________

Fukushima a démontré que ces trois barrières ne suffisent pas à empêcher la catastrophe.
Il faut en ajouter au moins deux:
- Une quatrième barrière physique, constituée d'un système de récupération et de refroidissement du corium qui interviendrait en cas de fusion du cœur avec percement de la cuve.
- Une barrière "logistique", constituée d'un système d'alimentation électrique des pompes de secours à l'épreuve des secousses sismiques, des inondations, des attentats, et des dégâts causés par l'explosion de l'enceinte de confinement.
Ces barrières supplémentaires, dont la nécessité a été démontrée par Fukushima, n'existent pas sur le parc électronucléaire actuel.
(Elles sont mises en œuvre sur les réacteurs EPR)
_________________

Des travaux importants ont été entrepris pour pallier les lacunes de sureté du parc actuel.
Mais on ne peut pas reconstruire des installations existantes.
Le parc étant vieillissant, il subsiste un doute sur l'efficacité des mesures correctrices mises en œuvre sous la pression des circonstances.
Il est donc, plus que jamais, essentiel de sévériser les mesures de contrôles préventifs afin d'éviter d'entrer dans la spirale infernale d'un Loca, dont on n'est pas certain de pouvoir contrôler les suites.
___________________

Suite à la découverte d'anomalies dans la composition de l'acier de la cuve de l'EPR de Flamanville, l'ASN a demandé à EDF de vérifier si, par hasard, le même type d'anomalies serait présent également dans certains composants des réacteurs existants.
Les composants éventuellement concernés font partie du circuit primaire d'un réacteur, et participent à la fameuse deuxième barrière de protection.
Ces composants sont au contact de l'eau (Fluide caloporteur) à une température de 320 °C sous une pression de 155 Kg/cm2.
Les détails de la démarche de l'ASN sont exposés ici:
http://www.asn.fr/layout/set/print/content/view/full/141182

_______________________

Ces investigations , qui concernent pour le moment dix-huit réacteurs, traduisent une inquiétude quant à l'opportunité de prolonger au-delà de quarante ans la durée d'exploitation d'installations sur lesquelles plane une suspicion de non-conformité aux dernières règles de sureté nucléaire.
La fiabilité prévisionnelle a pour objectif de fixer des limites à la prise de risque.
Aujourd'hui la question est:
Jusqu'où peut-on aller trop loin ?
____________________


 


 

 

 

 

 

 

 

 

19 octobre 2016 3 19 /10 /octobre /2016 17:57

La voiture électrique, puissance et énergie.

19 Octobre 2016

Nous vivons une veillée d’armes, le moteur thermique jette ses derniers feux. Les braises ne sont pas encore éteintes, mais le clinquant des gadgets électroniques ne peut pas dissimuler les derniers soubresauts d’une technologie plus que centenaire.
Si les normes Euro étaient autre chose qu’un chiffon de papier, la plupart des modèles thermiques même récents seraient recalés, et les anciens auraient déjà disparu.
Leurs motorisations ne sont plus conformes aux nouveaux canons de la transition énergétique, il faut les éliminer du paysage.
Du moins si l’on accorde un minimum de crédibilité à la menace climatique et à la protection de l’environnement…
(Cette condition est loin d'être fantaisiste, au regard des "résultats" décevants de la COP 21).
___________________

Ce n’est pas le concept de la voiture particulière qui est remis en question. Les progrès successifs en ont fait un produit sûr, confortable, associant la sécurité active et passive, indissociable de notre société qui n’acceptera jamais de remettre en question la mobilité connectée, devenue indispensable au mode de vie actuel, quoiqu’en disent les docteurs tant pis, qui veulent supprimer la bagnole et mettre tout le monde à bicyclette ou à pieds.
___________________

La motorisation classique à moteur thermique cumule plusieurs tares, liées à l’utilisation des carburants pétroliers, mais aussi au principe même du moteur thermique:
- Les carburants pétroliers sont voués à la pénurie par épuisement des réserves, et de plus leur origine étrangère entretient une grande dépendance énergétique.
- Leur combustion dégagent du CO2 fossile, qui est l’ennemi planétaire contre lequel sont focalisées toutes les stratégies de transition énergétique.
- Le cycle thermodynamique mis en œuvre affiche une très mauvaise efficacité énergétique, avec des rendements mécaniques qui ne dépassent pas 25% en moyenne en usage normal.
- Au cours du cycle de fonctionnement, des températures très élevées sont atteintes, qui sont à l’origine de la formation de divers polluants comme les oxydes divers, des hydrocarbures imbrûlés, des métaux lourds, des suies et des micro et nano particules cancérigènes.
- Les Biocarburants de deuxième et troisième générations, qui paraissaient pouvoir redresser la situation, apportent certes une solution pour le CO2, mais leur utilisation dans un moteur thermique génère les mêmes polluants que les carburants fossiles, et le rendement énergétique est aussi mauvais.

Tant de nuisances réunies motivent la mise au rencart de ce vieux truc, dès lors que l’on prétend parler d’écologie.
__________________

Il paraît donc logique d’écarter ce type de moteur pour le futur, leurs émissions polluantes n’ayant jamais pu être éliminées malgré les artifices mis en œuvre par les constructeurs.
(« Artifice » est un euphémisme, « tromperie sur la marchandise » conviendrait mieux…).
Seul le moteur électrique peut donc répondre au cahier des charges, grâce à son absence totale d’émission.
De plus, son excellent rendement mécanique, voisin de 85%, conforte définitivement son avantage.
_________________

Les modèles hybrides, plébiscités aujourd’hui par les usagers, ne constituent qu’une solution intermédiaire, qui n’est acceptable que durant la période transitoire qui doit nous mener vers le transport réellement propre purement électrique.
________________

Dans la perspective d'une transition effectivement basée sur le respect de l'environnement, nous sommes fondés à envisager une électrification quasiment complète du parc automobile à l’horizon 2050.
Ce parc compte aujourd’hui 35 millions de véhicules particuliers, dont le kilométrage annuel moyen est de 12 000 Km.
Une voiture électrique (VE) moyenne consomme environ 20 KWh/100 Km.
Si l’on s’en tient au parc actuel, et dans l’hypothèse d’une électrification à 100%, la consommation annuelle directe d’énergie serait de 84 TWh, soit environ 100 TWh en tenant compte des pertes de rendement des infrastructures de transport et de distribution.
Ce qui représente la production de huit réacteurs nucléaires du type EPR, ou 8 000 éoliennes offshore de 5 MW.
Ces moyens considérables doivent être mis en balance avec les 30 Milliards de litres de carburants fossiles qui sont consommés aujourd’hui par nos automobiles.
Avec une "petite" différence:
Cette électricité, il faudra la fabriquer nous-mêmes, alors que pour le pétrole il « suffit » de signer un chèque.
La nuance est importante.
En effet, si les puits de pétrole du Moyen Orient et du Nebraska n'ont jamais empêché un défenseur de l'environnement français de dormir, il n'en ira pas de même avec les éoliennes offshore qui sont appelées à "décorer" nos côtes maritimes.
Or ces modernes moulins à vent devront être d'autant plus nombreux qu'ils leur faudra (peut-être) remplacer les réacteurs nucléaires.
________________

La construction des installations de production de cette énergie électrique devra être planifiée en temps utile et viendra s’ajouter aux besoins actuels réactualisés.
Ce surcroît de consommation électrique ( 20 % de la consommation actuelle) n’apparaît dans aucune étude sur l’évolution de la consommation énergétique.
Bizarre ? Vous avez dit bizarre…
En fait, les stratèges de la transition énergétique pensent que les économies réalisées sur le chauffage électrique grâce à la rénovation thermique, compenseront la demande nouvelle des voitures électriques.
Ce qui n’est pas faux, puisque le chauffage électrique représente une part très importante de la consommation d’électricité de 290 TWh du secteur résidentiel-tertiaire.
Une réduction de 30% de cette consommation suffirait à dégager l’énergie nécessaire pour alimenter 35 millions de voitures électriques.
Nous devront donc d'abord investir lourdement dans la rénovation thermique, pour pouvoir rouler en voiture électrique plus tard.
(Ou bien construire beaucoup de petits EPR, mais ceci est une autre histoire…).
________________

Mais l’énergie n’est pas tout.
On oublie souvent la puissance.
L’énergie est le produit de la puissance par le temps.
L’usager n’aimera pas perdre du temps à recharger sa batterie.
La notion de "charge rapide" a vite investi le vocabulaire du VE.
Pas question d'envisager des déplacements longs en VE sans une batterie de capacité confortable et supportant la charge rapide, et un réseau de bornes de charge capables de fournir les KW indispensables.
Et l'on arrive très vite à des valeurs de tension et de courant à la limite de faire péter les calculettes.
Par exemple pour charger en cinq minutes à 80% une batterie de 100 KWh (Tesla) , il faut une puissance d'un MW (1 000 KW) !!!
Il existe un tel projet, dans le mode DC 800 V /1 200 A.
Nous laissons au lecteur le soin d'apprécier les risques encourus lors de la manipulation à mains nues des câbles, prises et bornes de raccordement sous 800V les jours de pluie…
Au sujet de la sécurité des VE, nous conseillons la lecture du rapport que l'on trouvera ici:
http://formation.sdis42.fr/spiral-files/download?mode=inline&data=21909
C'est une lecture dont on ne sort pas tout à fait indemne.
_____________________

Les initiateurs des réseaux de bornes de recharge ont préféré rester dans les limites que la technologie actuelle sait gérer en garantissant un niveau de sécurité convenable pour l'usager.
Ils ont donc défini des bornes de charge "raisonnablement" dimensionnées, demeurant dans le domaine de la distribution EDF/ BT, c'est-à-dire 230 V AC  et 400 V DC compatible avec le réseau triphasé BT.
Les courants sont ceux que tout le monde sait manœuvrer sans technologie spéciale autre que celle qui est déjà expérimentée, soit une centaine d'ampères, Correspondant aux abonnements 18 KVA et 36 KVA triphasé.
Ce qui nous donne des puissances max de 40 à 50 KW pour une borne de charge, selon que le mode soit courant alternatif ou continu.
C'est la puissance des bornes du réseau Corri-Door en cours de déploiement.
Une telle borne permet de recharger à 80% en trente minutes une batterie de 30 KWh nominal.
C'est la charge dite "rapide".
Du moins telle qu'on la concevait à l'époque du lancement de ce projet.
La batterie reçoit une vingtaine de KWh, lui permettant de parcourir 100 à 120 Km jusqu'à la prochaine borne.
Evidemment, pour un trajet de 600 Km, il faudra s'arrêter cinq fois pour refaire le plein, ce qui est un gros handicap par rapport à un véhicule thermique, qui peut parcourir 800 KM voire plus, avec un plein.
Les constructeurs, conscients de la nécessité d'augmenter significativement l'autonomie de leurs VE, se sont lancés dans une course à la capacité des batteries.
De 20 KWh, on est vite passés à 30 KWh, et les 60 KWh sont annoncés pour 2017/2018, avec en ligne de mire les 100 KWh.
Mais l'autonomie procurée par ces grosses batteries ne sera effective sur de longs parcours que si la puissances des bornes de charge est à la hauteur.
(L'énergie et la puissance sont comme Dupont et Dupond, ils ne sont rien l'un sans l'autre).

____________________

La charge rapide à 80%, en trente minutes, d'une batterie de 60 KWh, nécessite une borne de 100 KW, et quasiment le double pour une batterie de 100 KWh.
Le réseau devra donc être capable de fournir cette puissance aux différentes bornes de charge rapide qui seront disséminées sur le territoire.
Faute de quoi il faudra oublier la charge rapide, et accepter d'y passer une, deux ou trois heures à condition que le gestionnaire des bornes de charge tolère cette monopolisation des bornes, surtout en période d’affluence.
__________________

La puissance que peut délivrer le réseau de distribution électrique n'est pas infinie.
En régime permanent, elle peut atteindre environ 80 GW en grattant les fonds de tiroirs:
63 GW d'électronucléaire, si les réacteurs sont de bonne humeur.
17 GW de thermique à Gaz et à fuel.
( L'hydraulique ne participe qu'à titre d'appoint pour une durée limitée, et l'éolien et le solaire idem pour des raisons évidentes).
___________________

La puissance supplémentaire demandée pour la charge des batteries de VE dépendra évidemment du nombre de véhicules raccordés à un moment donné.
Ce nombre dépendra de l'importance du parc ( 10, 20, 30 millions ?) et d’autre part de la fréquence des demandes de recharge, qui varie selon l’heure, le jour de la semaine, l’occurrence de périodes particulières comme les week-end, ou les départs en vacances.
Par exemple, si un million de VE tentent de se charger simultanément sur des bornes de 50 KW, la puissance demandée sera de 50 Gigawatt, qui est presque la puissance totale du parc nucléaire !
Il y a donc un réel problème, qui apparaîtra à partir d’un taux de pénétration significatif du véhicule électrique ( 10% du parc ?).

D’autant plus que les bornes de charge rapide actuelle de 50 KW sont déjà dépassées. Le standard va très vite s’établir à 150 KW, puissance nécessaire pour charger en trente minutes à 80% les futures batteries de plus de 60 KWh annoncées pour 2018 par les constructeurs.
(Nos voisins européens sont déjà à 150 KW, le mouvement a été initié par Tesla).
Le problème de surcharge du réseau sera alors trois fois plus critique.
Il est donc impératif de prendre des mesures pour éviter un tel « embouteillage » qui serait source de black-out.
_________________

Le réseau de charge rapide devra donc être géré pour éviter toute surcharge inacceptable.
Ceci implique deux démarches:
- La première consiste à adosser les bornes de charge rapide à des installations de stockage d’électricité, d’une capacité en rapport avec l’activité de la station, dans le but d’amortir le pic de puissance soutirée au réseau.
Ce stockage pourra être partiellement alimenté par une production locale solaire ou éolienne.
- La deuxième démarche implique un contrôle de l’activité des bornes, pour procéder, lorsque nécessaire, à un délestage provisoire ou à une limitation de la puissance autorisée.
__________________

Il n’est pas impossible que ce problème de saturation du réseau devienne à terme un obstacle au déploiement du véhicule électrique à batterie, non pas pour une question d’énergie, mais à cause de la puissance maximale demandée au réseau à certaines périodes.
Déjà aujourd’hui EDF est confronté au problème des pics de puissance demandée au réseau, notamment en périodes hivernales à cause des chauffages électriques, et bientôt en été à cause des climatiseurs. L’installation des nouveaux compteurs communicants a pour but, entre autres, de permettre le gestion de ces pics .
 Ce problème risque de devenir insoluble si l’on y ajoute la demande de recharge des batteries de VE, lorsque ceux-ci existeront à plusieurs millions d’exemplaires.
___________________

Et c’est là que les supporters de la voiture électrique sortent leur joker: la pile à Hydrogène.
Cet objet étrange est connu depuis presqu’un siècle, il fut même en son temps une source d’énergie électrique sur le vaisseau lunaire.
Mais alors, pourquoi ne pas l’avoir utilisé pour la voiture électrique, plutôt que des batteries qui s’essoufflent à la tâche ?
___________________

La raison principale est que, jusqu’à présent, on ne connaissait pas de sources naturelles d’Hydrogène.
Il fallait donc (Il faut encore aujourd’hui) fabriquer cet Hydrogène, à grands frais pour les besoins de l’industrie, à partir d’hydrocarbures fossiles. Il n’y aurait donc eu aucun sens à utiliser ce gaz pour propulser une voiture, autant continuer avec l’essence et le gazole, dont le prix est dérisoire.
___________________

Mais on peut aujourd’hui se procurer de l’Hydrogène vert à partir de l’électrolyse de l’électricité, produite en période de faible demande, par les installations solaires et éoliennes.
On peut donc ressortir la pile à Hydrogène et l’adapter à l’automobile.
Ce que font depuis plusieurs années tous les constructeurs, dans leurs bureaux d’études d’abord, puis sous forme de prototypes, et enfin sous forme de modèles de petite série comme la Toyota Mirai, et d'autres bientôt.
Ce changement de portage n’est pas sans problèmes:
Adapter le concept de pile à Hydrogène au cahier des charges de l’automobile requiert d’important travaux de recherche de matériaux, de fiabilisation, de sécurisation, et de réduction du coût.
Mettre au point des réservoirs capables d’emporter quelques Kg d’hydrogène sous une pression atteignant 700 Kg/cm2 n’a pas été simple, mais la technologie est prête et conforme aux exigences du marché.
Reste le problème du réseau de distribution capable de faire la plein en quelques minutes. Air Liquide a développé un concept de stations, destinée aujourd’hui au marché professionnel, mais qui peut être étendu aux besoins du transport particulier.
____________________

La voiture électrique à Hydrogène apporte deux avantages décisifs:
- Le plein en quelques minutes.
- Une autonomie de plus de 600 Km.
___________________

Mais il subsiste des obstacles à franchir pour en faire un outil grand public:
- Créer les conditions de l’acceptabilité d’une technologie qui conduit à manipuler un gaz combustible sous des pressions considérables.
- Installer des stations de remplissage en nombre suffisant.
- Développer la filière Hydrogène vert, sans lequel le projet n’aurait pas de sens.
- Vérifier que tout cela conduit à un prix de vente décent de ce nouveau carburant.
Du pain sur la planche…
__________________

Les problèmes d’industrialisation et d’acceptabilité du combustible Hydrogène ne sont pas sous-estimés par les constructeurs.
D’autres filières sont explorées, notamment la fabrication de l’Hydrogène dans le véhicule à partir de Bioéthanol, beaucoup plus simple à transporter.
Le « vaporeformage » du bioéthanol est un procédé connu, qui a ici l’avantage d’utiliser un biocarburant. Cette réaction dégage du CO2 renouvelable, et peut donc être envisagée pour la voiture électrique.
La filière est à valider dans le cadre du cahier des charges automobile, extrêmement sévère.
Il se pose, entre autres, deux types de problèmes:
Le vaporeformage est une réaction catalytique endothermique. Le catalyseur doit être compatible avec le bioéthanol brut qui sera distribué à la pompe.
Les produits de réaction rejetés ne doivent comporter, en dehors du CO2, aucun résidu polluant .
Le rendement de la réaction doit être suffisant pour conserver un rendement global nettement supérieur à 50%.
Là aussi, du pain sur la planche.
La vie de la voiture électrique ne sera pas un long fleuve tranquille…
________________