Overblog
Suivre ce blog Administration + Créer mon blog
25 novembre 2012 7 25 /11 /novembre /2012 18:49

 

25 Novembre 2012

Dans les articles des 13, 16, et 20 Novembre, nous avons tenté de mettre en lumière le problème majeur des énergies Solaire et Eolienne ( ENR), lié à leur caractère intermittent. Il apparaît que ces énergies ne pourront se développer significativement qu’à la condition de disposer de structures de stockage de masse de l’électricité.

Le challenge des ENR n’est donc plus vraiment le développement des moyens de capture ( Panneaux solaires, éoliennes, centrales solaires thermiques à concentration, etc…). Ces moyens existent, il faut les perfectionner évidemment comme pour toutes les applications nouvelles, mais les technologies de base sont disponibles.

Cependant, le challenge environnemental demeure. Il ne sera pas facile de faire accepter par les populations l’envahissement du paysage par les éoliennes, et/ou par les champs de panneaux solaires.

Mais souvent nécessité fait loi.

Le nouveau challenge est maintenant le stockage de l’électricité pour compenser l’intermittence de la production.

Il existe un système de stockage déjà utilisé depuis très longtemps, c’est le pompage/turbinage mis en œuvre partout dans le monde, mais dont la capacité installée est très faible, très inférieure aux besoins créés par les ENR.

Tout naturellement le pompage/turbinage est donc apparu comme le premier candidat au stockage de masse de l’énergie.

Les pays gros consommateurs d’énergie se sont donc engagés dans de vastes programmes de construction de stations de ce type. Là aussi les technologies existent, mais le déploiement des structures se heurte aux obstacles déjà rencontrés par les éoliennes et les panneaux solaires, c’est-à-dire l’emprise foncière et/ou les atteintes à l’environnement.

Ces obstacles apporteront une limite naturelle à l’expansion du procédé, au moins dans les régions fortement peuplées et ayant mis en place un plan de protection des sites naturels et de la biodiversité.

Le pompage/turbinage ne pourra donc résoudre qu’une partie du problème.

Plusieurs procédés complémentaires ont été mis au point, que nous avons déjà cité. On connaît les batteries au Lithium, développées pour l’automobile, mais pouvant également être utilisées pour du stockage à poste fixe. D’autres types de batteries existent, utilisant d’autres combinaisons chimiques, et pouvant constituer des solutions intéressantes. Moins populaires, mais très efficaces, sont les MCP (Matériaux à Changement de Phase), qui permettent de stocker l’énergie sous forme de chaleur réutilisable directement ou à travers une PAC ( Pompe A Chaleur). D’autres dispositifs encore peuvent prendre en charge une partie du stockage: L’air comprimé, les volants à inertie, etc…

Mais un procédé semble appelé à un grand avenir, c’est celui qui utilise l’Hydrogène comme vecteur d’énergie.

Le gaz Hydrogène est déjà largement utilisé dans l’Industrie pour une multitude de besoins. Pour ces utilisations il est produit majoritairement par reformage du Méthane.

Il est habituellement stocké dans des bouteilles soit à très haute pression (700 kg), soit à moindre pression sous forme liquide, mais à très basse température ( - 250 °C) .

Il existe d’autres façons de produire de l’Hydrogène, notamment le craquage de l’eau et l’électrolyse.

Le craquage de l’eau exige de très hautes températures, on envisage de l’utiliser dans les centrales nucléaires pour récupérer une partie de la chaleur perdue. L’hydrogène ainsi produit serait utilisé dans une turbine ad-Hoc.

L’électrolyse de l’eau est un procédé ne nécessitant ni hautes températures, ni hautes pressions. C’est donc un candidat idéal pour obtenir de l’Hydrogène à partir de l’électricité sans faire appel à des technologies sophistiquées.

Cet Hydrogène peut, après stockage, être utilisé soit directement comme combustible propre ( sans CO2), soit retransformé en électricité dans une pile à Hydrogène dont la technologie est maintenant bien maîtrisée.

Cette association de l’électrolyse et de la pile à combustible permet de considérer l’Hydrogène comme un vecteur d’énergie très prometteur.

A condition de savoir stocker ce gaz.

Nous avons déjà évoqué le projet de stockage dans les infrastructures utilisées actuellement pour le gaz naturel. Il est en cours d’expérimentation avec de bonne perspectives d’efficacité.

L’autre procédé qui a le vent en poupe est le stockage dans un matériau solide, comme l’hydrure de magnésium. Par couplage avec une pile à Hydrogène, on réalise une batterie utilisable sur les véhicules ou à poste fixe.

Le Magnésium est un matériau abondant dont les réserves sont considérables. Il existe à l’état d’oxyde ( Magnésie) à hauteur de 4,36% de la masse de la croute terrestre, donc plus abondant que le fer. L’eau de Mer en contient 1,3 kg par tonne.

Ce métal est déjà largement utilisé par l’Industrie, qui en consomme plus de 500 000 tonnes annuellement.

Il existe de nombreux matériaux susceptibles d’adsorber de l’Hydrogène et de le restituer ensuite, mais le Magnésium est l’un des plus intéressants car il est abondant et il permet de travailler dans des conditions de température et de pression raisonnables, compatibles avec des usages grand-public.

Le Magnésium est donc peut-être appelé à jouer un rôle important dans le développement des ENR, au même titre que le Lithium déjà plébiscité pour les batteries de voitures.

Les ressources sont assez bien réparties, mais la Chine reste le principal producteur.

Les produits utilisés dans les installations de stockage seront recyclables puisqu’ils ne sont pas consommés.

Les outils de la révolution énergétique permettront de remplacer les énergies fossiles et de réduire considérablement les émission de CO2, mais ils seront accompagnés de contraintes nouvelles qui devront être acceptées par les populations.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Partager cet article
Repost0
20 novembre 2012 2 20 /11 /novembre /2012 12:35

 

20 Novembre 2012

Nous avons rappelé dans l’article du 16 Novembre que le stockage de l’énergie est un passage obligé que les industriels devront franchir pour prétendre au basculement vers les énergies nouvelles.

Nos amis allemands, toujours en avance d’une guerre, fut-elle économique, nous ont devancés dans la course au solaire et à l’éolien.

Cet empressement a été dû à des raisons écologiques ( réduire les émissions de CO2), à des raisons politico-écologiques ( sortir du Nucléaire), et à des raisons économiques sous tendues par la recherche de l’indépendance énergétique.

Ces raisons existent également chez nous, mais demeurent à l’état théorique et s’expriment sous forme de programmes d’études non ( ou peu) suivis de réalisations industrielles.

Par contre, l’enthousiasme industriel coutumier Outre-Rhin s’est vite concrétisé par une abondance d’installations productrices d’énergies nouvelles. Et tout aussi rapidement le secteur de l’énergie s’est trouvé confronté au mur du stockage créé par le caractère intermittent de la nouvelle production électrique.

C’est ainsi que l’on a vu des parcs éoliens arrêtés pour éviter une saturation du réseau en période de basse consommation mais de fort vent, ou des centrales à charbon appelées en renfort dans la situation inverse !

Cette situation ne saurait être acceptée dans un pays soucieux de cohérence et qui fonde de très grands espoirs sur le Solaire et l’Eolien.

Le stockage de l’énergie est ainsi devenu le problème numéro un, autour duquel se mobilisent tous les acteurs de l’énergie.

En premier lieu, et pour des raisons historiques, il a été fait appel à l’hydraulique qui permet, par le pompage/turbinage, de stocker des quantités importantes d’énergie avec un rendement intéressant ( 70 à 80%).

Cette technique est utilisée depuis longtemps, mais sur une échelle réduite.

Elle était jusqu’à présent utilisée surtout pour stocker de l’énergie lorsqu’elle peut être produite à bas coût afin d’échapper aux fluctuations des cours du MWh en période de forte demande.

L’Europe possède ainsi un parc de pompage/turbinage de 45 GW de puissance installée, en 170 sites. D’ici 2020, 60 nouvelles installations apporteront une capacité supplémentaire de 27 GW.

La France possède ses propres sites de pompage/turbinage permettant de fournir plus de 5 GW , dédiés au stockage de l’électricité nucléaire produite en période de basse consommation.

La consommation annuelle Européenne d’électricité est de l’ordre de

3 000 Twh.

Ce montant déjà considérable ne doit pas faire oublier que la consommation d’énergie finale est beaucoup plus élevée, environ 15 000 TWh ( incluant toutes les énergies ).

La stratégie de retrait des énergies fossiles, aidée par le simple bon sens, suppose que la plupart des applications qui y recourent aujourd’hui se convertissent aux énergies nouvelles, c’est-à-dire essentiellement à l’électricité.

Donc, pour les énergies nouvelles le challenge est de fournir non seulement les 3000 TWh de la consommation électrique actuelle, mais aussi au moins 50% du reste à moyen terme, ce qui conduit à un objectif voisin de 9 000 TWh.

Encore cet objectif ne pourra-t-il être maintenu que grâce à un programme drastique d’économies d’énergie.

La puissance moyenne correspondant à cette quantité d’énergie est de l’ordre de 1 000 GW , qui ne pourra être fournie par les énergies nouvelles que si les moyens de stockage nécessaires existent.

Rappelons qu’il est prévu 70 GW de moyens de stockage pour 2020, ce qui donne la mesure de l’effort à fournir.

Effort d’autant plus considérable que le besoin de stockage porte sur des durées beaucoup plus importantes qu’actuellement.

Aujourd’hui le stockage/turbinage est appelé pour intervenir durant quelques heures seulement, pour répondre à un besoin de courte durée.

Demain il faudra relayer le Soleil et/ou le vent sur des période non plus de quelques heures, mais de quelques jours, voire même quelques semaines !

Les capacités de stockage devront donc être augmentées en conséquence, ce qui implique des retenues d’eau absolument colossales.

Il faudra donc mettre en œuvre d’autres procédés de stockage capables de compléter la ressource nécessaire.

Parmi les candidats, l’électrolyse de l’eau avec stockage de l’Hydrogène semble prometteur grâce à des capacités potentielles très importantes constituées par les infrastructures du réseau de distribution du gaz.

L’idée de mélanger de l’Hydrogène au gaz naturel n’est pas nouvelle et a déjà été mise en pratique par le passé. Notre ancien gaz de ville était déjà un mélange d’hydrogène, de Méthane et d’oxyde de Carbone.

Les expérimentations en cours montrent que les infrastructures actuelles pourraient tolérer un apport de 15% d’Hydrogène dans le réseau de distribution, ce qui réduirait d’autant les émissions de CO2 .

L’utilisation de l’Hydrogène comme vecteur d’énergie entre d’une part les installations solaires et éoliennes, et d’autre part les sites de stockage ou de consommation, est une idée qui fait son chemin.

Ce gaz peut également être stocké dans des matériaux solides, comme l’Hydrure de Magnésium, avec une efficacité très améliorée grâce aux nanotechnologies. Il peut ainsi être utilisé dans une pile à combustible ou dans une turbine pour équiper des véhicules, sans les inconvénients et les risques associés à un stockage sous forte pression.

La filière Hydrogène semble donc appelée à un brillant avenir.

Mais l’Hydrogène et le pompage/turbinage ne suffiront pas à absorber les fluctuations liées à la production intermittente du solaire et de l’éolien.

D’autres procédés devront être mis en œuvre pour s’accommoder de la situation nouvelle:

Par exemple, stockage distribué sous forme de chaleur dans des matériaux à changement de phase, sous forme d’énergie cinétique dans des volants à inertie, ou sous forme chimique dans des batteries.

Côté distribution, il sera nécessaire d’adapter la consommation à la production afin de minimiser les capacités de stockage nécessaires. Chaque logement devra comporter une capacité de stockage tampon à la mesure de la puissance souscrite, et sera équipé pour laisser au fournisseur d’énergie le contrôle de la gestion des équipements de puissance dans le cadre d’un contrat négocié.

Le passage aux énergies nouvelles ne se fera pas sans de profonds changements de mentalités et d’habitudes de consommation.

Une ou deux générations seront nécessaires pour que notre société s’adapte à cette petite révolution.

Les esprits doivent y être préparés dès maintenant…

 

Partager cet article
Repost0
16 novembre 2012 5 16 /11 /novembre /2012 11:08

 

16 Novembre 2012

« Un phénomène stochastique est un phénomène qui ne se prête qu'à une analyse statistique, par opposition à un phénomène déterministe » .

Jusqu’à présent, nous disposions d’une énergie électrique stable, dont l’origine et le volume étaient parfaitement identifiés: Un nombre connu de centrales opérationnelles, de puissances déterminées, le produit des deux donnant une quantité connue, déterminée, de MWh dans lesquels il suffisait de puiser quelle que soit l’heure du jour ou même de la nuit.

Cette époque bénie est révolue.

Le passage aux énergies nouvelles va nous faire passer d’un monde déterministe à un monde stochastique.

Dans l’ancien monde, EDF pouvait nous dire que demain nous pourrions passer l’heure de pointe sans problème car la puissance nécessaire était disponible, déterminée par des paramètres parfaitement maîtrisés. Nous vivions dans un monde déterministe.

Demain, lorsque les énergies éolienne et solaire seront majoritaires, les paramètres fixant l’énergie disponible ne seront plus sous contrôle. Il ne sera plus possible de garantir à l’avance que tel montant d’énergie sera disponible tel jour à telle heure. Personne ne peut maîtriser les évènements météorologiques qui conditionnent le vent et l’ensoleillement. Le monde de l’énergie sera devenu stochastique. Il faudra se débrouiller avec des statistiques annuelles régionales et accepter les coupures de courant lorsque la réalité s’écartera de la statistique, même si les écarts quadratiques restent dans les valeurs prévues par la théorie des probabilités.

Pour atténuer le chaos qui résulterait de cette incertitude, il sera nécessaire de procéder à des aménagements profonds de notre approche énergétique.

Sept grands types de mesures seront nécessaires:

1- Pour atténuer les effets de l’intermittence des énergies nouvelles, il faudra installer des moyens de stockage de l’énergie. Nous en avons déjà parlé dans l’article du 13 Novembre. Les capacités de stockage nécessaires seront assez considérables, de l’ordre de 30% de la consommation moyenne. Le pompage/turbinage semble être la solution la mieux adaptée, mais ce système à lui seul ne suffira pas.

2- Pour améliorer les prévisions de production il faudra mettre en place un réseau intégrant les caractéristiques particulières de chaque site de production éolien ou solaire, avec leur réponse à toutes les sortes de situations météo. Ces données seront croisées avec les prévisions météo pour obtenir des prévisions de production heure par heure permettant une gestion optimisée des moyens de stockage.

3- Aux fournisseurs professionnels d’électricité il faudra ajouter la multitude de fournisseurs particuliers dont les installations devront être intégrées au réseau national. Un système de contrôle et de régulation devra être implanté pour éviter une situation de production fluctuante incompatible avec le service public.

4- Jusqu’à présent les fournisseurs d’énergie avaient pour tâche d’adapter la production aux besoins des consommateurs. Désormais il faudra faire l’inverse, les consommateurs devront adapter leurs besoins à la puissance disponible, il faudra mettre en place le « Smart grid » dans l’optique d’utiliser le délestage contractuel. Le compteur Linky est la première étape de ce réseau adaptatif.

5- La production ne sera plus localisée comme aujourd’hui, mais géographiquement fluctuante au gré des conditions météo. Il sera donc nécessaire de modifier le réseau de transport d’électricité pour l’adapter à cette nouvelle situation.

6- Les échanges transfrontaliers d’électricité seront très fortement augmentés, à la mesure des fluctuations météo qui entraîneront des déplacements importants des centres de production au gré des vents et de l’ensoleillement, et de la disponibilité de stocks d’énergie. Ceci nécessitera une adaptation des réseaux d’échanges européens.

7- Ces échanges massifs d’électricité se dérouleront sur un rythme horaire, avec des prix disparates à la mesure de la diversité des sources. Il sera nécessaire de créer un organisme européen chargé des négociations pour éviter la spéculation. Il faudra concilier la nécessité de garantir des fournitures d’énergie avec la nécessité de préserver les intérêts des différents fournisseurs.

 

Le basculement vers les énergies nouvelles n’est donc pas aussi simple qu’on pourrait le penser au premier abord. L’implantation des éoliennes et des panneaux solaires n’est que la partie visible de l’iceberg, qui ne pose que quelques problèmes d’emprise foncière ou environnementaux. L’essentiel des problèmes est ailleurs, dans la refonte des réseaux de transport et de distribution de l’électricité, dans le développement et l’implantation des installations de stockage, dans la compréhension et la maîtrise de l’aspect stochastique de la gestion des énergies nouvelles, dans la mise en place d’un grand pôle Européen de l’énergie, et dans l’évolution des mentalités des consommateurs qui devront s’adapter à une situation nouvelle.

Pour cela il faudra du temps, qui sera mis à profit pour réaliser les grands travaux nécessaires pour freiner la croissance de notre consommation énergétique, et préparer l’après pétrole et pourquoi pas, l’après Nucléaire.

Rendez-vous en 2030...

 

 

 

 

 

Partager cet article
Repost0
14 novembre 2012 3 14 /11 /novembre /2012 15:23

Les cuves de réacteurs nucléaires fissurées, une nouvelle histoire belge ?

Pas seulement…

14 Novembre 2012

La cuve d’une réacteur nucléaire en est le cœur. C’est l’athanor de nos modernes alchimistes, dans lequel s’effectue la transmutation de l’Uranium non pas en or, hélas, mais en énergie pour notre plus grand bénéfice ( ou notre plus grand malheur selon le point de vue adopté).

En son temps, Nicolas Flamel opérait sa « cuisine » dans un athanor de dimensions modestes, tout au plus une grosse marmite, ampoule de verre épais contenant les réactifs et chauffée au charbon de bois. Il convenait alors de surveiller attentivement la température du four et l’évolution de la préparation sous peine de voir l’ensemble athanor et opérateur pulvérisés dans une grosse explosion.

Plusieurs confrères de notre célèbre Nicolas y ont ainsi laissé la vie, mais sans trop de dégâts collatéraux, eu égard à la modestie des installations.

Pour un réacteur nucléaire, c’est exactement la même chose.

Sauf que dans ce cas l’athanor est énorme. C’est un chaudron en acier de plus de quatre mètres de diamètre et treize mètres de hauteur, avec des parois de vingt centimètres d’épaisseur pour un poids à vide de trois cent tonnes !

A l’intérieur, plusieurs dizaines de tonnes de matériau radioactif au sein duquel se déroulent des réactions de fission qui dégagent une chaleur colossale. Cette chaleur est évacuée par un circuit d’eau et transformée en vapeur pour faire tourner une turbine couplée à un alternateur.

Présenté ainsi cela paraît très simple, mais la réalité est évidemment plus complexe.

Tout l’art de l’opération consiste à maintenir l’intensité de la réaction de fission à un niveau suffisant pour produire de l’énergie, sans toutefois lui permettre de dépasser le point de divergence qui produirait un emballement du cœur. Il faut maintenir un équilibre subtil entre les paramètres qui accroissent la réaction, et ceux qui la freinent, et ceci avec une précision diabolique et une grande réactivité.

Si le contrôle de la réaction est perdu, il y a emballement et fusion du cœur, ce qui induit un accident nucléaire pouvant aller du cas de Three Mile Islands jusqu’à celui de Tchernobyl ou Fukushima.

Tout dépend de la résistance de la cuve et de la réactivité des dispositifs de secours.

Une cuve très solide peut résister à une fusion du cœur et donner le temps d’intervenir pour limiter les dégâts ( ce temps se mesure en minutes !).

Une cuve fragilisée a toutes « chances » de se briser, et de reproduire le scénario Tchernobyl.

C’est pourquoi il est extrêmement important de s’assurer de la parfaite solidité de la cuve.

Une cuve peut présenter des défauts d’origine.

Elle est constituée de plusieurs anneaux soudés entre eux, dans un acier dont les caractéristiques sont choisies pour l’usage futur, solidité et élasticité, pour résister aux contraintes thermiques et à la fluence ( flux de neutrons).

Elle est munie d’un couvercle démontable pour permettre le remplacement du combustible usagé. Ce couvercle comprend des orifices pour permettre le passage des barres de contrôle de la réaction et de diverses sondes.

Sur les côtés il existe des orifices qui recevront les tuyaux pour la circulation de l’eau de refroidissement, six gros tuyaux alimentant les trois générateurs de vapeur d’un réacteur REP.

A la fabrication de la cuve, et selon la présence d’impuretés dans le métal, il se produit des petits défauts localisés qui peuvent évoluer par la suite. La détection de ces défaut et leur caractérisation est évidemment très importante.

Le contrôle de la réaction de fission s’effectue à l’aide de « ralentisseurs » de neutrons constitués d’une part des barres de contrôle plus ou moins enfoncées dans la cuve, et d’autre part d’acide borique dilué dans l’eau de refroidissement. Tout ceci est réglé automatiquement en fonction notamment de l’usure du combustible.

Mais l’acide borique attaque l’acier de la cuve.

Il est donc nécessaire de protéger celle-ci par un revêtement en acier inoxydable d’une épaisseur de un cm environ, soudée à la paroi interne de la cuve.

Cette opération s’effectue à chaud évidemment, et elle est cause d’apparition de « fissures sous revêtement », difficiles à détecter.

Une cuve de réacteur, même de bon aloi, présente donc d’origine un taux de micro fissures non nul, qu’il est impossible d’éliminer totalement.

Il est donc nécessaire de contrôler l’état des cuves périodiquement pour surveiller l’évolution des ces fissures.

Au cours de la vie du réacteur, l’acier des cuves est soumis au flux de neutrons. Ce flux provoque une évolution des caractéristiques de l’acier qui devient plus « cassant » à froid ( conditions de refroidissement d’urgence). Cette évolution touche également les micro fissures.

Depuis les années soixante ( époque de fabrication des plus anciennes cuves) les méthodes de détection et d’analyse des aciers ont beaucoup évolué. Il est aujourd’hui possible de détecter des défauts qui passaient inaperçus autrefois.

Les fissures « découvertes » sur les réacteurs fabriqués par le Groupe RDM affectent probablement beaucoup d’autres cuves de par le monde, elles existent depuis des décennies et seuls les instruments modernes ont pu les révéler.

Le problème de vieillissement de l’acier des cuves n’est donc pas nouveau.

Par contre les nouveaux éléments recueillis avec les appareils de mesure modernes sont susceptibles de fournir des indications alarmantes concernant une fragilisation prématurée des cuves, qui n’aurait pas été découverte avec les méthodes d’inspection classiques.

Reste ensuite à décider si tel taux de micro fissures doit conduire à réformer la cuve, c’est-à-dire arrêter le réacteur définitivement.

Dans l’Industrie, pour déterminer les limites de résistance d’une structure, et valider les programmes de simulation, on procède à des crash-tests en sacrifiant quelques pièces, ce sont des essais destructifs.

De tels essais ne peuvent être réalisés en vraie grandeur sur la cuve d’un réacteur. Aussi, pour évaluer le degré de dégradation des qualités de l’acier de cuve, on a placé à l’intérieur des éprouvettes disposées aux endroits soumis à un flux élevé de neutrons. Lors des inspections décennales on prélèvent quelques-unes de ces éprouvettes sur lesquelles on effectue des mesures destructives.

D’autre part, lors des mêmes visites, on procède à une inspection détaillée de l’ensemble de la cuve par les méthodes radiographiques les plus perfectionnées du moment, afin de détecter et mesurer les micro fissures et autres défauts.

Cette inspection, et les essais d’éprouvettes sont utilisées par des programmes de simulation pour conclure sur la capacité de la cuve à poursuivre son travail pour encore dix ans, et de résister à des conditions extrêmes accidentelles définies préalablement.

Il y a d’une part des programmes de simulation qui indiquent la probabilité que tel accident se produise, et d’autre part d’autres programmes qui indiquent la probabilité que telle cuve résiste à tel accident.

Mais c’est l’Homme qui décide en fin de compte si telle probabilité est acceptable ou non…

Et comme chacun sait, les décisions humaines sont fortement influencées par toutes sortes de considérations, y compris de rentabilité financière…

Nous entendrons donc encore parler de micro fissures, et pas seulement en Belgique.

Partager cet article
Repost0
13 novembre 2012 2 13 /11 /novembre /2012 11:47

 

13 Novembre 2012

Les énergies fossiles étant condamnées à plus ou moins long terme et pour des raisons diverses ( coût, pollution, importations, épuisement des réserves), nous voici donc mis en demeure de réviser notre politique énergétique.

La perspective de raréfaction du trio charbon-pétrole-gaz naturel ne nous laisse que deux solutions: Le Nucléaire et/ou le couple Solaire/Eolien (l’éolien étant un sous-produit du solaire).

En attendant de connaître le sort que notre Société réservera au Nucléaire, il nous reste les deux autres, qui sont donc appelés dans l’avenir à fournir au moins 50% des besoins, voire beaucoup plus si le Nucléaire est écarté.

On sait que le Solaire et l’Eolien sont par nature des énergies intermittentes, soumises à l’ensoleillement et au vent.

Or notre société n’est pas actuellement en mesure de s’accommoder de cette intermittence.

On peut certes sur le papier imaginer un monde dans lequel l’activité serait modulée au rythme des vents et/ou des caprices de la météo et des heures de la marée. Quelques capacités de stockage d’énergie disposées ici ou là seraient censées suffire à pourvoir aux besoins impossibles à différer. Mais un tel monde est peu crédible et aucun prévisionniste ne l’envisage sérieusement.

Le renoncement aux énergies fossiles au profit des renouvelables propres suppose donc des capacités de stockage considérables capables d’assurer un minimum de continuité du service.

Aujourd’hui il existe en France une douzaine de stations de pompage/turbinage d’une puissance totale de 5 GW. Ces installations procurent une capacité de stockage mobilisable en quelques minutes.

Cette capacité devra être multipliée au moins par dix pour pouvoir soutenir efficacement une production intermittente solaire et éolienne.

Le développement actuel des énergies nouvelles est rendu possible par le maintien de capacités de productions classiques facilement mobilisables, qui sont constituées par des centrales thermiques à flamme fonctionnant au fuel ou au gaz, et permettant de se passer de moyens considérables de stockage d’énergie propre.

Mais ce mode de fonctionnement n’est viable que si la part des renouvelables reste faible dans le mix énergétique. On cite fréquemment la valeur de 30% comme limite acceptable au-delà de laquelle le recours à des solutions de stockage « propre » devient impératif.

De nombreuses solutions de stockage d’énergie ont été étudiées et certaines ont été développées industriellement:

- Pompage/Turbinage.

- Stockage chimique grâce à des matériaux à changement de phase.

- Stockage dans des volants à inertie.

- Stockage chimique dans des batteries.

- Stockage dans des supercondensateurs.

- Production d’Hydrogène et pile à combustible.

- Stockage sous forme de chaleur.

Chacune de ces solutions trouve son emploi dans des applications spécifiques.

Le pompage/Turbinage est particulièrement indiqué pour le stockage de très grosses quantités d’énergie. C’est un procédé qui a fait ses preuves et qui est déjà utilisé couramment, à petite échelle il est vrai.

Certains barrages hydroélectriques sont déjà utilisés à cette fin, et le procédé pourra être développé dans les régions montagneuses disposant à la fois du relief suffisant et de la ressource en eau.

Les STEP ( Station de Transfert d’Energie par Pompage) pourront également être installées en bord de mer en exploitant le relief littoral qui peut offrir des dénivelées de plusieurs dizaines de mètres, le point bas étant évidemment le niveau marin. Cette disposition conviendra pour stocker l’énergie des éoliennes off shore situées à proximité.

Les stations de pompage/turbinage littorales utiliseront des hauteurs de chute faibles ( quelques dizaines de mètres) et donc nécessiteront de très importants volumes d’eau qui ne passeront pas inaperçus dans le paysage.

On peut s’attendre à une très énergique opposition de la part des populations et des associations de protection de l’environnement.

Le basculement vers les énergies renouvelables ne sera possible que s’il est soutenu par un solide programme de gestion de l’intermittence.

Faute de quoi l’on risque de devoir s’accommoder encore longtemps des énergies fossiles et du nucléaire.

Partager cet article
Repost0
30 septembre 2012 7 30 /09 /septembre /2012 17:03

 

30 Septembre 2012

Après avoir connu quasiment un siècle de prospérité sans remise en question, l’Automobile est rattrapée par la crise.

Cette crise revêt plusieurs aspects:

- Crise pétrolière.

La pénurie de carburant classique se profile à l’horizon. Le peak-oil, longtemps galvaudé, commence à être pris au sérieux. Plus personne ne doute que nous allons devoir faire face à un renchérissement insupportable des carburants pétroliers, la seule inconnue étant la date de l’échéance.

- Crise du Nucléaire.

Cette énergie de substitution aux sources fossiles est de plus en plus contestée par les populations, qui voient leurs craintes confirmées par les catastrophes survenues récemment. La probabilité d’un abandon de cette filière est importante, un retrait progressif est envisageable.

- Crise énergétique.

Les sources d’énergie pétrolières faisant défaut, et le Nucléaire étant menacé, il faudra recourir aux énergies nouvelles propres et renouvelables, qui devront être utilisées avec parcimonie pour limiter l’emprise foncière.

L’énergie cessera d’être disponible sans limitation de quantité et à bas prix, elle deviendra une denrée rare à partager équitablement.

Ne parle-t-on pas déjà d’instaurer un tarif progressif de l’électricité et du gaz ?

- Crise écologique.

Inutile d’en rajouter, tout le monde connaît l’impact des transports routiers sur l’environnement: Emissions de CO2 et de gaz polluants.

La lutte contre ces nuisances se traduit par l’obligation de respecter des normes de plus en plus sévères, ce qui exige des constructeurs des prouesses technologiques à la limite de la faisabilité.

- Crise conceptuelle.

Pendant un siècle, l’automobile, en plus de son rôle utilitaire, a été investie de la mission d’exprimer le statut social de son propriétaire.

Ce rôle, qui aurait pu rester accessoire, est devenu essentiel dans une société où l’argent doit se montrer et où l’égo est en recherche de puissance.

C’est ainsi que, alors que le réseau routier n’autorise pas des vitesses supérieures à 130 kmh ( et peut-être moins bientôt), les constructeurs continuent de proposer des véhicules capables de rouler jusqu’à 170 kmh, voire plus, uniquement pour satisfaire l’égo des clients, ce qui exige des technologies et des solutions mécaniques très onéreuses.

- Crise économique.

Inutile également de s’y étendre, chacun ressent cette crise à son échelle, et l’investissement dans une voiture-plaisir n’est plus la première urgence.

De conjoncturelle, il faut bien admettre que la crise devient structurelle et que la hiérarchie des dépenses devra être durablement revue pour la prochaine décennie.

- Crise technologique.

Pendant un siècle la structure d’une automobile est restée immuable. L’introduction de l’électronique dans les années soixante-dix a permis d’améliorer l’efficacité des différentes composantes mécaniques, qui sont restées inchangées dans leur structure, et surtout d’introduire des gadgets dont l’utilité n’est pas toujours évidente, sauf à augmenter le prix de vente.

La nécessité de préparer l’après pétrole induit l’obligation de remettre l’automobile sur la planche à dessin.

Il faut la redéfinir dans ses fonctions et dans son rôle dans la cité.

Il faut la redéfinir en fonction des sources d’énergie disponibles.

Il faut la redéfinir en fonction des nouvelles données économiques.

Il faut la redéfinir en fonction des impératifs environnementaux.

Les constructeurs et les usagers n’échapperont pas à ce nécessaire aggiornamento qui doit nous conduire à une autre conception du transport individuel, dont la part pourrait se réduire en faveur des transports collectifs et/ou partagés.

Cette mutation aura un impact sur la plupart des aspects de l’organisation économique et sociale: L’habitat, l’urbanisme, la construction, les infrastructures de communication, la distribution des bassins d’emploi, l’organisation du travail, les échanges de marchandises, les loisirs, les déplacements, les relations familiales, les échanges de proximité, etc, etc…

Jusqu’à présent, l’Automobile et ses commodités ont grandement influencé l’organisation du territoire, comme les transports routiers ont influencé la vie économique, et que dire du transport aérien ?

Cette époque est révolue, l’Auto deviendra un service à la personne, et devra s’insérer dans un tissu économique et social au sein duquel l’énergie sera utilisée avec modération et sera devenue une denrée rare et chère.

Quel type d’automobile conviendra à cette nouvelle manière de vivre ?

Plusieurs décennies seront nécessaires pour mettre en œuvre un nouvel art de rouler en voiture.

Nous vivons aujourd’hui les prémisses de cette transition. Les constructeurs proposent diverses solutions, qui sont censées préfigurer l’avenir tout en se pliant aux infrastructures d’aujourd’hui. Ce grand écart n’est pas de nature à éclairer le futur pour l’usager, qui ne comprend pas très bien de quoi on lui parle.

Il a le choix entre un véhicule électrique et un véhicule classique essence ou diesel à basse consommation.

En électrique, il doit choisir entre:

- Un EV, voiture tout électrique, à utiliser sur des voies dépourvues de bornes de rechargement !

- Un HEV, voiture hybride dont l’autonomie électrique est limitée à deux kilomètres !

- Un PHEV, voiture hybride rechargeable à autonomie électrique améliorée, équipée d’une batterie de 300 kilogrammes, le poids de quatre personnes !

A ces choix, illisibles pour un non ingénieur, s’ajoutent d’autres offres comme un véhicule hybride à moteur diesel, au moment où certains pays font la chasse au diesel à cause des particules fines !

D’autres annonces, comme la pile à combustible, peuvent retarder les choix.

A ce tableau technique assez incompréhensible s’ajoute l’incertitude sur le coût du futur carburant électrique et notamment sur le montant de la TICPE qui ne manquera pas d’être appliquée.

En motorisation essence ou diesel basse consommation, les constructeurs ont en préparation des solutions économiques qui auront bien du mal à séduire des usagers, qui n’ont pas encore accepté d’abandonner le concept de voiture-plaisir ni de renoncer au symboles vitesse et puissance, tant reste forte l’identification de l’homme à sa voiture !

Dans la transition énergétique automobile qui nous sera imposée, le plus gros effort incombera à l’usager, qui devra remettre en question ses relations à la bagnole, et trouver un succédané pour flatter son égo.

Gros travail, qui demandera plusieurs décennies…

 

 

 

 

Partager cet article
Repost0
26 septembre 2012 3 26 /09 /septembre /2012 15:24

 

26 Septembre 2012

Sauf revirement inattendu, nous voici donc aiguillés sur la voie d’un retrait, au moins partiel, du nucléaire.

Le premier pas, modeste, concernera la centrale de Fessenheim, et seulement en 2017. Cette prudence peut paraître excessive en regard des exigences d’une partie de l’opinion qui aurait souhaité un retrait plus rapide et d’une plus grande ampleur.

Pour comprendre les raisons de ce petit pas, là où certains attendaient un grand bond, il faut regarder de plus près quelles sont les sources de l’énergie électrique et comment elles contribuent au résultat global, aujourd’hui, nous insistons sur cette dernière précision.

En 2011 la production électrique nette de la France s’est élevée à 542 TWh, répartis comme suit ( Source RTE, Bilan 2011):

Sources classiques:

- Nucléaire: 421,1 TWh 77,7 %

- Thermique fossile: 51,2 -- 9,5 %

- Hydraulique: 50,3 -- 9,3 %

Sources nouvelles:

- Eolien: 11,9 -- 2,2 %

- Photovoltaïque: 1,8 -- 0,3 %

- Autres ENR: 5,6 -- 1 %

(essentiellement la biomasse)

Cette quantité d’énergie électrique permet d’assurer les besoins du pays, avec un solde énergétique exportateur positif qui dépend des conditions météorologiques, rigueur de l’hiver et/ou sécheresse de l’été, de la demande intérieure, de la disponibilité du parc de production, etc….

( La question de savoir si ce solde positif en TWh est également positif en euros est une autre histoire, qui pourrait faire l’objet d’un chapitre spécial, nous ne l’aborderons pas ici, quoiqu’il y ait beaucoup à dire…).

Mais, si la production annuelle est excédentaire, il n’en demeure pas moins que la puissance maximale disponible n’est pas suffisante pour satisfaire les besoins en période de pointe, lorsque la demande flirte avec les 100 GW. Il est alors nécessaire d’importer de l’électricité, et de la payer au prix fort.

Au plus fort de la demande, la France a du « appeler » jusqu’à 7 GW , ce qui représente la puissance de plusieurs centrales (exactement huit réacteurs nucléaires de 860 MW électriques).

En effet, malgré une puissance installée de 125 GW, la puissance max disponible ne dépasse pas environ 90 GW car il n’est pas toujours possible de tirer le maximum d’une installation. Il faut alors acheter du courant à l’étranger pour combler le déficit.

Ceci se produit en particulier lorsque plusieurs réacteurs nucléaires sont arrêtés en même temps pour les révisions décennales ou pour toute autre raison.

Nos voisins européens nous ont soutenus dans ces moments délicats, le ferons-t-ils toujours ?

Ce problème s’accentuera avec la montée en puissance des énergies nouvelles éolienne et solaire, qui sont essentiellement intermittentes.

En clair, nous avons de l’électricité pour nos besoins courants, mais nous avons du mal à assurer les fins de mois…

On comprend alors que les préoccupations principales à court-moyen terme de l’autorité en charge des approvisionnements électriques sont:

- Préserver la capacité de production pour faire face à la demande qui ne manifeste aucun signe de diminution, au contraire ( la baisse récente de la demande interne, provoquée par la crise, est conjoncturelle. La tendance structurelle reste à la hausse).

- Réduire notre dépendance aux approvisionnements extérieurs en période de pointe. Ceci pouvant être obtenu par un lissage de la consommation grâce au déploiement des réseaux intelligents, dont le nouveau compteur Linky est une première étape.

- Maintenir le coût du KWh à un niveau compatible avec les exigences sociales du Gouvernement, sachant que le tarif public règlementé est aujourd’hui en France le plus bas d’Europe ( La moitié du tarif pratiqué chez notre voisin allemand ).

On voit tout de suite que ces trois préoccupations ne sont compatibles ni avec une quelconque réduction de la capacité de production, ni avec une stratégie industrielle qui pourrait conduire à une augmentation des prix de revient, tant que le tarif règlementé restera le plus bas d’Europe.

Ces considérations réalistes incontournables induisent la stratégie pour le court-moyen terme:

N’arrêter un réacteur nucléaire que lorsque la relève sera prête.

Fessenheim a produit 11 TWh en 2011 ( Voir bilan RTE 2011). Il faut donc trouver l’équivalent d’une façon ou d’une autre.

Cet équivalent est en route. Il s’agit d’une part du programme éolien offshore confirmé lors de la conférence environnementale, et d’autre part de quelques centrales à gaz à cycles combinés qui par ailleurs pourront prendre la relève de l’éolien en l’absence de vent.

Ceci nous conduit à une échéance 2016-2017, Fessenheim pourra alors être arrêté.

La stratégie pour le long terme est différente:

L’objectif de réduction de la part du nucléaire dans le mix électrique de 75% à 50% à l’horizon 2025 suppose le remplacement de 130 TWh nucléaires par autre chose.

Il est vraisemblable que sera développée une stratégie multi pôles s’appuyant sur différents axes:

- Les économies d’énergie.

Le fournisseur d’énergie électrique y contribuera grâce aux réseaux intelligents, à la rationalisation des réseaux de distribution, à une tarification incitative.

Les usagers auront en charge la réduction de leur propre consommation (isolation des bâtiments, efficacité énergétique, éventuellement auto-production).

Les pouvoirs publics disposeront de certains leviers qu’ils devront utiliser à bon escient: mesures fiscales, modulation du tarif public règlementé, tarif progressif, taxes diverses, règlementation contraignante, etc…

Selon le succès de ce type de programmes, les économies réalisées pourront varier de zéro à 100 TWh d’ici 2025.

- le développement des énergies nouvelles.

Les sources nouvelles d’énergie durable, qui contribuent aujourd’hui modestement pour 3,5 % de la production électrique ( 20 TWh), sont une promesse qui ne demande qu’à se réaliser pourvu qu’on lui en donne les moyens ( nos voisins étrangers nous montrent que c’est possible).

Elles devront donc croître de 13% par an environ pour atteindre 100 TWh en 2025.

Ce taux de croissance est parfaitement réalisable pour peu que les pouvoirs publics décident de soutenir cette nouvelle industrie par des mesures ambitieuses ( Financement, cadre règlementaire, engagements pluri annuels, politique claire de rachat de l’énergie, protection contre la concurrence faussée, etc…).

- Le toilettage des moyens de production classiques.

La grande inconnue demeure le futur des énergies fossiles carbonées. La nécessité de prévoir leur disparition progressive est contrebalancée par le besoin de compenser l’intermittence des sources renouvelables. Faute de pouvoir stocker l’électricité solaire et éolienne, il faudra construire des centrales thermiques à flamme capables de soutenir la demande d’énergie sans recourir à des délestages fréquents.

La réussite d’une stratégie à échéance de 2025 suppose comme première condition l’assurance de la pérennité, qui ne peut être garantie que si les grandes options industrielles font l’objet d’un consensus National par delà les clivages politiques. L’absence d’un projet national ne peut conduire qu’à l’immobilisme.

Ce consensus n’existe pas aujourd’hui.

La réussite d’une stratégie à long terme est également conditionnée par la nécessité de s’insérer dans un cadre Européen, et peut-être plus large.

Pour le développement des énergies solaire et éolien, il est évident qu’il existe des conditions géographiques. Telle région d’Europe est privilégiée pour l’éolien, telle autre pour le solaire, telle autre enfin pour l’hydraulique. Un minimum de rationalisation sera nécessaire pour tirer le meilleur de chaque technologie.

Aujourd’hui il n’existe aucun projet concret dans ce sens.

La transition énergétique demandera des investissements très importants dans la recherche, dans le développement d’un outil industriel adapté et concurrentiel, dans la reconversion des personnels, dans le développement des réseaux d’échanges internationaux d’énergie, dans les stratégies d’économie dans le bâtiment et les transports, dans l’acquisition du foncier nécessaire à l’implantation des centrales solaires, dans la reconversion des sites nucléaires, etc, etc…sans parler du démantèlement.

Il est probable que la France aura les plus grandes difficultés à maintenir un tarif public règlementé du KWh à son niveau actuel, le plus bas d’Europe. La CSPE n’est qu’un pis-aller qui ne saurait se transformer en impôt nouveau sans provoquer des désordres sociaux.

D’autres sources de financement devront être trouvées, qui ne sont pas identifiées aujourd’hui.

L’arrêt de quelques réacteurs nucléaires n’est donc qu’un des aspects, certes emblématique, d’un très vaste chantier qui implique la plupart des acteurs de la vie économique et industrielle.

La décision d’arrêter une vingtaine de réacteurs d’ici 2025 ne résoudra pas les problèmes de la transition énergétique car ils devront être remplacés et tout reste à faire.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Partager cet article
Repost0
18 septembre 2012 2 18 /09 /septembre /2012 11:32

 

17 Septembre 2012

L’annonce de l’arrêt de Fessenheim en 2017 est un non évènement.

Son arrêt était de toutes manières techniquement nécessaire, et ceci pour plusieurs raisons:

- C’est le prototype de la première série de réacteurs REP.

- Il a atteint sa limite d’âge fixée à quarante ans par ses concepteurs.

Ces raisons suffisent à réformer automatiquement la chaudière en 2017.

Mais, comme chacun sait, en plus de l’atteinte de la limite d’âge, des problèmes en rapport avec un risque accru de sureté ont été mis en évidence, suite aux leçons de la catastrophe de Fukushima:

- On sait maintenant que l’acier de la cuve peut se briser en cas de fusion du cœur, à cause de la fragilisation due à l’exposition au flux de neutrons sur une longue période.

- L’ épaisseur du radier est notoirement insuffisante, il serait incapable d’arrêter le corium en cas de fusion du cœur et de bris de la cuve.

Les travaux d’amélioration préconisés par l’ASN nécessiteraient des dépenses exorbitantes, si toutefois ils sont réalisables.

- Absence de récupérateur de corium, nécessitant également des travaux probablement déraisonnables ( ce récupérateur doit être installé lors de la construction, et non après ).

- Installations vulnérables à l’envahissement par les eaux, nécessitant d’importants travaux de sécurisation.

- Proximité dangereuse de la nappe phréatique qui alimente toute la région Alsace ( La nappe se trouve à seulement quelques mètres de profondeur sous le radier).

-Etc…

Pour couronner le tout le site est placé en contrebas du grand canal d’Alsace, et en zone sismique.

(La référence sismique ayant servi pour déterminer les marges de sureté étant fortement contestée).

Oublions donc ce site dont l’arrêt sera cependant emblématique et surtout fort ennuyeux pour les ouvriers et pour les sous-traitants et intérimaires.

Notons quand même que AREVA aurait souhaité voir prolonger la durée d’exploitation jusqu’à 50 ans, soit 2027.

Plus sérieuse est la confirmation de la décision de développer une stratégie visant à réduire la part du nucléaire de 75% aujourd’hui à 50% en 2025.

Dans l’hypothèse d’une consommation stable ( accroissement de la demande compensée par une meilleure utilisation) il faudrait donc arrêter environ 20 tranches nucléaires.

100 TWh seraient donc à trouver ailleurs, si possible dans les énergies nouvelles, ce qui est faisable à condition de prendre le problème à bras-le-corps.

Ce programme de réduction de 75% à 50% ne peut évidemment être qu’une première étape vers la sortie totale du nucléaire. En effet les raisons qui sont invoquées pour la première étape de réduction sont essentiellement la volonté de supprimer tout risque de catastrophe environnementale, et ce risque existera tant qu’il restera un seul réacteur en service.

Cette première étape doit donc être expressément accompagnée de l’engagement d’un programme de sortie totale du nucléaire ( pour 2050 ?).

Bien entendu, tout cela n’a de sens que si, dans le même temps, on décide l’arrêt du programme EPR et des études sur la quatrième génération.

Quant à ITER, la question reste à débattre .

Aujourd’hui seule la première étape est annoncée, sans pour autant être actée par une loi.

L’annonce de l’arrêt en 2017 de la plus vieille centrale du parc ne constitue en aucun cas une politique énergétique.

Il existe donc une incertitude quant à l’orientation long terme du projet énergétique de la France.

Cette incertitude ne permet pas aux industriels de décider de leur stratégie, que ce soit dans le nucléaire, dans les énergies nouvelles, ou ailleurs.

Une transition énergétique de grande ampleur nécessite en effet des investissements sur le long terme, donc l’assurance de la pérennité de la politique industrielle du pays et donc des choix énergétiques de base.

Tout reste donc en faire en matière de programmation de l’éventuelle transition énergétique.

 

Partager cet article
Repost0
17 septembre 2012 1 17 /09 /septembre /2012 10:25

 

17 Septembre 2012

Droit de réponse.

Notre article du 15 Septembre

«  Le nouveau compteur Linky, quelques idées reçues »

A fait l’objet d’un commentaire qui se veut destructeur, mais dont le contenu renforce notre volonté de combattre les idées reçues.

Le commentateur fait un amalgame entre le système de communication à courants porteurs basse fréquence ( utilisés par Linky) et la norme GPRS, qui est une norme pour la téléphonie mobile qui n’a évidemment rien à voir avec le compteur Linky.

Ce genre d’amalgame, que nous attribuons à l’ignorance plutôt qu’à la malveillance, est de nature à fausser le jugement de lecteurs peu familiers de la technique des communications.

D’autre part le même commentateur déclare qu’il n’y a pas une ligne de vrai dans notre exposé, sans pour autant donner le moindre détail sur les éventuelles contre-vérités relevées.

Nous sommes toujours disposés à débattre de tous les sujets abordés et bien sûr à reconnaître nos erreurs, encore faut-il apporter des arguments sérieux.

 

 

Partager cet article
Repost0
15 septembre 2012 6 15 /09 /septembre /2012 15:13

Le nouveau compteur Linky, quelques idées reçues.

15 Septembre 2012

Comme toujours lorsqu’une application nouvelle est « imposée » sans explication, une polémique s’engage, ce qui révèle une saine vigilance du consommateur usager.

L’introduction du nouveau compteur électrique Linky n’échappe pas à la règle.

Parmi les arguments présentés ici et là, il circule quelques idées reçues qu’il n’est pas inutile d’essayer de démonter, ne serait-ce que pour préserver le sérieux des vrais arguments.

«Ce nouveau compteur communique grâce à des ondes nocives, comme celles du téléphone portable mis en accusation par l’OMS » .

Cette accusation résulte d’une confusion. Les transmissions CPL (Courants Porteurs en ligne) consistent en la superposition d’un signal de communication sur la tension du secteur 230 Volt.

Au début de cette technologie on n’utilisait que des signaux de communication à basse fréquence, les signaux à transmettre étant simples comme allumer les réverbères par exemple.

Puis la technologie et la règlementation ont évolué, jusqu’à permettre aujourd’hui la transmission de signaux à haute fréquence de plusieurs Mhz.

Ces signaux de haute fréquence sont effectivement perturbateurs car le réseau domestique 230 V n’est pas blindé et donc les fils du secteur servent d’antenne et rayonnent de manière sauvage.

Mais les transmissions CPL utilisées par EDF n’utilisent que le domaine basse fréquence qui lui n’émet aucune onde électromagnétique:

Deux fréquences: 63,3 KHz et 74 KHz

( Il s’agit de Kilo Hertz et non de Méga Hertz )

Modulation S-FSK.

Débit 2 400 bauds.

Il existe dans le résidentiel des applications communicantes qui utilisent des liaisons radio à haute fréquence, mais qui n’on rien à voir avec le compteur Linky. On les trouvent par exemple dans la Domotique, les systèmes d’alarme sans fil, les télécommandes, etc, etc…

EDF n’a rien à voir dans tout çà.

«Les ondes émises provoquent des troubles chez les personnes électro sensibles ».

Même réponse que ci-dessus.

Des manifestations d’électro sensibilité, qui n’ont rien à voir avec Linky, ont été rapportées et seraient dues à la proximité de lignes à haute tension ou d’un transformateur de distribution.

D’autres cas d’électro sensibilité seraient liés aux micro ondes émises par le réseau de téléphonie mobile. EDF et Linky y sont bien entendu étrangers.

« Ce compteur n’apporte aucune économie d’énergie»

Par lui-même ce nouveau compteur n’apporte techniquement aucun gain d’énergie dans une installation existante. Il n’est pas en lui-même un système d’économie d’énergie.

Par contre il offre de nombreuses possibilités qui, elles, conduiront à des économies lorsque le client voudra bien s’équiper pour en tirer profit. C’est un équipement pour l’avenir, prévu pour accompagner la transition énergétique.

Dans l’immédiat, sur une installation basique, le client ne verra aucune différence après remplacement de son compteur bleu électronique (CBE) par un Linky.

Par contre si son ancien compteur était un vieux truc électromécanique (encore 60 % du parc), il bénéficiera des possibilités de l’actuel CBE. Possibilités limitées mais non négligeables et susceptibles de permettre d’optimiser sa consommation dès maintenant.

«  C’est une dépense inutile qui n’apportera rien en échange »

C’est faux, EDF ne facture pas le remplacement du compteur au client.

Bien évidemment l’opération a un coût qui sera intégré dans les dépenses d’investissement de EDF. Ce coût est annoncé à 4 Milliards d’euros pour équiper 35 millions de clients sur une période d’une dizaine d’années.

Cette dépense est à mettre en face des économies que ce système permettra à EDF de réaliser dans le futur, et qui se chiffrent en nombre de centrales économisées par une meilleure gestion de la consommation globale rendue possible grâce à Linky.

« Mes données personnelles vont circuler sur le réseau et pourront être piratées ».

Les échanges entre le compteur et le concentrateur sont cryptées par un système conforme au Green Book COSEM, avec une clé de 128 Bits.

La protection des données transitant par le réseau ERDF est donc assurée par des protocoles de haut niveau.

Par contre l’usage qui sera fait de ces données par le destinataire ( EDF ou tout autre fournisseur d’énergie comme Poweo, Direct Energie, GDF-Suez, etc…) devra être transparent et parfaitement encadré.

La CNIL doit être garante du respect de la vie privée, de la confidentialité, et de la protection des droits et intérêts du consommateur.

C’est un point qui aujourd’hui n’est pas encore très clair.

«Mes données pourront être utilisées par mon fournisseur d’électricité à des fins de marketing pour m’inciter à souscrire à des options coûteuses ».

Peut-être, mais le client n’est pas obligé d’accepter n’importe quelle proposition.

Les consommateurs reçoivent déjà aujourd’hui des propositions de la part de fournisseurs alternatifs et Linky n’y est pour rien.

Là encore la CNIL et les associations de consommateurs devront être attentives et exiger une grande clarté des diverses propositions tarifaires.

 

« Je ne serais plus maître chez moi si le fournisseur m’impose des délestages ».

Les délestages ne sont jamais pratiqués de manière impromptue. Ils sont négociés avec le client sur des bases contractuelles et avec des incitations tarifaires.

Lorsque, au cours d’une période de pointe de consommation, le gestionnaire de réseau constate un risque de saturation, il procède à des délestages pour éviter une panne générale par disjonction automatique.

Les zones touchées par le délestage sont évidemment intégrées dans un plan tenant compte des besoins des clients de la zone, et ceux-ci sont bien sûr informés.

Le compteur Linky permettra d’optimiser cette fonction client par client, et de lisser la consommation pour éviter le risque de saturation. L’objectif étant d’éviter tout délestage intempestif.

Aujourd’hui la puissance moyenne consommée par la France est de

45 GW, alors que les pointes de consommation atteignent 100 GW.

Le gestionnaire de réseau doit dont installer des capacités de puissance pour 100 GW, alors que la moitié devrait suffire. Il y a là un surcoût colossal qui sera atténué grâce à la transition vers un réseau intelligent, dont la première brique est le compteur Linky.

De plus il faut savoir que, au-delà de 80 GW consommés, la France doit importer de l’électricité. Or cette électricité est chère et d’autre part nos voisins s’orientent vers une sortie du nucléaire et donc ne pourront plus nous dépanner.

Il y a donc de multiples raisons qui rendent incontournable l’évolution vers un réseau intelligent.

En gros il s’agit de faire en sorte d’éviter que tous les clients démarrent leurs appareils de puissance en même temps. Pour cela il faut utiliser une programmation différée en concertation avec les clients d’une zone desservie.

Aujourd’hui, en cas de délestage, le client est totalement privé de courant, c’est le délestage sauvage.

L’objectif est de pratiquer un délestage partiel du client, en ne coupant que un ou deux appareils gros consommateurs, avec l’accord préalable de l’usager.

Ces applications ne peuvent être réalisées qu’avec un compteur communicant comme Linky.

« Big Brother va rentrer chez moi, on va tout savoir de mon mode d’existence »

La plupart des matériels électriques, sinon tous, sont alimentés par le secteur. S’il advient un jour que tous ces appareils sont équipés d’une interface communicante CPL, la confidentialité de l’usage de ces appareils dépendra du type de données qui circulera sur ces interfaces et à qui elles sont envoyées.

Ce sera à l’usager de veiller à ce que ses appareils ne soient pas trop « bavards ».

Le fournisseur d’énergie électrique n’a aucun besoin ( ni aucune envie) de savoir quand l’usager prend sa douche ou quand il regarde la télé.

Les informations transmises au fournisseur, et les possibilités d’intervention qui lui seront concédées sont à la discrétion du client.

A terme, lorsque la gestion intelligente de l’énergie sera une réalité, l’installation domestique sera équipée d’une interface client communicante globale ( Domotique) qui, seule, dialoguera avec le fournisseur.

C’est cette interface client qui d’une part recevra les données du fournisseur ( Offres tarifaires selon l’heure ou le jour, informations heures de pointe, alarme dépassement de puissance, demandes de délestage, données de comptage, etc…), et d’autre part gèrera l’installation du client en fonction des données Linky reçues.

Il n’a jamais été question d’envoyer à EDF des données signalant qu’un téléviseur était allumé ! Encore moins quel programme était regardé !

Seule l’interface Domotique du client saura quel appareil est en fonction et quand, et qui gèrera la programmation différée des appareils de puissance.

« Grâce à la possibilité de modulation tarifaire en temps réel je ne saurai jamais combien va me coûter le KWh que je suis en train d’utiliser »

On peut effectivement se poser la question.

Aujourd’hui le client connaît une fois pour toute le coût du KWh . Selon l’abonnement souscrit, il y a un tarif HP et un tarif HC, et les tranches horaires relevant de HP ou de HC sont fixes, ceci pour la très grande majorité des usagers. Le compteur est même équipé d’un interrupteur qui permet de mettre automatiquement en service les appareils de puissance que le client souhaite allumer seulement en HC.

Avec le compteur intelligent le fournisseur aura la possibilité de proposer en temps réel des aménagements tarifaires pour inciter le client à se reporter sur une tranche horaire plutôt que sur une autre. Bien sûr l’usager sera informé du détail de ces offres, mais encore faut-il que la signalétique soit bien visible et claire.

Le déploiement du nouveau compteur Linky est la clé qui permettra de réaliser le réseau intelligent sans lequel il sera tout simplement impossible de gérer la complexité de la distribution électrique bidirectionnelle du futur intégrant les énergies nouvelles.

PS. L’auteur déclare sur l’honneur n’avoir aucun lien d’intérêt avec EDF ou toute autre entreprise du secteur de l’Energie électrique.

 

 

 

 

 

 

 

Partager cet article
Repost0