Overblog Suivre ce blog
Administration Créer mon blog
17 octobre 2017 2 17 /10 /octobre /2017 19:05

17 Octobre 2017

L’irruption du compteur communicant Linky a braqué les projecteurs sur la technologie CPL qui n’en demandait pas tant.
Les CPL sont dans nos foyers (enfin, certains foyers) depuis une trentaine d’années, et ont participé au développement de la domotique sans donner lieu à un quelconque problème de santé publique.

Le nouveau compteur, qui utilise le même type de CPL que la domotique, a soulevé une bronca dont les échos ont envahi les médias et mobilisé des cohortes protestataires.

C’est que, dans un cas on choisit d’équiper son logement en domotique, dans l’autre cas on subit l’intrusion d’on ne sait pas très bien qui, animé d’on ne sait pas très bien quelles intentions.

On retrouve ici le même conflit que celui qui oppose les utilisateurs de smart phone aux personnes EHS qui ne supportent pas les ondes.
A cette différence près qu’il est toujours possible de se passer de smart phone et d’aller vivre à la campagne, alors que l’électricité reste indispensable partout.
(Sauf à fabriquer son électricité soi-même, ce que certains n’hésitent pas à faire, pour d’autres raisons il est vrai).

Les intentions de ceux qui recueillent les données (du Linky et/ou du smart phone) sont une chose, la technologie en est une autre. Il ne faut pas confondre les deux, même si on peut rencontrer des « patients » qui redoutent à la fois l’influence néfaste des ondes émises par le compteur et les antennes, et l’usage non moins néfaste qui pourrait être fait des données recueillies par ceux-ci et susceptibles d’être transmises non pas à Big Brother, mais au « Big Data », ce qui revient à peu près au même.
__________________

Il n’est donc pas inutile de se pencher sommairement sur la technologie CPL et de tâcher de comprendre en quoi elle pourrait nous nuire.
(Pour le « Big Data » on verra plus tard…)

L’utilisation du réseau de distribution d’énergie électrique pour transmettre des informations par CPL n’est pas nouvelle, c’est une technologie que l’on peut qualifier d’ancienne.

Mais ce réseau ne possède aucune des qualités exigées d’un réseau de communication bien élevé:
Il est impossible de définir une impédance de ligne, elle dépend de la configuration du réseau et elle varie dans le temps en fonction des longueurs de trajets, de la nature des câbles, du type et du nombre des appareils connectés à un moment donné. Toute transmission sur un tel réseau subira des réflexions dues aux désadaptations, des trajets multiples, des affaiblissements incontrôlables.
Le réseau ne possède aucune espèce de protection contre les perturbations électromagnétiques rayonnées reçues ou émises, quelles que soient leurs fréquences et/ou leurs amplitudes.
 Il est par nature l’objet de perturbations conduites liées au fonctionnement des appareils connectés, perturbations qui couvrent un spectre de fréquences très étendu, notamment à cause de la banalisation des alimentations à découpage.
De par son absence totale de blindage, le réseau 230 V est exposé à recevoir toutes sortes de perturbations électromagnétiques de toutes origines.
(sauf pour les réseaux de distribution enterrés, qui sont beaucoup moins vulnérables).
Les fils qui transportent l’énergie électrique, les dispositifs qui assurent les connections, les commutations, la protection des biens et des personnes, les appareils connectés au réseau pour les différents usages, les prises multiples, les boîtes de raccordement, les  disjoncteurs, les parasurtenseurs, etc, ont été conçus selon des cahiers des charges qui n’incluent en aucune façon la possibilité de transmettre des données numériques par courants porteurs ou autrement.

Utiliser un tel réseau en tant que réseau de communication est une tentative « sauvage » de mariage forcé contre nature entre le domaine de l’électrotechnique et le domaine des télécommunications, qui n’ont à priori rien de commun.

Le fait qu’en général on obtient des résultats (à peu près) satisfaisants avec les CPL n’est en aucune façon une validation du procédé, qui constitue en fait une violation des règles de l’art en matière de communications.

Introduire les CPL dans la maison revient à prendre une potion dont on ne connaît pas les effets secondaires.

Et avec les CPL des effets secondaires il y en a…Les médias se chargent de nous les décrire.
________________

Mais les CPL sont tellement commodes d’emploi que même les communications de très haut débit ont abandonné (un peu vite à notre avis) les moyens orthodoxes comme le câble coaxial, la fibre optique ou la paire torsadée Ethernet en RJ45, pour rejoindre le CPL et se mêler aux transmissions bas débit de la domotique, au risque de devoir accepter certains inconvénients dus à un mélange des genres pas toujours très heureux.
Et entre autres de se voir confrontés avec les signaux du Linky, parfois un peu « rudes » car provenant d’un extérieur lui-même hostile .

La connaissance de cet environnement a conduit les ingénieurs à développer une technologie CPL de traitement des données très complexe , afin d’obtenir malgré tout un résultat global satisfaisant, mais non garanti dans n’importe quelle configuration de réseau.
Car à l’impossible nul n’est tenu…

Le signal CPL reste un passager clandestin du signal électrique de puissance, un peu comme le pou est le passager clandestin du singe.
Çà gratte un peu, mais c’est aussi  l’occasion d’établir de bonnes relations sociales.

Dans le cas qui nous intéresse, le pou est le signal d’information transmis sous la forme de modulation d’une ou plusieurs porteuses de fréquences définies permettant la mise en œuvre d’un système efficace de sélection du signal utile et de décodage robuste.
Ce signal modulé est superposé au signal 50 Hz véhiculant l’énergie.

Celui qui est chargé de gratter pour prélever le « pou » est un « adaptateur CPL » . Il en faut au moins deux pour causer (comme les singes).

Chaque « adaptateur » CPL possède un circuit de couplage à la ligne tel que décrit dans le schéma ci-après:

 

CPL Linky, le loup dans la bergerie ?

Le condensateur C2 et le transformateur constituent un diviseur de tension pour le 50 HZ  mais laissent passer les signaux CPL dont la fréquence est beaucoup plus élevée.
C2 et L constituent un circuit résonnant série accordé sur la bande de fréquence CPL utilisée. Son Q est faible ( 2 ou 3).
C2 est un composant haute tension, il protège le coupleur des impulsions  jusqu’à 4 KV.
Le condensateur C1 , de forte valeur, isole le transfo de la composante continue de sortie de l’ampli, qui fonctionne en classe A.
Le rapport de transformation N2/N1 est choisi pour adapter la tension de sortie ligne à la tension crête-crête disponible en sortie de l’ampli.
Cette adaptation est toujours approximative puisque l’impédance de charge est inconnue.

Ceci est valable pour n’importe quel adaptateur CPL, Linky ou tout  autre produit vendu en grande surface.

(Il existe également une possibilité de couplage inductif, mais plus difficile à mettre en œuvre dans le cas des réseaux domestiques).

La tension Vpp crête à crête de sortie max de l’ampli peut atteindre plus de 10 V selon la tension d’alimentation de l’ampli.
Le courant max est généralement de l’ordre de 1 à 1,5 A.

Un tel étage de sortie, alimenté en 12V par exemple,  peut donc délivrer une puissance de l’ordre de 2 à 3 Weff.
De quoi « arroser » un quartier si le transfo de sortie est bien adapté à l’impédance nodale du réseau.

____________________

Lorsqu’un circuit de ce genre est raccordé à un fil conducteur non blindé, ce fil s’appelle une antenne, et l’ensemble est un émetteur radio.
Or, les fils du réseau électrique ne sont pas blindés.
Un adaptateur CPL couplé au réseau électrique constitue donc un émetteur radio, ce qui est en l’occurrence un comportement indésirable puisque sa fonction est de transmettre des signaux le long des fils électriques et non pas de rayonner des ondes électromagnétiques.

On peut donc s’attendre à des problèmes de coexistence avec les applications qui sont par nature du domaine des radio communications.
(Un des effets secondaires dont nous parlions plus haut).

Heureusement, le réseau électrique est une très mauvaise antenne, et en tant que telle son efficacité est très médiocre, sauf à courte distance.
Mais elle reste suffisante pour constituer une pollution des ondes qui a rendu nécessaire la mise en œuvre de dispositions règlementaires exigées par les usagers « légitimes » des ondes radio.

Parmi ces dispositions figure la limitation de l’amplitude du signal CPL injecté.
Définir une telle limite n’est pas chose aisée. Il faut un signal assez fort pour être « entendu » au milieu du bruit électrique ambiant, mais pas trop fort afin de limiter les fameux effets secondaires.
La valeur choisie par les instances internationales est donc forcément une cote mal taillée, avec laquelle il faudra composer dans certains cas difficiles.

Tout constructeur d’un adaptateur CPL doit donc faire en sorte que cette limite soit respectée, dans les conditions de mesures définies par la norme.
(EN 50 065-1)

On a vu que, pour un transfo de couplage donné, et pour un étage de puissance donné, la tension aux bornes de la charge dépend de son impédance, et du gain de l’amplificateur de puissance.

Mais comment définir une impédance* qui, par nature, est n’importe quoi en fonction de la nature du réseau et des appareils raccordés ?
*Il s’agit de l’impédance dans la bande fréquence concernée, et non pas à 50 HZ.

La norme a défini une impédance de réseau type, constituée d’une résistance de 50 ohms en parallèle avec une self de 50 micro henry en série avec une résistance de 5 ohms.

Dans ces conditions de charge, la tension de sortie ne doit pas dépasser 120 dBuVrms, soit 1 Veff.
Dans certains cas cette limite pourra être portée à 134 dBuVrms, soit 5 Veff tout de même.

Or l’impédance du réseau en un point quelconque peut être n’importe quoi entre 0,5  et 50 ohms, selon les circonstances.
(Avec une composante inductive ou capacitive évidemment)
La norme ne précise pas la limite dans ces cas…
_____________________

La maîtrise du niveau de signal CPL injecté dans le réseau n’est donc pas chose facile, compte tenu du caractère aléatoire de l’impédance HF de ligne au point de branchement, et des multiples réflexions du signal entraînant des renforcement et des extinctions imprévisibles.

De nombreux adaptateurs CPL ( y compris certains Linky) sont équipés de circuits comme le processeur TMS 320 F28x couplé au circuit de sortie AFE 031 dont l’ampli de puissance peut recevoir une tension d’alimentation de 26 V max et peut délivrer un courant max de 1,5 A.
Le gain de l’ampli est programmable à travers l’interface série, pour adapter le signal de sortie ligne aux besoins de l’efficacité de la transmission.
Il s’agit de rechercher un rapport signal/bruit compatible avec un Ber (Bit error rate) acceptable, la limite de 10 exp(-3) étant généralement retenue.

Le niveau réel du signal CPL peut, dans des conditions d’impédance de ligne difficile, se trouver occasionnellement supérieur aux valeurs de la norme.
(Un peu comme la consommation d’une voiture en côte se trouve supérieure à la consommation mesurée au cours du test NEDC).
_____________________

Un compteur donné fait partie d’un réseau pouvant comporter une centaine d’autres compteurs identiques, voire davantage.
Ces compteurs sont connectés sur la même dérivation du transformateur BT.
Chacun d’eux examine les signaux CPL « EDF » qui circulent sur cette dérivation, et prélève les trames qui lui sont personnellement adressées.
Si le niveau général des signaux est trop faible, à cause de la distance ou pour tout autre raison, un des compteur peut servir de relais et amplifie le signal afin que les autres puissent le recevoir.

Les données qui circulent sur une section du réseau sont donc « vues » par toutes les habitations qui y sont raccordées à travers leur compteur (compteur à roue, CBE, ou Linky).

On peut donc logiquement s’attendre à constater quelques perturbations d’importance très variable selon les cas, et qui pourront se manifester de différentes façons en fonction du niveau CPL reçu, et des équipements existants dans le domicile: Réseau domotique utilisant déjà les CPL, mais aussi la WiFi, connexions CPL haut débit pour la TV et/ou les liaisons PC à PC, installation radio amateur, etc…
Des mesures de « mitigation* » seront éventuellement nécessaires, le refus du compteur Linky étant évidemment la plus extrême.
*Au sens anglo-saxon du terme.
A charge pour l’usager de négocier ce refus avec qui de droit…

Comme c’est l’usage en général, il faudra trouver le compromis acceptable avant de jeter le bébé avec l’eau du bain.

Un certain nombre de « recettes » sont proposées ici et là, censées permettre une cohabitation avec un réseau devenu un peu agité:
- Contre les signaux du Linky, certains préconisent un filtre passe-bas atténuant la bande A du CENELEC.
Pour être efficace, un tel filtre devra être caractérisé au courant max de l’installation, au moins 60 A, voire plus. Il devra être homologué pour être accepté, et devra être lui-même exempt de perturbations rayonnées.
Ce composant sera lourd, encombrant, et très cher.
De plus il ne devra apporter aucune perturbation  dans le fonctionnement du compteur Linky, notamment par une impédance d’entrée inappropriée.
- Contre les perturbations véhiculées par le réseau domestique, il existe des dispositifs IAC (Interrupteur Automatique de Champ) disponibles pour montage sur rail DIN.
- Contre l’effet d’antenne du réseau électrique, il est possible de réaliser un câblage en fil blindé, genre « Bio Habitat », et établir une mise à la terre performante.
- D’une façon générale, il faudra rationaliser le câblage, éliminer les prises multiples, faire la chasse aux dominos, repenser le câblage électrique dans l’optique d’un réseau de communication.

Le réseau domestique va devoir, bon gré mal gré, d’adapter à sa nouvelle fonction de réseau de communication. Il devra faire cohabiter des applications aussi différentes que la commande de volets roulants et la transmission de programmes de TVHD, dans des domaines de fréquences allant de la bande CENELEC jusqu’à 100 Mhz voire davantage.
Ceci ne se fera pas sans heurts et grincements de dents.

A moins que les problèmes rencontrés n’incitent à un retour à plus de prudence, c’est-à-dire à éviter le mélange des genres.
Laisser au réseau domestique ce qu’il sait faire, gérer l’énergie. Et confier les transmissions aux spécialistes des transmissions, câble coaxial, fibre optique, paire torsadée blindée, radio.
Affaire à suivre…

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
1 octobre 2017 7 01 /10 /octobre /2017 11:16

La fronde contre le compteur Linky.

1er Octobre 2017

Plus de 4 Millions de  compteurs Linky sont déjà  installés en France, et le déploiement se poursuit au rythme de 18 000 compteurs par jour, avec l’objectif d’atteindre un taux d’équipement de 80% pour 2021.

La généralisation de ce nouveau compteur répond aux nécessités de la mise en œuvre de la transition énergétique décidée par l’Europe et approuvée par les Etats membres.
La réalisation de ces objectifs implique une gestion concertée du réseau de distribution d’énergie électrique, qui ne peut être réalisée qu’à travers des compteurs communicants.

Les opposants à ce déploiement représentent en moyenne environ 3% des abonnés domestiques concernés, ce taux étant très variable selon les régions, les communes, et fluctue dans le temps en fonction du niveau et de la qualité des informations reçues par les clients.

Ce taux est suffisamment significatif pour qu’il soit important de se pencher sur les raisons invoquées pour justifier cette opposition.
__________________

Sans prétendre à l’exhaustivité, on peut lister un certain nombre de motivations relativement bien identifiées, et dont l’importance est à pondérer:

1- Le refus de ce qui est perçu comme une violation de l’espace privé.
« On » veut bien recevoir l’énergie électrique, mais on refuse que le fournisseur vienne voir comment et quand on l’utilise, et surtout que cette connaissance puisse être enregistrée et éventuellement utilisée pour recueillir des informations sur le comportement des personnes du logis.
C’est une démarche générale de recherche de confidentialité et de discrétion, qui peut être plus ou moins étendue à d’autres aspects, par exemple au refus du téléphone portable qui permet la géolocalisation, au refus de régler ses achats par carte bancaire ou par chèque, au refus du GPS, de l’internet, à la mise en liste rouge du téléphone, à l’anonymat de la porte d’entrée, etc…
Cette démarche personnelle est respectable, à condition d’en accepter les conséquences dès lors qu’elles résultent de ce choix.
(conséquences pratiques, voire financières).

2- la crainte de voir les données personnelles piratées à des fins commerciales ou d’intrusion.
(Les données personnelles Linky sont transmises par CPL vers le gestionnaire du réseau, mais elles sont également reçues par les autres compteurs branchés sur le même tronçon de l’arborescence BT de EDF.
Ces données sont cryptées par un procédé approuvé par la CNIL, mais certains abonnés mettent en doute l’efficacité du système).
Ce problème concerne également les données CPL constituant les réseaux Domotique, données personnelles qui circulent dans tout le quartier puisqu’il n’existe aucun filtre de protection tant en entrée qu’en sortie des logements.
(Il serait intéressant de voir si cette crainte du piratage s’étend également aux données personnelles circulant sur le réseau de téléphonie mobile, sur les réseaux sociaux, et plus généralement sur les données internet et particulièrement le Cloud).

3- Le refus de personnes EHS ( Electro Hyper Sensibles), de voir arriver une source supplémentaire présumée de perturbation de leur état de santé.
Justifiée ou pas, cette opposition doit être traitée dans le cadre général du problème de l’influence des champs électromagnétiques sur les personnes.
Sont également suspectés les téléphones mobiles, le Wi-Fi, les lignes à haute tension, les transformateurs EDF, et bien sûr les CPL de toutes provenances.

4- La crainte, justifiée ou pas,  de voir les réseaux domestiques perturbés par les signaux CPL du Linky.
Les signaux CPL du nouveau compteur pénètrent effectivement à l’intérieur du réseau privé, avec une faible atténuation, puisqu’il n’existe aucun filtrage.
Ils s’invitent donc dans un réseau domestique, qui perd ainsi une partie de son caractère privé.
Il s’agit d’un problème de compatibilité lié à la mise en commun sur un même réseau CPL d’applications très diverses dont les interfaces communicants ne sont pas toujours compatibles.
De tels problèmes peuvent survenir au cas par cas et doivent être résolus en faisant appel à un technicien.
Il s’agit du problème général lié à la collision d’interface entre le domaine des télécommunications auquel appartiennent les communications CPL, et le domaine de l’énergie auquel appartient le réseau de distribution électrique privé et public.
Ces deux domaines étaient jusqu’à présent complètement séparés, avec des approches différentes, des normes différentes, des législations différentes.
La technologie CPL à haut débit les a rapprochés « à la hussarde », avec des problèmes d’interface.
Ce problème ne peut être résolu qu’au niveau des instances de normalisation internationales.

5- La crainte de voir la facture systématiquement augmentée, crainte diffuse sans base explicative fondée, mais bien réelle.
Il faut considérer deux aspects.

D’abord l’aspect court terme lié à l’installation du nouveau compteur:
Certains usagers avaient souscrit un abonnement notablement supérieur à ce dont ils ont besoin réellement. Avec le nouveau compteur, ils s’apercevront rapidement qu’ils peuvent modifier leur contrat pour une puissance inférieure (les KVA) et donc réduire le montant de leur facture.
D’autres usagers s’apercevront qu’ils peuvent programmer leurs appareils ménagers de manière à mieux répartir les appels de puissance et ainsi réduire la puissance max en changeant d’abonnement.
Encore des cas de réduction de facture.
Par contre, quelques usagers ont un abonnement (KVA) inférieur à ce qu’ils soutirent épisodiquement.  Ces surintensité occasionnelles sont tolérées par le « vieux » disjoncteur EDF, mais ne seront pas acceptées par le Linky.
Le fournisseur exigera alors que le client prenne un abonnement supérieur, ou bien répartisse mieux ses soutirages, sinon la facture augmentera…
Ces clients, peu nombreux, devront accepter de se contenter du nombre de KVA pour lequel ils ont souscrit un abonnement.
(C’est le cas en particulier lorsque le nombre d’appareils ménagers gros consommateurs a été augmenté au fil du temps, sans prendre garde aux dépassements de puissance.
C’est également le cas lorsque des machines-outils électriques sont ajoutées, avec des appels de courant importants à la mise en route).

Si l’on considère l’aspect long terme, il faut se situer dans la perspective de la transition énergétique.
Toutes les études prévisionnelles démontrent que le coût de l’électricité est appelé à augmenter très significativement, on parle de doublement, voire de triplement pour les pays qui pratiquent aujourd’hui des prix très bas.
En France, les tarifs de l’électricité sont parmi des plus bas d’Europe.
La crainte des usagers méfiants est donc parfaitement fondée, mais hélas on n’y peut rien…
La transition énergétique nous coûtera très cher, il n’y a pas de miracle.

6- La crainte de devoir changer d’abonnement à cause de disjonctions plus fréquentes en rapport avec la pause du Linky.
Effectivement, avec l’ancien compteur, la surveillance des dépassements de puissance souscrite était confiée au disjoncteur, lequel était très tolérant sur la valeur du courant de disjonction.
Le nouveau compteur surveille lui-même la valeur de puissance max soutirée, et avec une précision qui ne permet aucun abus.
Il s’agit là de la simple correction d’une situation de tolérance excessive, que les impératifs de la transition énergétique ne peuvent plus accepter.

7- Le refus de cautionner une dépense qualifiée d’injustifiée, avec l’argument que l’ancien compteur (Electro mécanique ou CBE) suffit à réaliser le comptage des consommations.
Cet argument traduit simplement la méconnaissance des finalités de la transition énergétique, de ses enjeux, et des impératifs techniques qui en découlent.
Cette méconnaissance est surtout un indice d’un défaut de communication des autorités de tutelle.
Pour un investissement de 5 Milliards, 35 Millions de compteurs seront installés, dont la durée d’utilisation sera de l’ordre de 15 ans.
L’un des objectifs principaux de ce nouveau compteur est de réduire les pics de puissance demandée grâce à un lissage intelligent des appels de courant des utilisateurs.
Aujourd’hui en France, la puissance maximale cumulée demandée par les utilisateurs atteint environ 100 GW dans le pire des cas. Il faut donc entretenir un outils de production capable de fournir cette puissance.
Si le compteur Linky permet de ramener cette puissance max à 80 GW au lieu de 100, il sera possible d’arrêter 20 réacteurs nucléaires de 1000 MW,  et surtout d’éviter la construction de 13 réacteurs EPR pour remplacer les 20 réacteurs arrêtés pour vétusté.
L’économie ainsi réalisée ( plus de 80 Milliards) est incommensurablement supérieure à l’investissement nécessaire à l’installation du nouveau compteur.

Une autre justification au changement de compteur, réside dans le fait que les « vieux » compteurs ne permettront pas de gérer la charge au domicile des voitures électriques.
10 millions de batteries branchées simultanément sur des chargeurs de 6 KW provoqueront un appel de puissance supérieur à 60 GW, provoquant un black-out généralisé sur tout le territoire, avec des répercussions sur le réseau européen (L’Europe constitue un seul réseau grâce à l’interconnexion des réseaux nationaux).
Et 10 Millions de véhicules électriques, cela ne représente que 28% du parc français de véhicules particuliers…

8- Le refus de devoir abandonner une situation de grande liberté dans l’utilisation de l’énergie électrique, pour entrer dans une période de liberté surveillée et de contrôle des conditions d’usage.
Il est exact que, jusqu’à présent, c’est la production qui s’adaptait à la demande, l’outil de production devait être capable de répondre à n’importe quelle demande, qui pouvait aller jusqu’à 100 GW au plan national français.
Ceci était possible grâce aux installations de production de base disponibles en permanence, sans interruptions autres que celles nécessaires à la maintenance, et qui sont programmables.
L’arrivée massive des énergies éolienne et solaire, intrinsèquement intermittentes, imposent un changement de paradigme.
Désormais c’est la consommation qui devra s’adapter à l’offre de production.
Et ceci n’est possible que par l’intermédiaire de compteurs communicants.
Donc, oui, l’usager ne pourra plus faire ce qu’il veut, il sera « incité » à gérer l’énergie avec l’objectif de maîtriser sa consommation, et de répartir ses soutirages pour lisser les appels de puissance.
Cela sera fait en concertation avec le fournisseur d’énergie, par le moyen d’incitations tarifaires, mais pas seulement.
Encore faut-il que cela soit clairement expliqué aux clients, ce qui n’est pas le cas aujourd’hui.

9- Certains abonnés s’opposent à l’installation du nouveau compteur par « sympathie » avec le lobby des opposants, qui ne présentent que les aspects négatifs (réels ou inventés) de la nouvelle application, sans jamais la situer dans son cadre réel qui est tout simplement la mise en œuvre de la transition énergétique.
Ce groupe d’indécis est généralement sensible à une présentation juste de la démarche, quand elle est réalisée de manière dépassionnée.
Ce qui est rarement le cas malheureusement.

10- Une dernière catégorie de réfractaires au Linky ne peut pas être oubliée, il s’agit des fraudeurs qui sévissent sur le réseau.
ENEDIS évalue les « pertes non techniques » (C’est le nom donné aux fraudes) à 25 TWh sur l’année, soit 5% de la production.
Le nouveau compteur permettra de réduire considérablement ces détournements.
Une réduction d’un tiers de la fraude éviterait une perte de 1 Milliard chaque année.
On comprend que cette catégorie de « clients » voit d’un mauvais œil l’arrivée du Linky.
( Les énergéticiens considèrent que cette réduction de la fraude compense très largement le coût des nouveaux compteurs).
______________________

Parmi les raisons invoquées ci-dessus pour refuser le nouveau compteur, certaines sont fantaisistes, voire fondées sur des motivations suspectes, mais d’autres méritent d’être prise en compte.
Parmi ces dernières, on peut distinguer trois catégories de motivations:
D’une part celles qui sont liées à une méconnaissance des contraintes de la transition énergétique, avec ses impératifs techniques et économiques.
D’autre part, le cri d’alarme des personnes EHS, qui prolonge la plainte contre les installations de téléphonie mobile et autres sources de CEM.
Enfin, la plainte globale contre la « violation » de l’espace privé et la liberté d’utilisation de l’énergie.

La CRE a ressenti la nécessité de prendre en compte ces situations très différentes, afin d’apporter une réponse au mouvement de protestation et surtout de ne pas laisser la parole aux seuls opposants qui « sévissent » même dans les délibérations de certains conseils municipaux.
Le souhait est que durant ces procès publics contre le nouveau compteur, la parole ne soit pas réservée à la seule accusation, mais que soient également entendus les avocats de la défense.
Il sera éventuellement demandé aux préfets de veiller à une saine communication lorsque de tels débats auront lieu dans le cadre officiel des délibérations de conseils municipaux.
Le rapport est disponible ici:

http://www.cgedd.developpement-durable.gouv.fr/IMG/pdf/010655-01_rapport_cle27279c.pdf

__________________

 

 

Repost 0
27 septembre 2017 3 27 /09 /septembre /2017 10:42

La mort annoncée du moteur thermique, encore une minute Monsieur le bourreau…

27 Septembre 2017
Le « Diesel Gate » européen n’est pas un scandale, pour deux raisons:
D’une part la très grande majorité des automobilistes conscients était parfaitement informée de l’écart anormal entre les valeurs catalogues et les valeurs en conditions d’usage « normal » pour ce qui concerne les émissions de CO2, les émissions de polluants, de particules, et les consommations, et ceci depuis plus d’une décennie, voire davantage pour les usagers un peu curieux de la chose mécanique.
D’autre part, malgré la connaissance de cette distorsion, ces mêmes automobilistes n’ont jamais boudé les modèles diesel, bien au contraire puisque ce système a tenu le haut du pavé jusqu’en 2015.
La chute des ventes constatée aujourd’hui tient plus à l’alignement des prix du carburant et à la menace de mise au rencart des voitures polluantes qu’à une vertueuse indignation écologique.
Peut-on même parler de tromperie, alors que la chose était de notoriété publique depuis l’avènement des normes Euro ?
Ce « Diesel Gate » est donc un peu éventé.
______________

Il faut reconnaître (?) aux américains le « mérite » d’avoir mis les pieds dans le plat en 2015 en taclant Volkswagen, réalisant au passage une bonne opération contre une concurrence devenue gênante.
(confirmant ainsi leur maîtrise du développement des missiles à têtes multiples…).

Après avoir tenu le rôle de vilain petit canard, VW s’est rapidement découvert des compagnons de couvée et, comme dit le fabuliste,
« ils ne mouraient pas tous, mais tous étaient frappés » .
Le couvercle de la boîte de Pandore ayant ainsi été ouvert, il est devenu impossible de cacher la poussière sous le tapis, le tas est désormais trop gros.

Bon gré mal gré, l’Europe ne pouvait que suivre le mouvement, manifestant (un peu tard) une vertueuse indignation, que d’aucuns qualifieront de simulée (j’ai même entendu le terme de « faux c… »).
Il a donc fallu se résoudre à porter l’affaire au niveau judiciaire, les protestations verbales ayant perdu toute crédibilité.

La récente plainte déposée contre PSA , par la DGCCRF, a abouti à une enquête confiée au Pôle de Santé Publique du Tribunal de Grande Instance de Paris.

Bien sûr, il n’y a pas le feu au lac de pétrole; on connaît la « célérité » avec laquelle ces affaires sont traitées par la justice, il faut laisser aux parties en cause le temps d’attacher leurs ceintures, de mettre leurs bretelles, et d’ouvrir leurs parapluies.
Plusieurs années seront nécessaires pour que chacun bétonne ses dossiers afin d’aboutir à un compromis « historique ».
Personne ne veut la mort du pêcheur.

Mais enfin, au moins on en parle…
__________________

Ce n’est évidemment pas du Palais de Justice que sortira la solution au problème des constructeurs, qui ne savent tout simplement plus comment faire pour satisfaire les normes européennes devenues draconiennes.

L’alliance du moteur thermique avec les carburants fossiles semble être arrivée au terme de ses possibilités, compte tenu des exigences écologiques du temps, justifiées au demeurant.

La course à l’échalote entre la sévérisation des normes antipollution et anti CO2 d’une part, et l’amélioration des moteurs thermiques et de leur gestion d’autre part, a trouvé ses limites.
Pour obtenir l’homologation de leurs nouveaux modèles, les constructeurs doivent désormais recourir à des artifices à la limite de la légalité.
Il est temps de siffler la fin de la partie.
________________

Cette situation aurait cependant pu durer encore quelques années, grâce à la bienveillante tolérance des autorités censées faire respecter la réglementation, et surtout grâce au bon vieux protocole de mesures NEDC dont on connait les faiblesses, pour ne pas parler de laxisme coupable.
Mais le remous suscité en 2015 par l’affaire Wolkswagen aux USA a précipité l’adoption du nouveau protocole de mesures WLTC,  beaucoup plus réaliste, et avec lequel il sera très difficile de trouver des « petits arrangements ».
Surtout avec le fameux PEMS, qui a bien l’intention de jouer le rôle du chien dans un jeu de quilles.
Mais les constructeurs savent bien que pour éloigner les chiens il suffit d’un bon grillage…

Rappelons ce qu’est le PEMS: Portable Emissions Measurement System, est une station portable (remorquable) équipée pour effectuer les mesures d’émissions de CO2 , de gaz polluants et de particules, en utilisation normale du véhicule sur un itinéraire défini et dans des conditions de roulage également définies, se rapprochant des conditions « normales ».
Les constructeurs utilisaient déjà depuis longtemps un tel système pour la mise au point de leurs modèles, mais les résultats étaient tenus secrets.
(on sait maintenant pourquoi…).

________________

Il y a donc à la fois un problème technique, un problème juridique, et un problème commercial, qui placent les constructeurs devant la nécessité de faire des choix, et assez rapidement, pour le cas où l’opération « mani pulite » se révèlerait autre chose qu’une arnaque de plus.
_______________

Concernant le problème technique, il est lui-même scindé en deux composantes souvent confondues à tort dans le même procès, ce qui brouille encore un peu plus les cartes.
________________

La première composante concerne la lutte contre le réchauffement climatique, auquel l’automobile contribue par ses émissions de CO2, à peu près directement proportionnelles à la consommation des véhicules.
Rappelons que la combustion de nos carburants dégage environ 2,28 Kg CO2 par litre d’essence, et 2,6 Kg pour le gazole.

Le respect des seuils d’émission de CO2/Km impose une réduction drastique des consommation, qui ne peut être obtenue que sur des modèles équipés de moteurs de faible puissance, considérés aujourd’hui comme le bas de gamme.
Le bas de gamme étant un secteur très concurrentiel, les constructeurs font leur marge sur les modèles de milieu et de haut de gamme, dont la consommation, c’est-à-dire les émissions de CO2, est très supérieure au seuil de la norme, et qui sont donc condamnés à moyen terme.
Il en va de même pour la pollution.
Dur dur…

La lutte contre le CO2 des voitures s’organise selon deux volets:
D’une part, l’Europe impose, par constructeur, une limite à la moyenne des émissions des VP immatriculés dans l’année, tous modèles confondus.
(C’est donc la moyenne des émissions de l’ensemble des VP neufs immatriculés par ce constructeur).
Pour 2017 cette limite est de 125g CO2/Km.
Au-dessus le constructeur de voit pénalisé assez fortement.
Pour respecter la limite, le constructeur doit opérer un mélange savant de différents types de véhicules, par exemple vendre « beaucoup » de véhicules électriques car leur taux d’émission est de 0 g/Km et une électrique compte pour trois voitures dans le calcul.
Des constructeurs peuvent s’associer pour mettre en commun leurs chiffres, et bien d’autres « arrangements » sont possibles.
Ce procédé de calcul est évidemment pernicieux car la vente de véhicules « vertueux » permet à un constructeur de vendre aussi des super 4x4 qui émettent un max.
L’essentiel c’est que la moyenne soit bonne.
Les test d’homologation actuels permettent tout juste de passer, en « bricolant » un peu, ainsi que l’on a pu le voir dans la presse.
Mais, d’une part la limite de 125g sera réduite à 95g d’ici 2020, et d’autre part le test actuel sera d’ici là remplacé par le nouveau test WLTC nettement plus sévère que le vieil NEDC.
Et là, çà ne passe plus du tout, c’est le branle-bas chez tous les constructeurs.
D’autant plus qu’il existe un projet de réduction de la limite de 95 g à moins de 80 g pour 2025 !
Pour les constructeurs il y a là une impasse.
Et ceci au-delà des problèmes de pollution, qui viennent s’ajouter aux émissions de CO2.
La solution pourrait être de remplacer les carburants pétroliers par des biocarburants, car le CO2 qu’ils émettent est licite puisque renouvelable.
Mais ces biocarburants posent eux-mêmes des problèmes:
La première génération est écartée d’emblée en raison du conflit avec les cultures alimentaires. A oublier.
La seconde génération n’a pas apporté la preuve de son efficacité écologique, notamment en raison des changements d’affectation des sols, de la déforestation, et surtout de l’énergie consommée pour la culture, la production, le raffinage, et le transport de ces nouveaux produits, énergie qui est le plus souvent d’origine fossile.
De plus, le problème des émissions de polluants gazeux et de particules fines reste entier, et le coût n’est pas encore concurrentiel du pétrole.
Quant à la troisième génération, elle n’existe pas encore…
C’est donc plutôt mal parti pour les nouveaux modèles actuellement à l’étude.
Mais la situation peut évoluer favorablement dans le futur, à l’horizon 2030.
_____________

La seconde composante du problème technique concerne les émissions de polluants gazeux, de particules fines et de nanoparticules .
Les biocarburants en émettent comme les hydrocarbures pétroliers.
On peut théoriquement les éliminer par un post traitement, mais les procédés vraiment efficaces sont trop coûteux pour le marché grand public, qui doit se contenter des méthodes approximatives dont nous voyons le résultat aujourd’hui.

Pour éliminer à la fois le CO2 et les polluants, il « suffirait » d’utiliser un carburant sans Carbone.
Bon sang mais c’est bien sûr !
L’Hydrogène est le candidat idéal, du moins au plan thermodynamique.

Çà marche, mais la mise en œuvre dans les autos se heurte à plusieurs inconvénients:
En premier lieu, les moteurs doivent être changés car l’Hydrogène s’accommode mal du moteur à explosion. Tout est donc à faire.
En second lieu, l’Hydrogène renouvelable n’existe pas encore…
Et le jour où il existera, on passera à la pile à Hydrogène associée à un moteur électrique.
Et ceci n’est pas pour demain matin…
________________

Pour sortir de cette impasse, la panoplie des solutions raisonnablement disponibles est assez réduite, en fait il n’y en a qu’une:
Remplacer le moteur thermique par un moteur électrique.
A condition toutefois que cette électricité soit produite par des moyens conformes aux engagements de la transition énergétique, ce qui n’est pas évident.

Le moteur électrique permet de gagner un rapport trois en rendement, et les émissions sont supprimées. Plus de CO2, plus de NOx, plus de particules.
C’est la solution idéale si l’on fait abstraction de « quelques » inconvénients dont nous parlons ci-après.

Les plus audacieux n’ont pas hésité à annoncer l’abandon du moteur thermique au profit de l’électrique, à un horizon lointain il est vrai, on parle de 2040, ce qui veut dire après 2050 en langage diplomatique, ou à la saint glin-glin en langage familier.
Le lecteur décidera lui-même si les annonces de Monsieur le Ministre ont valeur d’engagement de l’Etat, ou si elles devront être rangées au magasin des promesses non tenues.

Le passage à l’électricité résoudrait évidemment le double problème des émissions de CO2 et des émissions de polluants des moteurs thermiques, mais au prix d’un transfert vers les problèmes de batteries et de leur rechargement, et de la nécessaire production supplémentaire d’électricité.
Sans compter les problèmes écologiques liés à l’extraction des saumures, la préparation et le raffinage du Lithium, la fabrication des batteries, leur recyclage, et l’épuisement prévisible des sources de métaux rares qui sont nécessaires dans la technologie actuelle.

Car il ne faut considérer une solution que dans l’ensemble de la chaîne technologique concernée.
Dépenser des milliards pour supprimer la pollution et le CO2 chez nous, pour les transférer ailleurs dans le monde serait évidemment un choix désastreux.

On a vu par exemple que les biocarburants ne sont pas si « bio » que çà lorsque l’on tient compte de l’énergie (et quelle énergie ?) dépensée pour les produire, les raffiner, les distribuer, et si l’on s’intéresse aux effets secondaires de la déforestation, aux conflits avec les productions alimentaires, et à la pollution émise par les moteurs car, si le CO2 émis est renouvelable, il subsiste les gaz polluants et les particules fines de tout moteur thermique.

De même quel intérêt y aurait-il à changer pour des moteurs électriques si l’électricité est produite par des centrales à combustibles fossiles, ou nucléaires ?
En France, encourager le développement du marché de la voiture électrique alors que la production d’électricité renouvelable est notoirement insuffisante, cela revient à promouvoir le développement du parc nucléaire.
_________________

Une fois décidé (?) l’élimination du moteur thermique et son remplacement par son homologue électrique, il reste à déterminer comment l’électricité sera amenée jusqu’au moteur.

Aujourd’hui l’énergie nécessaire est stockée dans le véhicule, ce qui lui permet d’aller partout, y compris sur les chemins les plus invraisemblables (y compris sur l’eau et dans les airs) dès lors que la réserve d’énergie est suffisante.
L’usager n’imagine pas abandonner cette liberté, la voiture étant devenue une prothèse désormais indispensable.
Toute solution qui impliquerait un « fil à la patte » serait donc rejetée par la majorité.
Le train électrique n’est praticable que parce qu’il y a un véhicule autonome à l’arrivée, taxi, voiture particulière, car, qui permet d’effectuer les parties du trajet non équipées en électrique, et qui ne le seront jamais.
Le tram ou le métro, c’est bien, mais hors des agglomérations on oublie.
Il est donc vraisemblable que le concept automobile restera associé pour longtemps au principe de l’énergie embarquée.

Remarquons de l’alliance rail-route, qui existe depuis la nuit des temps, n’a jamais reçu l’accueil espéré, pourquoi?
Réponse: Essayez d’aller de Toulouse à Quimper en mettant votre voiture sur un train, vous aurez la réponse.
________________

Cette énergie embarquée peut être soit directement de l’électricité dans une batterie, quelque soit sa technologie, soit un produit énergétique capable de se transformer en électricité par un procédé quelconque, le plus connu aujourd’hui étant la pile à Hydrogène, mais d’autres peuvent être mis au point dans l’avenir ( On ne voit pas très bien lesquels, mais il ne faut pas désespérer).

Aujourd’hui c’est très majoritairement la batterie qui est utilisée, mais la pile à Hydrogène semble promise à un grand avenir, sans qu’on puisse dire si, et quand, elle pourra remplacer la batterie.
Il existe un réseau national de distribution d’électricité jusque dans les points les plus reculés.
On peut même « acheter » de l’électricité verte, y compris en Corrèze, mais il n’existe rien de comparable pour distribuer l’Hydrogène…
_______________

L’avenir est donc incertain quand à la nature de l’énergie qui sera embarquée dans le véhicule en 2040:
Hydrogène, Electricité ?
Cette incertitude se répercute sur le futur réseau de distribution.
Il faudra distribuer quoi ?
Une seule certitude: il faudra distribuer des produits conformes aux règles de la transition énergétique, c’est-à-dire porteurs d’une énergie renouvelable, décarbonée ou à carbone recyclable, et exempts de pollution.
L’électricité verte existe déjà, mais l’hydrogène vert n’est encore qu’une vue de l’avenir.
Cet Hydrogène vert sera fabriqué par électrolyse de l’électricité renouvelable éolienne et solaire. Cette filière n’existe pas aujourd’hui, faut-il le préciser.
Et il n’est évidemment pas question d’utiliser l’Hydrogène actuel, fabriqué à partir de produits fossiles !
La pile à Hydrogène est une solution pour un futur relativement lointain.
La batterie occupera le terrain pendant encore longtemps.
_________________

Et quid des besoins en énergie électrique ?

Les 300 TWh d’énergie consommée annuellement aujourd’hui par nos automobiles sous forme de produits pétroliers, devraient alors être remplacés par au moins 100 TWh d’électricité, soit la production de huit réacteurs EPR ou 7 500 éoliennes offshore de 5 MW.
Ces 100 TWh deviendront au moins 130 TWh avec de l’Hydrogène renouvelable, compte tenu de la perte de rendement de la chaîne de transformation: Electricité > Electrolyse > Hydrogène > Pile à Hydrogène > Electricité .

Cette nécessaire augmentation considérable de la production d’électricité va exactement à contre-courant des projets de la transition énergétique, qui postule au contraire une réduction drastique des besoins en électricité.
Cherchez l’erreur…
(En fait les prévisions d’EDF sont plus réalistes et sont largement supérieures à celles des plannings du Gouvernement. Devinez qui est dans le vrai…).

Autre problème, la recharge de toutes ces batteries nécessitera un réseau d’installations de très forte puissance capable de permettre les recharges rapides. La gestion de ce service ne sera possible qu’à travers un réseau de distribution électrique intelligent dont le rôle sera d’éviter les dépassements de puissance risquant de mettre en péril l’ensemble du système si plusieurs millions d’usagers s’avisent de recharger leur voiture en même temps.

Les constructeurs de voitures ne pourront donc pas décider seuls ce basculement vers l’électrique. Ils devront œuvrer en coopération avec les décideurs de la transition énergétique, le Gouvernement, les producteurs d’électricité et les gestionnaires de réseau, et bien sûr les investisseurs qui devront s’engager dans le développement et la construction des dizaines de milliers de points de recharge nécessaires.
Avec la menace de voir plus tard ces points de recharge devenir obsolètes si la pile à combustible arrive à s’imposer…

En face d’une telle incertitude sur l’évolution de la technologie, on comprend les hésitations des investisseurs à lancer de grands travaux de développement d’un réseau de recharge couvrant tout le territoire.
Distribuer de l’électricité ou de l’Hydrogène sont deux activités complètement différentes.

Il faudra donc vivre longtemps avec un réseau de recharge mité de nombreuses zones blanches, qui feront du voyage en auto une aventure qui en rebutera plus d’un.
_______________

Pour éviter ce frein au développement du marché de l’électrique, il apparaît à l’évidence qu’une solution de compromis devra être utilisée pendant la période de transition, qui pourra durer deux ou trois décennies.
(en attendant de savoir qui l’emportera, de la batterie ou de la pile à combustible).
Cette solution de compromis ne peut être que l’hybride rechargeable (PHEV), avec différentes combinaisons de capacité de batterie et de puissance moteur.
(l’hybride non rechargeable est une solution fantaisiste sur laquelle il n’y a pas lieu de s’étendre).

Le moteur électrique et le moteur thermique sont donc condamnés à vivre ensemble encore longtemps.

Le slogan actuel:
« Rouler propre en ville et polluer à la campagne » ,
a conduit à proposer des modèles PHEV équipés de batteries de très faible capacité, qui ne permettent de résoudre qu’une très faible partie du problème. Elles sont vidées en quelques kilomètres, après quoi la voiture devient une thermique ordinaire.
C’est évidemment une fausse solution, à la limite de l’arnaque, qui est appelée à disparaître rapidement.
________________

Le coût de fabrication d’un hybride PHEV est élevé, pour plusieurs raisons:
C’est une nouvelle technologie, beaucoup de plâtres sont à essuyer avant d’atteindre un niveau de stabilisation des procédés, et surtout avant de savoir ce que le client attend réellement. D’importants investissements en recherche et développement seront nécessaires.
Les coûts de production, en phase de croissance, sont nécessairement très supérieurs à ceux d’une technologie éprouvée.
Le PHEV est un concept qui repose sur une bi-motorisation, donc un coût naturellement plus élevé qu’un modèle classique.
L’électricité doit être le mode d’utilisation prépondérant d‘un PHEV, ce qui implique une batterie assurant une autonomie électrique d’au moins 150 Km, compatible avec la charge rapide.
Et l’on connaît le coût des batteries pour un marché en phase de démarrage.
_______________

Le moteur thermique ne pourra prendre sa retraite que si l’une ou l’autre des conditions suivantes est satisfaite:

- Production d’électricité verte suffisante pour alimenter un parc de véhicules électriques, associée à un réseau national de points de recharge rapide de batteries, aussi dense que le réseau actuel de distribution de produits pétroliers.
- Ou production d’Hydrogène renouvelable en quantité suffisante, associée à un modèle industrialisé de pile à Hydrogène satisfaisant le cahier des charges automobile, et à un réseau de distribution de ce gaz.

Le tout à un coût compatible avec une production de masse.
_________________

Compte tenu de tous ces problèmes, le moteur thermique a encore de beaux jours devant lui, en association avec le moteur électrique.
La tâche des constructeurs sera de trouver la formule du bon dosage batterie/carburant, pour minimiser les émissions de NOx et de particules émises par ce dernier.

___________________

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
13 septembre 2017 3 13 /09 /septembre /2017 11:59

L'IEI, Intolérance Environnementale Idiopathique, nouveau mal du siècle ?

13 Septembre 2017.  

Notre société s'est développée grâce à (ou à cause de) la technologie, qui est devenue une prothèse multiforme dont l'immense majorité d'entre nous ne peut plus se passer.
Peut-on imaginer supprimer l'électricité, les voitures, la radio, la télévision, les télécommunications, l'électroménager, l'outillage électrique, l'aviation, le téléphone, l'imagerie médicale, et bien d'autres applications désormais indissociables de notre standard de vie ?
La contrepartie de ce que nous appelons le progrès est un certain nombre de nuisances dont on s'efforce de limiter les effets grâce à des règlementations dont l'efficacité est parfois discutable, mais néanmoins susceptible de progrès.
_______________

L'accumulation de toutes ces nuisances, pour lesquelles il est bien difficile de définir des seuils critiques, finit par avoir raison de la santé physique et/ou mentale de certains d'entre nous, qui constituent désormais une population vulnérable dont les troubles sont regroupés sous l'appellation générale d'IEI, Intolérance Environnementale Idiopathique.
Le qualificatif d'idiopathique laissant présager des difficultés d'attribuer tel trouble à telle cause.
_______________

Le syndrome IEI correspond à un ensemble de signes cliniques et de symptômes variés que le patient attribue à une réaction allergique à la présence d'un ou plusieurs facteurs environnementaux d'origine non naturelle.

Ces facteurs environnementaux non naturels peuvent être classés en plusieurs catégories:
- Les champs électromagnétiques (CEM) qui sont à l'origine des syndromes EHS (Electromagnetic Hyper Sensitivity).
- Les composés chimiques, à l'origine des syndromes MCS ( Multiple Chemical Sensitivity).
- Les radiations ionisantes.
- Les conditions environnementales de travail.
- Les autres facteurs généraux, tels que le bruit et/ou les odeurs.


Nous n'évoquerons ici que l'IEI-CEM .
(Encore appelé SICEM, Syndrome d'Intolérance aux CEM).
________________

Pendant longtemps les troubles IEI-CEM rapportés ici et là concernaient essentiellement les champs électromagnétiques rayonnés par le réseau de distribution d'énergie électrique à 50 Hz, et particulièrement les lignes à haute tension.
Ces troubles, affectant les populations et les animaux d'élevage, ont conduit à définir des limites de sécurité, plus ou moins respectées dans la pratique.
(On voit encore des transformateurs EDF installés à proximité immédiate d’habitations, ce qui montre l’importance du chemin qu’il reste à parcourir…).

Mais l'explosion des applications de communication utilisant des signaux numériques véhiculés par toutes sortes de supports radio ou filaires, et utilisant la totalité du spectre des fréquences jusqu'aux plus élevées technologiquement valables aujourd'hui, a créé un environnement de champs électromagnétiques auquel il est impossible d'échapper dans les zones d'habitation et d'activité intense.

L'émergence, relativement récente, d'une plainte diffuse d'une certaine partie de la population concernant divers troubles qui seraient causés aux personnes par les champs EM, a rendu nécessaire la prise en considération de ces troubles afin d'apporter des réponses à ce qui est en passe de devenir un problème de santé publique.

Les champs EM incriminés concernent pratiquement la totalité du spectre depuis les fréquences du réseau de distribution électrique (50 HZ) jusqu'aux UHF utilisées dans la téléphonie cellulaire, et les fours à micro ondes, en passant évidemment par les courants porteurs, qui tiennent aujourd'hui le haut du pavé, avec les antennes relais de téléphonie mobile, et surtout les terminaux portables 3G et 4G, et bientôt 5G.
(L’application d’un terminal 4G, bientôt 5G, à l’oreille d’un être humain jeune est une agression dont la population devrait être protégée, ce qui est loin d’être encore le cas aujourd’hui…)

S'y ajoutent les CEM créés par les myriades d'applications utilisant les liaisons radio et qui envahissent les logements (Domotique) , les automobiles et bientôt les objets connectés.
_______________

Par ailleurs, le nombre de patients qui se revendiquent EHS et dont le cas est susceptible d'être pris en considération après analyse étant faible, les structures adéquates pour les prendre en compte n'existent pas encore, en dehors des structures existantes qui ne sont ni habilitées, ni équipées, ni préparées, à traiter ce genre de cas.
La méconnaissance de la prévalence de l’EHS est une preuve du manque d’intérêt témoigné par le corps médical.
On peut parler de maladie orpheline.
_________________

Lorsque le malade a la chance d’être pris au sérieux, il reçoit une identité, il est désormais une personne EHS , Electro Hyper Sensible.
La reconnaissance de sont état est la première étape d'un chemin souvent douloureux.
Cette étiquette le sort certes de l'anonymat, mais peut aussi l'ancrer dans son malaise.
Ne parle-t-on pas de "bénéfice de la maladie" ?
Merci M.Freud.

Dans les premiers temps, le patient était "promené" de spécialiste en spécialiste, puis dirigé vers une consultation de médecine psychosomatique, voire même psychiatrique.
Aujourd’hui le regard porté sur les sujets se revendiquant « EHS » a bien évolué, le problème n’est plus nié, et il existe des consultations spécifiques comme nous le verrons plus loin.
_____________________

Les institutions internationales ont pris conscience de ce problème dès les années quatre-vingt-dix, avant même la vague EHS.
En 1996 l'OMS a initié le projet international EMF ( Electro Magnetic Fields) avec pour objectif:
" Evaluer les effets sanitaires et environnementaux des champs électriques et magnétiques statiques ou variables de 0 à 300 Giga Herz".
L'intention sous-jacente était de ne pas réitérer les erreurs commises autrefois s'agissant de cancérogènes courants tels que la cigarette, les rayonnements ionisants et l'amiante.
Le résultat de ces travaux est accessible dans la base de données à cette adresse:
www.emf-portal.org
Dont le contenu est complété en temps réel par les nouvelles publications.
Plus de 25 000 articles sont disponibles à ce jour.

L'exégèse du contenu de ces articles est une tâche qui nous dépasse.
Il ressort cependant que le passage de ce contenu technique à des décisions concrètes de l'OMS sous forme de recommandations, se heurte à des difficultés dont certaines sont liées à des conflits d'intérêt.
En effet, on imagine sans peine les pressions qui peuvent s'exercer de la part de l'industrie sur une institution dont les avis sont susceptibles d'avoir des répercussions importantes par les recommandations concernant la fixation des seuils limites d'émission.

Citons simplement un article paru en Juin 2017 dans l'"International Journal of Oncology", que l'on peut trouver ici:

https://www.spandidos-publications.com/10.3892/ijo.2017.4046
Qui décrit très bien le contexte dans lequel sont analysés les résultats des différentes contributions.
_______________

Le problème des CEM comprend plusieurs volets:
- D'une part l’activité scientifique de recherche des effets des CEM (Plus généralement des radiations non ionisantes) sur les organismes vivants, effets thermiques mais aussi biologiques.
Ces recherches scientifiques portent sur les interactions des ondes avec la matière vivante, dans tous les domaines de fréquences, de durées, d'intensités et de types de modulations.
Il s'agit de comprendre les modes d'interactions au niveau biologique, jusqu'à l'échelle de l'ADN et des composantes épi génétiques.
C'est une recherche scientifique de long terme dont les travaux sont publiés dans la base de données de l'OMS au fur et à mesure de leur production.
De nombreux résultats ont été publiés, dont il s'agira de faire la synthèse pour en tirer des conclusions pratiques.

La cohorte des sujets se déclarant EHS ne s'accommode pas facilement de ce délai indéterminé et de nombreuses voix s'élèvent pour demander que soit appliqué le principe de précaution.
Sans résultat, est-il besoin de le préciser ?
___________________

- Le second volet concerne le diagnostic de l'EHS.
Les symptômes rapportés par les patients sont d'ordre idiopathique, et par définition non spécifiques.
Pour établir un lien univoque de cause à effet entre une éventuelle surexposition à des CEM (et lesquels) et les symptômes rapportés, un interrogatoire et des examens cliniques (Et psychologiques) sont indispensables, les déclarations du patient sont évidemment insuffisantes.
En règle générale, lors d'une consultation traditionnelle, le patient décrit ses symptômes et c'est le médecin qui identifie (éventuellement) la maladie dont il souffre.
Dans le cas de l'EHS, dans la grande majorité des cas, le patient arrive avec son propre diagnostic, et attend du médecin qu'il confirme cet auto-diagnostic.
Ce n'est évidemment pas ainsi que se déroule habituellement le "colloque singulier" tel qu'il est enseigné dans les facultés de médecine.
La relation médecin-malade se trouve alors bousculée, à l'initiative du patient, ce qui a pour effet de placer l'Homme de l'art dans une situation ambigüe peu propice à un échange serein.
Quelle que soit la profession, il n'est jamais bon de chercher à apprendre son métier à un spécialiste.
En présence d'un tableau idiopathique, et afin de poser un diagnostic, il est indispensable de procéder à un examen du patient, de son environnement, en faire l'anamnèse, étendre la recherche sans négliger l'aspect psychologique.
Les examens cliniques prescrits ont pour but d'écarter la possibilité que les symptômes rapportés soient révélateurs d'un désordre physiologique sans lien avec les CEM.
Des tests peuvent éventuellement être pratiqués avec les précautions qui s'imposent pour éviter les fausses interprétations.
Ces examens doivent être pratiqués lors de consultations spécialisées en médecine environnementale.
Voir par exemple la clinique Alleray-Labrouste, consultations du Dr. Dominique Belpomme.
Concernant l'état des lieux, on pourra aussi consulter le rapport d'expertise collective publié par l'ANSES en Juin 2016, visible ici:
https://www.anses.fr/fr/system/files/Consultation_AP_2011SA0150_EHS.pdf
(297 pages tout de même…).
La prise en compte de l’EHS est donc en bonne voie, mais beaucoup de questions n’ont pas encore de réponses. Il faudra encore « quelques » années pour que l’on commence à parler d’incapacité de travail, de maladie de longue durée, voire d’indemnisations ou d’AAH (Allocation d’Adulte Handicapé).
L’éventuelle reconnaissance de l’EHS est une boîte de pandore qu’aucun responsable de la santé publique n’est pressé d’ouvrir.
N’oublions pas que derrière l’EHS se profile le MCS (Multiple Chemical Sensitivity) avec son cortège de Nox et de particules rejetés par nos automobiles, les nanoparticules présentes partout sans que leur nocivité ait été vraiment évaluée, les perturbateurs endocriniens, les produits phytosanitaires, le Radon, sur lesquels il y aurait beaucoup à dire.
Il s’agit en fait d’un terrain miné.
__________________

- Le troisième volet se rapporte aux moyens de protection contre les surexpositions aux CEM.
Il n'est pas question d'interdire les applications susceptibles de créer des risques de surexposition du public aux CEM; jeter le bébé avec l'eau du bain n'a jamais été le meilleur moyen de résoudre les problèmes.

Autrefois, l'énergie électrique distribuée dans les logements sous la forme d'une tension alternative de 110 Volts, puis 230 Volts,  est vite apparue comme un risque d'électrocution des personnes.
La solution a été non pas d'interdire cette technologie et de continuer à s'éclairer à la bougie, mais plutôt de raccorder les logements avec un fil de neutre et une Terre, et placer un disjoncteur différentiel ( Liaison BT en régime TT).

La même démarche doit être appliquée à la recherche de solutions pour réduire les risques de surexposition aux CEM.
Aujourd’hui il faut reconnaître qu’il règne une certaine anarchie susceptible de créer des situations de surexposition aux CEM.
Il est temps d’y mettre bon ordre, encore faut-il savoir quel est le résultat à atteindre pour que l’explosion des télécommunications ne génère pas un problème de santé publique.

Il existe des règlementations fixant des seuils d’émissions de CEM.
Il faut donc dans un premier temps vérifier le respect de ces seuils, et ensuite mettre en œuvre les moyens connus de réduire les champs, en attendant d’éventuelles mesures réglementaires modifiant les seuils .

Les moyens de protection peuvent être très divers:
- Rationaliser la distribution de l'énergie électrique dans les bâtiments.
 (Ne pas câbler n'importe comment).
- Blinder les conduites.
- Utiliser du matériel "biocompatible" lorsqu'il existe.
- Monter des IAC ( Interrupteurs Automatiques de Champs).
- Etablir une mise à la Terre de qualité contrôlée.
- Limiter drastiquement l'usage du téléphone portable.
- Supprimer les téléphones DECT.
- N'utiliser que des liaisons filaires blindées pour les transmissions domestiques (Pas de CPL, pas de WiFi, pas de Blue Tooth).
- Ne monter que de l'électroménager biocompatible.
- Placer les sources d'émission le plus loin possible des lieux de vie.

Il est probable que, dans un avenir proche, l'application de règles de biocompatibilité électrique devienne obligatoire dans tous les locaux destinés à recevoir du public.
_________________

Le quatrième volet concerne le sort que la société réserve (réservera) aux personnes diagnostiquées EHS.

Certains évoquent des sortes de réserves d’indiens, baptisées zones blanches, dans lesquelles le niveau de CEM serait garanti sans effet sur les personnes sensibles.
Le principe même de ces zones repose sur une ambigüité:
- S’il est possible technologiquement de réduire à presque rien le niveau de CEM sans supprimer les applications qui en sont la source, alors pourquoi ne pas étendre ces solutions à l’ensemble du territoire ?
- D’autre part, si la réduction drastique du niveau de CEM implique la suppression de certaines applications, alors lesquelles, et quels services seraient supprimés sans nuire à la qualité de vie et à la sécurité des biens et des personnes ?
On pense notamment au réseau de téléphonie cellulaire, aux applications domotique utilisant les CPL, le Wi-Fi, à tous le objets connectés présents et futurs, aux appareils ménagers à induction, aux onduleurs des installations photovoltaïques, aux bornes de recharge des véhicules électriques, et bien entendu aux éclairages publics, et aux véhicules « connectés » .
Les sujets EHS accepteront peut-être ces contraintes, mais qu’en sera-t-il des personnes « non EHS » devant se rendre dans une zone blanche, par exemple la famille, les amis, les employés des services divers, publics ou privés ?

Le problème des suites à donner aux constats d’EHS ne peut être traité indépendamment des autres problèmes d’intolérance environnementale que nous avons rappelés plus haut. C’est l’IEI en général qui devra faire l’objet d’une prise en charge spécifique par des structures médicales appropriées, équipées pour définir le niveau d’atteinte du sujet, lui proposer un parcours de soins et, dans les cas extrêmes, le rattacher à un régime d’incapacité ouvrant éventuellement droit à réparations.
Un long chemin en perspective…
__________________

 

 

 

 

Repost 0
31 août 2017 4 31 /08 /août /2017 19:20

Le solaire photovoltaïque, encore trop cher ?

1er Septembre 2017

Nous avons vu, dans les articles précédents, que l'éolien offshore est une technologie très coûteuse, ce qui au demeurant n'est pas surprenant s'agissant d'un domaine en développement, et d'implantations dans un milieu très hostile.

Il en résulte des coûts de production très supérieurs aux prix actuels du marché, et donc la nécessité de compenser cet écart par des subventions très conséquentes, dont le montant est chargé sur les taxes payées par le consommateur.

Ce système de vases communicants est "acceptable" tant que la part de l'éolien offshore reste faible, quelques pourcents.
Au-delà, le montant des subventions deviendra exorbitant et ce système devra être remplacé par un autre montage, mais lequel ?

Qu'en est-il du solaire photovoltaïque  ?
______________________

La transition énergétique impose d'abandonner le concept de production centralisée dans quelques très grosses installations baptisées justement "centrales", au profit d'un concept de production décentralisée regroupant une multitude de petites installations dont les puissances peuvent varier de 3 KWc pour les petits producteurs particuliers de photovoltaïque en toiture, jusqu'à plusieurs centaines de MWc pour des parcs importants, notamment éoliens offshore.

Ce nouveau concept se concrétise, entre autres, par la possibilité de pose de panneaux PV sur toute surface apte à les recevoir:
Toitures de bâtiments, ombrières de parkings, auvents, façades de bâtiments, voire même voies de circulation ou véhicules automobiles.

A terme, il s'agit de susciter un mouvement vers une part d'autoconsommation, ce qui réduirait les pertes en lignes, et d'autre part diminuerait le besoin de puissance sur le réseau national.

Par exemple, vingt millions de "petites" installations de dix MWh en autoconsommation représenteraient 200 TWh annuellement, soit 40% de la production nationale actuelle, ou encore la production de 15 réacteurs EPR.

Encore faut-il que cette autoconsommation n'entraîne pas un surcoût trop important pour les usagers par rapport au coût de l'électricité du réseau.
__________________

Voyons ce qu'il en est des petits producteurs particuliers exploitant la production de quelques panneaux posés en toiture.
La puissance de l'installation est limitée à 3 KWc.

Aujourd'hui cette production est majoritairement vendue en totalité à EDF-OA (ou aux ELD) dans le cadre du régime de l'obligation d'achat défini par arrêté.
Ce système est étendu depuis 2016 aux autres fournisseurs d'énergie électrique, grâce au nouveau mécanisme de "complément de rémunération" versé directement aux producteurs, qui vendent alors directement leur électricité sur le marché, ou à un "agrégateur" qui procure des clients.
ENERCOOP est le premier fournisseur alternatif à "bénéficier" de ce nouveau système.
D'autres suivront rapidement.
Les anciens contrats EDF-OA peuvent être transférés sur le nouveau système à certaines conditions.

Nous ne parlerons ici que du système historique d'obligation d'achat par EDF, qui demeure majoritaire.

Le tarif d'achat dans le cadre du mécanisme légal de l'obligation d'achat (OA), est défini avec la CRE (Commission de Régulation de l'Energie), et fixé par un arrêté tarifaire.
Ce tarif est révisé périodiquement.
Son montant vise à encourager les particuliers à choisir cette option, sans pour autant créer un effet d'aubaine.

Pour bénéficier du tarif le plus favorable dans un contrat avec obligation d'achat, il faut vendre la totalité de la production à EDF-OA.
Aujourd'hui ce tarif est fixé à 18,7 cts/KWh  + 4,5 cts/KWh (Prime IAB, Intégration Au Bâti)
Soit 23,2 cts euro / KWh.
(Tarif de Juin 2017).

C'est plus de quatre fois le prix de production EDF du KWh électro nucléaire, confirmé par la Cour des Comptes (5,4 cts euro le KWh).

Rappelons que ce tarif "d'encouragement" est garanti sur vingt ans, soit jusqu'en 2 037 pour les contrats signés récemment.
De plus, ce tarif, ô combien préférentiel pour ne pas dire de complaisance, est indexé sur les données de l'INSEE relatives à l'évolution des coûts horaires et des coûts de production. Il peut donc évoluer en cours de contrat à la hausse, mais aussi (plus rarement) à la baisse.
Cette évolution étant évidemment impossible à prévoir puisqu'elle est intimement liée à l'évolution de l'économie sur le long terme, laquelle n'est connue que de Madame Irma.

Le tarif d'achat contractuel (Celui valable au moment de la signature du contrat) varie donc en fonction de la date de signature du contrat.
Par le passé, il fut très supérieur à 23,2 cts euros / KWh, c'était l'euphorie…Il est vrai que les panneaux étaient plus chers à l'époque.
Le tarif actuel est censé tenir compte de la baisse des coûts des panneaux chinois.

____________

Ce principe, ce qu'il faut bien appeler une subvention, est appliqué à toutes les énergies renouvelables, avec des taux différents bien sûr.
Il en résulte un montant global de subvention qui devient colossal lorsque la production de renouvelables sous obligation d'achat devient elle-même importante.
(Quand on ajoute la subvention versée à celui qui fabrique de l'électricité renouvelable, à la subvention versée sous forme de prime à l'acheteur d'une voiture électrique, cela fait beaucoup d'argent…).
_____________

EDF fabrique son électricité en quasi-totalité, et donc maîtrise ses coûts de fabrication, qui ne dépendent pas des aléas de la bourse de l'électricité, sauf à la marge.
En moyenne son coût de production est autour de 6 cts euro/KWh.
( 5,4 cts pour l'électronucléaire, beaucoup moins pour l'hydraulique, et un peu plus pour le thermique de relève).

L'obligation pour EDF d'acheter une partie de son électricité à près de quatre fois son propre coût de fabrication (23,2 cts euros/KWh au lieu de 6), crée évidemment une perte financière qui doit être compensée sous peine de faillite assurée.
Les KWh achetés 23,2 cts euro au particulier producteur de photovoltaïque, sont revendus aux abonnés aux environs de 6 cts euros au tarif réglementé.

Imaginez un épicier qui serait d'une part obligé d'acheter ses fraises à 12 euros le Kg, et d'autre part obligé de les revendre à 3 euros…

Mais, s'agissant d'une mission de service public confiée à EDF par le Gouvernement, cette compensation financière ne pose pas de problème.
(Sauf pour l'abonné, qui doit régler la petite note).

En effet, pour compenser cette hémorragie financière, l'Etat fait appel au système du "mécénat forcé" appelé pudiquement "contribution", et qui consiste à puiser dans la poche de l'ensemble des abonnés l'argent qui sera ensuite généreusement redistribué aux quelques clients qui ont choisi de fabriquer du courant pour le revendre au fournisseur à prix d'or.

En fait, cette opération onéreuse a pour but d'amorcer la "pompe" photovoltaïque afin de faire démarrer ce marché qui doit constituer un élément important de la transition énergétique.

Officiellement, dans cette opération, EDF n'est que l'intermédiaire entre l'Etat et le client abonné, un peu comme pour la TVA.

Les sommes recueillies sont versées à la Caisse des dépôts.

Cette contribution, appelée CSPE, Contribution au Service Public de l'Energie, sert également à financer de nombreuses autres "bonnes actions" comme le développement de l'éolien, y compris offshore, et tout ce qui se rapporte aux énergie renouvelables et à la chasse au CO2.
Une ponction appelée à significativement augmenter dans l'avenir…

Précisons que nous approuvons le plan de développement des énergies renouvelables. Notre propos ici est de montrer que la mise en œuvre de ce plan va nous coûter très cher, contrairement aux annonces claironnées dans une certaine presse.
___________________

Tant que cette façon "artisanale" de produire du courant pour le vendre aux fournisseurs est minoritaire, voire sporadique, la saignée financière correspondante demeure gérable sans déclencher la colère des abonnés.
(35 millions d'abonnés peuvent financer les fantaisies photovoltaïques de quelques centaines de milliers d'apprentis électriciens sans se ruiner).

Mais la situation deviendrait intenable si la part du photovoltaïque domestique produite sous ce système atteignait des valeurs importantes:
Une part de 10% de la production nationale conduirait à un niveau de subvention de 9 Milliards par an au tarif d'achat actuel !!!
___________________

A 23,2 euro le KWh, le consommateur-producteur gagne-t-il au moins de l'argent ?  
Rien n'est moins sûr…

Selon la profession, une installation photovoltaïque domestique d'une puissance maximale de 3 KWc, avec panneaux intégrés à la toiture, nécessite un investissement compris entre 9 000 et 12 000 euros TTC incluant les  panneaux, les câbles, l'onduleur, les batteries, le matériel de raccordement, la main d'œuvre, les travaux sur la toiture, le raccordement au réseau, les frais de dossier, etc.).
Nous retiendrons la valeur moyenne de 10 500 euros.

Le projet bénéficie (Plus pour longtemps) d'une prime fixée à 1 200 euros, dont le versement est étalé sur cinq ans.

Le coût à la charge du client est donc en moyenne de 9 300 euros.

Les frais d'exploitation sont faibles, mais non nuls:
Prime d'assurance, redevance, contrat d'entretien, remplacement probable d'un onduleur, intervention en toiture, etc.
Estimés à une centaine d'euros par an, soit 2 000 euros sur la durée du contrat de vingt ans.

Le coût total en charge du client est donc de l'ordre de 11 300 euros, hors intérêts d'un éventuel emprunt et hors frais supérieurs à cent euros par an, considérés comme exceptionnels, quoique….


Selon la profession, et dans les meilleures conditions d'ensoleillement (Montpellier), une installation de 3 KWc produira en moyenne une énergie de 4 000 KWh par an, soit 80 000 KWh sur vingt ans, en négligeant la perte de rendement liée au vieillissement des panneaux.
(Perte non négligeable au demeurant puisqu'elle peut atteindre 5 à 10% au bout de 20 ans)

Le chiffre d'affaire de l'installation sera donc de
4 000 KWh x 20 ans x 23,2 cts euros = 18 560 euros au prix d'achat 2017.
(Ce prix pouvant varier à la hausse ou à la baisse selon l'indice INSEE).

De ce chiffre d'affaire, il faut déduire le coût de l'installation et les coûts d'exploitation cumulés, soit respectivement 9 300 euro et 2 000 euro.

11 300 euros auront été dépensés pour la construction de l'installation et son coût d'exploitation.
18 560 euros auront été obtenus par la vente de la production sur la durée du contrat (20 ans).

Le solde positif de 7 260 euros représente l'équivalent de l'augmentation d'un capital initial de 11 300 euros placé à 2,8% sur 20 ans.
Ce n'est pas un hasard.
Le prix d'achat fixé à la signature du contrat est calculé de manière à obtenir ce résultat.
(Le client producteur doit y trouver son compte, sans que l'affaire devienne un jack-pot).

Au prix d'achat de 23,2 cts euro/KWh, et sur la base d'une production d'environ 4 000 KWh/an, l'investissement de départ est amorti en 12 ans environ.

Il faut préciser ici que notre exemple est plutôt favorable, en ce sens que les conditions réelles peuvent être (sont souvent) différentes:

- Le coût de l'installation peut être supérieur à 10 500 euros, selon l'importance des travaux en toiture, le type et l'origine des panneaux, les problèmes d'accessibilité, de coût de main d'œuvre selon la région, notamment le coût du contrat d'entretien, etc.
On cite des coûts de 15 000 euros…
- Si un emprunt a été souscrit, il faut ajouter les intérêts du prêt au coût total.
- Tout le monde n'habite pas Montpellier. L'ensoleillement peut être notablement inférieur (20 à 30%) à celui de notre exemple, et donc aussi la production annuelle, ce qui réduit d'autant le chiffre d'affaire.
- L'orientation du toit n'est pas toujours optimale, un écart de 10 à 20 degrés entraîne une baisse de production significative.
- Nous avons estimé le coût d'exploitation à 200 euro/an. C'est une valeur minimale, il est fréquent d'avoir à remplacer l'onduleur, et/ou d'avoir à faire des travaux d'étanchéité sur le toit, parfois même remplacer un panneau.
- Nous n'avons pas tenu compte de la perte de rendement des panneaux en fonction du temps. Cette perte de productivité, qui peut atteindre quelques pourcents, se répercute sur le chiffre d'affaire.

Beaucoup de raisons donc de voir chuter la rentabilité financière de l'installation, et autant de raisons de regarder de très près le devis d'installation, le mode de financement, et le calcul de productivité.


Heureusement, si le matériel installé est de bonne qualité, le client producteur peut continuer à utiliser son installation au-delà du terme du contrat, mais plus question de vendre sa production à 23,2 cts euro le KWh !
Notre homme se trouve alors en concurrence avec le marché, qui est autour de 6 cts euro/KWh, voire moins.
Il  préfèrera en général consommer lui-même sa production, même si le rendement des panneaux est un peu plus faible qu'au départ; au lieu de 4000 KWh par an, il devra se contenter de 3000 par exemple.
Mais cela reste intéressant car l'économie réalisée est d'environ 14 cts euro/KWh ( Tarif EDF moyen actuel TTC ) , ce qui représente environ 400 euro par an.
( Un KWh produit gratuitement est un KWh de moins qu'il aurait fallu   acheter au fournisseur).
Le gain peut être beaucoup plus élevé si le tarif de l'électricité augmente de 100 ou 200% comme le prévoient la plupart des experts pour les deux prochaines décennies.
Ce qui justifie de choisir au départ du matériel de haut de gamme, qui aura une durée d'exploitation plus importante que des panneaux achetés au prix le plus bas.

Une installation de bonne qualité peut fonctionner encore correctement au-delà des 20 ans du contrat EDF.
On manque évidemment de recul pour évaluer la durée de vie relle des panneaux.

Il n'en demeure pas moins que c'est potentiellement un gouffre financier pour la collectivité.
__________________

Voyons ce qu'il en est lorsque l'on voit plus grand.
Nous avons pris l'exemple de la centrale solaire de Cestas en Gironde, mise en service fin 2015, et qui est la plus importante d'Europe.
Voici sa fiche d'identité sommaire:
- Puissance installée: 305 MWc
( MW = Méga Watt = Un Millions de Watts).
- Production estimée: 350 GWh/an.
( GW = Giga Watt = Un Milliard de Watts)
- Coût de construction:  360 Me
- Durée estimée: 25 ans.
Les panneaux sont chinois, faut-il le préciser ?

Ce parc occupe une superficie de 260 ha.
L'énergie solaire reçue à cet endroit est en moyenne de 1 400 KWh/m2/an.
Selon les estimations basées sur les données d'ensoleillement de Météo France, le parc fournira une énergie électrique de 350 GWh/an, soit 134 KWh/m2/an.
Le rendement "utile" est donc 134/1400 = 9,5%.
(Ce rendement serait plus élevé si les panneaux étaient orientables, mais le coût serait considérablement plus élevé).

Le coût de construction est de 1,18 Me/MWc, ce qui est plus faible que pour la technologie éolienne à 3 Me/MW en terrestre, 5 Me/MW en offshore posé, et davantage en offshore flottant.
Par contre le rendement est plus de deux fois plus faible, ce qui compense en partie l'écart de prix.

L'amortissement du coût de construction sur 20 ans se traduit donc par une charge de 51 euro/MWh , auxquels il faut ajouter les autres coûts, dont nous n'avons pas le montant bien entendu.
Rappelons quels sont ces autres coûts:
- Coûts financiers (Intérêts des emprunts).
- OPEX, OPerational EXpenditure.
- Charges salariales.
- Raccordement au réseau.
- Maintenance.
- Impôts et redevances.
- Etc.
La technique photovoltaïque avec panneaux fixes non orientables ne nécessite que peu de maintenance, donc ce poste de dépenses sera considérablement plus faible que pour l'éolien offshore.
Le coût de production se situe probablement entre 70 et 80 euro/MWh.
Sa vraie valeur ne nous a évidemment pas été communiquée.
_________________

Le coût de production se rapproche donc du coût de production de l'électricité "classique" ( A confirmer bien sûr) qui se situe entre 50 et 60 euros/MWh, mais reste encore très supérieur si l'on ajoute la marge.
(Et pourtant les panneaux sont chinois…).

Le Solaire PV, comme l'éolien offshore, bénéficie du mécanisme de "l'obligation d'achat", avec un prix contractuel annoncé à 105 euros le MWh pour Cestas.

Ce prix est 1,8 fois le coût de production du marché français, la différence étant payée par le consommateur, à travers la CSPE

Le surcoût, estimé à 45 euro/MWh, entraîne une "petite" note de 15,75 Millions d'euros par an, que le consommateur abonné sera convié à régler à travers la CSPE.
Heureusement, par la magie des grands nombres, chaque abonné devra verse 0,45 euros par an.
Une misère.
________________

Une question demeure en suspens au sujet du solaire:
Qui fournira l'énergie électrique la nuit ?

Posée dans une réunion sur la rentabilité d'un projet solaire, cette question ne manque jamais de jeter un froid et de doucher certains enthousiasmes.

Car enfin, durant les mois d'hiver où les besoins d'électricité sont importants, la production solaire n'est efficace que quelques heures par jour.

Les dépliants publicitaires vantant les mérites du parc photovoltaïque de Cestas, revendiquent la capacité de ces installations à alimenter une ville de 300 000 habitants en énergie électrique.

Cette affirmation fait bon marché du problème de la fourniture du courant à la nuit tombée. Elle tend à maintenir le citoyen dans l'illusion que le solaire pourrait remplacer le nucléaire ou les fossiles, ce qui est parfaitement faux dans l'état actuel des choses.

Le solaire doit impérativement être adossé à un autre procédé de production d'énergie électrique capable de prendre le relais lorsque le rayonnement disparaît.
(C'est vrai aussi pour l'éolien soumis aux fantaisies du vent).
Aujourd'hui la production solaire est très faible, sa part dans le mix électrique est quasiment négligeable, les moyens habituels (Nucléaire, thermique fossile, hydraulique) peuvent sans problème gérer ses fluctuations.

Mais lorsque le solaire et l'éolien représenteront une part importante du mix électrique, il faudra disposer d'importants moyens de production de base pour compenser l'intermittence de ces énergies nouvelles.
Or ces moyens ne sont pas identifiés aujourd'hui. Leur nécessité est même passée sous silence et ils ne figurent dans aucun plan de mise en œuvre de la transition énergétique.
Nous n'imaginons évidemment pas que ces moyens de relève puissent être des centrales thermiques à combustibles fossiles, alors que l'objectif de la transition énergétique est justement l'abandon de ces combustibles…

Cette énorme lacune devra être comblée un jour, et représentera une dépense considérable, aujourd'hui glissée sous le tapis.
_____________________

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
7 août 2017 1 07 /08 /août /2017 15:24

Cher, très cher éolien offshore…

7 Août 2017

Le coût de construction d'un parc éolien offshore posé* s'établit autour de 5 millions d'euros le MW installé.

C'est le coût négocié pour des grosses éoliennes de 8 MW, tel qu'il est constaté pour les projets actuels de 50 à 100 machines.
(Notamment dans le projet de parc offshore de Saint-Brieuc, qui comporte 62 machines de 8 MW pour un montant de 2,5 Milliards d'euros).
Ce parc doit commencer à produire en 2019.

*Par opposition à l'éolien flottant, beaucoup plus cher.

_______________

Ce coût est exorbitant, tout le monde en conviendra.
40 Millions d'euros pour une seule éolienne qui produira 24,5 GWh d'électricité annuellement, cela nous conduirait à débourser plus de 21 Milliards d'euros pour obtenir une production d'énergie égale à celle d'un seul réacteur EPR !!!
Soit exactement deux fois le coût de ce réacteur, lui-même déjà considéré comme une folle dépense injustifiée.
_______________

Ce capital éolien de 2,5 Milliards investi à Saint-Brieuc devra être remboursé sur une durée de l'ordre de vingt ans, ce qui fera peser sur chaque MWh produit une charge d'environ 83,3 euros (hors intérêts) durant cette période, soit jusqu'en 2040 !
(La durée des éoliennes offshore construites actuellement est estimée à 20-25 ans).

Même si, entre temps, le coût de construction des installations diminue, ces 2,5 Milliards là devront être remboursés.

Lorsque ce coût de construction sera amorti, au bout de vingt à vingt-cinq  ans, il faudra songer à démanteler les installations car elles seront en fin de vie, et donc reconstruire un nouveau parc.

Alors que l'EPR continuera de produire, pendant encore 20 à 30 ans, et à un coût réduit puisque l'investissement sera amorti
___________________

Ce coût de construction éolien ne représente qu'une partie des dépenses qu'il faut engager pour produire de l'électricité.
En effet, pour connaître le coût de production, il faut ajouter "quelques" autres menues dépenses:
- Coût financier ( Intérêt des emprunts).
- Coût de raccordement au réseau.
- Coût d'exploitation (OPEX, Operational Expenditure).
- Charges salariales.
- Coût de la maintenance.
- Impôts et taxes locales.
- Redevances d'occupation des zones littorales.
- Etc, etc.

Pour l'éolien offshore, les coûts de production évoqués couramment sont de l'ordre de 150 à 200 euro par MWh.

A ce coût brut de production, il faudrait normalement ajouter le coût des installations de compensation de l'intermittence, qui sont considérables:
Centrales thermiques à gaz, Stations de pompage-turbinage, centrales hydrauliques de barrages, centrales d'électrolyse et piles à Hydrogène, stockage sur batteries, etc….
Aujourd'hui ce coût est prix en charge par la collectivité, c'est-à-dire que l'argent est pris dans la poche du consommateur, vous et moi.
(Voir la rubrique CSPE de la facture d'électricité).
_________________

Au fait, quel est le coût de production de l'électricité aujourd'hui ?

Actuellement en France plus de 75% de la consommation finale d'électricité est fournie par les centrales nucléaires.
Le coût de production de cette électricité est de 54,5 euros/MWh, selon la réévaluation de la Cour des comptes, tenant compte des dépenses engagées pour renforcer la sécurité suite à la catastrophe de Fukushima.
Les coûts initiaux de construction étant amortis depuis longtemps, les 54,5 euros représentent essentiellement l'OPEX et la grosse maintenance.

Ici il faut noter que les coûts du démantèlement, du stockage des déchets radioactifs, et des éventuelles indemnisations suite à un accident nucléaire ne sont pas compris dans les 54,5 euros…
Même si ce coût annoncé est discutable, c'est lui qui sert de base à la fixation du tarif règlementé de l'électricité.
(C'est ce coût qui sert au calcul du montant de votre facture).

Par ailleurs, 10% de notre consommation d'énergie électrique provient de l'hydraulique, dont le coût de production est de 22 à 30 euros/MWh, qui sont essentiellement des coûts d'exploitation car les installations hydrauliques sont également amorties depuis longtemps.

Environ 10% de la production électrique restante sont fournis par les centrales thermiques, dont le coût de production est de 70 à 120 euros/MWh, et qui ne fonctionnent que pour assurer les pointes de consommation.
Le reste est fourni par les renouvelables, éolien terrestre et solaire PV.

Depuis 2011, les fournisseurs d'électricité alternatifs bénéficient de l'ARENH ( Accès Régulé à l'Elecricité Nucléaire Historique) pour des volumes définis par le régulateur ( la CRE, Commission de Régulation de l'Energie).
Aujourd'hui ce volume est d'environ 100 TWh, au total.
Ce tarif est aujourd'hui de 42 euros/MWh, donc inférieur au coût de production.
Il permet aux fournisseurs alternatifs de se développer en pratiquant des tarifs "compétitifs".
Tout ceci est bien entendu discutable.

Ceci vaut pour les contrats "à terme".
Il existe également la possibilité de s'approvisionner sur le marché Spot, beaucoup plus volatil, avec des prix très fluctuants (Marché "Day ahead" géré par Epex-spot France).

Globalement, le faible coût de l'électricité hydraulique compense plus ou moins le coût élevé des centrales thermiques, en sorte que le coût de production moyen se situe autour de 55 à 60 euros le MWh.

Ce coût représente en moyenne le tiers  de la facture d'électricité du consommateur qui bénéficie de la tranche inférieure à 36 KVA.
La facture se décompose ainsi:
- Le prix de vente HT , incluant la marge éventuelle du fournisseur d'électricité.
- L'abonnement.
- La TCFE, Taxe sur la Consommation Finale d'Electricité.
- La CTA, Contribution Tarifaire d'Acheminement électricité, qui couvre les coûts des gestionnaires du réseau ( RTE, ENEDIS, et les ELD ).
- La CSPE , Contribution au Service Public de l'Electricité, qui finance les charges du service public de l'énergie, notamment le soutien au développement des énergies renouvelables: 22,5 euros/MWh.
- La TVA à 5,5% sur l'abonnement.
- La TVA à 20% sur la consommation.

Il faut retenir qu'aujourd'hui le coût de production de l'électricité est d'environ 55 euro/MWh.
A mettre en face des coûts de production éolien offshore, compris entre 150 et 200 euros/MWh !!
_______________

Un fournisseur d'électricité peut donc trouver sur le marché de gros un produit dont le coût se situe dans une fourchette de 42 euros/MWh (Contrat ARENH)  jusqu'à 80 euros/MWh s'il doit acheter son électricité sur le marché Epex-spot  Day ahead, s'il lui manque des MWh pour fournir ses clients. Le prix moyen se situant autour de 55 euros grâce aux contrats "à terme".

Face à ces prix de marché, l'électricité éolienne offshore est donc complètement hors du coup, puisque le simple amortissement du coût de construction atteint déjà 83 euro/MWh hors intérêts, le prix de revient "tout compris" étant de l'ordre de 150 à 200 euro/MWh*, soit trois fois le prix de marché de gros !!!

Ce fournisseur n'a donc à priori aucune raison d'acheter de l'électricité à 150 ou 200 euros le MWh, puisqu'il peut s'en procurer sur le marché pour 50 euros !

Pourquoi un épicier irait-il acheter à Rungis des fraises à 10 euros le Kg s'il peut trouver les mêmes à 3 euros ?
Rappelons, pour ceux qui en douteraient encore, qu'un  MWh sortant à 54 euros d'une centrale nucléaire, est identique à un MWh sortant à 180 euros d'une éolienne offshore.
Ce qui n'est pas toujours le cas des fraises…
 __________________

Aujourd'hui l'éolien offshore ne peut donc tout simplement pas être mis sur le marché sans le secours d'une très confortable subvention, qui prend la forme d'un prix d'achat "de complaisance", très supérieur au prix du marché.
Dans notre cas, le prix d'achat serait entre 150 et 200 euro/MWh.
(On parle même de 220 euros/MWh pour Saint-Brieuc).

Ce prix d'achat de complaisance s'accompagne d'une obligation d'achat par EDF et les ELD ( Entreprises Locales de Distribution) .
(Sans cette obligation d'achat, personne n'en voudrait évidemment…).

Les malheureux fournisseurs qui sont obligés d'acheter cette électricité de luxe sont EDF et les ELD (Entreprises Locales de Distribution).

Mais rassurons-nous, ils sont dédommagés par l'Etat qui leur rembourse le surcoût.
Et qui paye tout çà ? Vous et moi comme d'habitude (Voir CSPE).
___________________

Ces libéralités sont supportables par la collectivité tant que la part de l'éolien offshore reste modeste.
En France aujourd'hui cette part est nulle comme chacun sait.
Lorsque le parc de Saint-Brieuc sera productif, il fournira 0,3% de la production électrique française, pas de quoi bouleverser nos habitudes.

Mais Saint-Brieuc n'est qu'un démonstrateur, le précurseur d'une longue série de machines appelées à "décorer" nos côtes.
Si ces projets grandioses se réalisent, la situation deviendra intenable, le montant global des subventions atteignant des sommes astronomiques.
Une danseuse, çà va, mais un corps de ballet, c'est ruineux.

D'autant plus que ce modèle d'économie subventionnée s'applique également au photovoltaïque, à la voiture électrique, et bientôt aux biocarburants de seconde et troisième générations.

Nous courons à la ruine…
___________________

Cette impasse (Car il s'agit bien d'une impasse) commence à poser problème aux Etats dont la production offshore devient significative, et qui voient d'un mauvais œil débarquer cette électricité à plus de 150 euro/MWh, alors que les prix de marché sont au tiers de cette valeur.

Continuer à subventionner à tour de bras, c'est la ruine assurée.
La ruine du consommateur évidemment, pas celle des investisseurs…

En effet, grâce à la combinaison de l'obligation d'achat et de l'application du tarif de complaisance, l'augmentation de la part de l'éolien offshore induira mécaniquement une augmentation de la facture d'électricité qui pourra aller jusqu'au doublement ou au triplement.

Quelques projets de parcs éoliens offshore ont déjà été bloqués pour cette raison.
____________________

Les spécialistes de l'éolien offshore (Siemens, Iberdrola, GE, Vestas, Eon, …) pensent pouvoir descendre le coût de construction à 80 euro/MWh d'ici 2025, mais sous diverses conditions dont la réalisation n'est pas garantie, notamment sur les puissances installées annuellement.
80 euro/MWh, c'est encore deux à trois fois le cours Epex-Spot !

Par ailleurs, il apparaît que l'extension de l'éolien offshore ne pourra être "toléré" que dans la version "flottante" qui permet d'éloigner les parcs de la côte.
Mais cette technologie est beaucoup plus coûteuse que la version "posée", pour des raisons évidentes.
Le coût du MWh sera donc impacté à la hausse, ce qui laisse un doute sur la baisse des prix annoncée.
_________________

On peut même se demander dans ces conditions s'il est raisonnable de persister dans la volonté de développer l'éolien offshore dans la technologie actuelle, qui conduit à des coûts de production trois ou quatre fois supérieurs aux prix du marché.
Et on n'imagine même pas ce qu'il en sera s'il faut passer à la technique flottante dont le coût est très supérieur.

Il n'est pas impossible que l'éolien offshore trouve ses limites non seulement dans le coût de l'énergie produite, mais aussi dans l'acceptabilité des implantations au regard des autres utilisations du littoral.

Mais il est également possible que le consommateur accepte de bonne grâce de payer son électricité trois fois plus cher, on peut rêver…

L'autre obstacle est l'occupation du plateau continental:

Rappelons que, pour produire en éolien offshore 20% de l'énergie électrique finale consommée en France, il faudrait occuper 1 400 Km de littoral avec des machines de 8 MW disposées sur trois rangs !!!
________________

Même si le problème de l'encombrement du plateau continental trouve une solution (Mais laquelle ?), il restera le problème du coût de production des parcs construits actuellement et dans les prochaines années.
Les consommateurs accepteront-ils de voir tripler ou quadrupler le prix de l'électricité ?
(Car ces mêmes consommateurs devront également payer pour les installations de compensation de l'intermittence).

Bien sûr des petits malins suggèreront de faire payer le surcoût de l'éolien offshore par les consommateurs de produits pétroliers et de gaz naturel fossiles.
Mais, comme il  s'agit des mêmes consommateurs, on ne sort pas de l'impasse.

Que l'argent soit pris dans notre poche droite ou dans notre poche gauche, il nous faudra payer…

Que le vent se révèle plus cher que le pétrole, qui s'en serait douté ?
_________________

Cette analyse des coûts permet de comprendre le peu d'empressement de l'énergéticien historique, et surtout de son actionnaire principal qui est l'Etat français (83%), à se précipiter dans le développement de l'éolien offshore où il n'y a que des coups à prendre et des sommes extravagantes à dépenser.

Pour le moment l'activité des énergies renouvelables électriques est encore faible, et son surcoût peut être absorbé par la CSPE sans trop de protestations.

Mais lorsque fleuriront les centaines de grosses éoliennes le long de notre littoral, l'addition sera dure à avaler.

Il est probable que, comme ce fut le cas pour le photovoltaïque, il faudra attendre les éoliennes chinoises pour faire baisser les coûts de production.
Et oublier nos rêves industriels…
___________________

Nous verrons un autre jour que le solaire photovoltaïque est nettement moins cher, mais reste encore notablement supérieur au prix du marché, car en France l'énergie solaire reçue n'est pas à son optimum.
D'où l'intérêt de conclure des accords de développement solaire avec les pays du Maghreb.
Mais ceci est une autre histoire…
_________________

 

 

 

 

 

 

 

Repost 0
26 juillet 2017 3 26 /07 /juillet /2017 16:46

EPR versus Eolien offshore, parlons gros sous.

25 Juillet 2017

L'EPR de Flamanville, qui est le prototype d'une série que EDF espère longue, est conçu pour fournir une puissance nominale de 1 650 MW.
Son coût de fabrication est actuellement estimé à 10,5 Milliards d'euros.

Il est censé entrer en production en 2019 pour remplacer les deux réacteurs de Fessenheim, les plus anciens, arrivés au terme de leurs bons et loyaux (jusqu'à présent) services.

Avec un facteur de charge de 90%, sa production annuelle sera de:
1 650 MW  x  8 760 heures x  0,90  =  13  TWh par an.
(Le facteur de charge de 0,9 résulte de la nécessité d'arrêter le réacteur pour remplacer le combustible, et pour les périodes de maintenance programmée ou non).

La durée de vie de ce type de réacteur est prévue pour 60 ans.

Dans le principe, l'EPR (European Pressurized water Reactor) est un REP  (Réacteur à Eau sous Pression) comme tout ceux qui constituent le parc actuel.
Il s'agit donc d'une technologie largement éprouvée depuis quarante ans. Il est un peu plus puissant ( 1 650 MW au lieu de 1 450 ) que les plus récents des réacteurs en fonction, mais il est surtout particulièrement conçu pour intégrer les fonctions de sécurité au plus haut niveau connu grâce au retour d'expérience cumulé depuis quatre décennies, en France et ailleurs dans le monde, y compris Fukushima.
Acceptons-en l'augure…
__________________

Le coût du prototype de l'EPR de Flamanville, qui dépasse les dix milliards d'euros, est jugé exorbitant par les opposants au nucléaire, qui exigent son abandon immédiat au motif que l'électricité renouvelable coûte beaucoup moins cher.

Voyons ce qu'il en est réellement en examinant de plus près le coût de l'éolien offshore posé, sur un projet concret.
__________________

Le projet de parc éolien offshore de la baie de Saint-Brieuc se compose de 62 éoliennes de 8 MW, soit une puissance installée de 496 MW, pour un investissement initialement estimé à  2,5 Milliards, hors raccordements au réseau.

Il s'agit aujourd'hui d'un projet, et on sait ce qu'il en est des estimations de coût des projets (Voir l'EPR), surtout lorsqu'il s'agit du premier du genre en France dans une technologie qui peut réserver des surprises, car l'offshore n'a que peu de rapport avec l'onshore, si ce n'est que tous deux brassent du vent.

Notons tout de même que le coût de 5 millions d'euros par MW correspond aux standards connus du marché pour une technologie offshore "posée".
(L'offshore flottant serait beaucoup plus cher).

Pour un facteur de charge de 35%, qui correspond aux standards constatés sur les parcs offshore existants, la production annuelle sera donc en moyenne de:
496 MW x 8760 heures x 0,35  =  1,5 TWh par an.

Il faudra donc plus de huit parcs comme celui-ci, soit 537 éoliennes, pour égaler la production d'un seul EPR, et donc un coût de construction de 21,7 Milliards, hors raccordement au réseau.

La durée de vie des éoliennes offshore est estimée à 25 ans, terme au-delà duquel les installations devront être démontées et remplacées.
Pour produire pendant une durée à peu près équivalente à celle de l'EPR, il faudra donc remettre au pot 21,7 Milliards (Au coût d'aujourd'hui), soit plus de 43 Milliards au total.
 __________________

10,5 Milliards d'un côté, 43 Milliards de l'autre, tout commentaire est inutile.
Sinon pour remarquer que les accusations portées contre le coût du prototype de l'EPR, qui serait un gouffre financier, ne reposent sur aucun fondement.
(Nous parlons plus loin des véritables inconvénients de l'EPR, et de l'électronucléaire en général).
__________________

Mais il ne faut pas s'arrêter aux coûts de construction, qui ne représentent évidemment qu'une partie des dépenses.
Il faut ajouter les autres coûts tels que coûts financiers, coûts de raccordement au réseau, coûts d'exploitation, coût de la maintenance, coût des appros, coûts salariaux, coûts du foncier, redevances, taxes, impôts,  provisions, etc, etc.
Et bien entendu les coûts induits par l'impact sur l'environnement, et l'éventuelle adaptation du réseau au mode de production.
_________________

Il faut rappeler que l'éolien est un système de production intermittente, qui nécessite d'être adossé à des installations de compensation de cette intermittence, car le réseau ne saurait s'accommoder d'une fourniture sporadique d'énergie.

Cette contrainte, pourtant évidente quand on se donne la peine de regarder les courbes de production des parcs existants, a longtemps été très sous estimée, voire même glissée sous le tapis afin de ne pas nuire à la promotion de cette technologie.
C'est également vrai pour le solaire.

Bien que reconnue aujourd'hui, cette nécessaire compensation de l'intermittence n'est toujours pas prise en compte dans les évaluations de coût d'une projet éolien (ou solaire).  
Elle est chargée sur les dépenses de consommation des clients, sous forme de taxes pour le développement des énergies durables.  
Ce jeu de bonneteau qui consiste à glisser sous le tapis des dépenses gênantes afin de les faire payer par quelqu'un d'autre, ne saurait durer bien longtemps. Il faudra bien un jour pratiquer la vérité des coûts.

Cette vérité commence d'ailleurs à sortir du puits, si l'on en juge par les déboires financiers constatés en Allemagne, en Scandinavie, et au Québec.
(Nous en reparlerons dans un autre article).

La vérité des coûts viendra également de l'obligation, pour un fournisseur d'énergie, d'apporter des garanties de capacité à ses clients. Pour les énergies intermittentes, ces garanties devront être achetées à d'autres fournisseurs qui ne feront évidemment pas de cadeaux.
(D'autant plus qu'ils auront à justifier l'origine de leur propre production, qui devra évidemment être décarbonée ou à carbone recyclable).

Le système de compensation de l'intermittence peut être constitué de divers moyens:
Unités de production thermique au gaz naturel, unités de stockage par stations de pompage-turbinage, stockage réversible par électrolyse et pile à Hydrogène, ou stockage sur batteries.
De plus, il sera nécessaire de réorganiser (C'est déjà en cours) le réseau européen d'électricité, afin de pouvoir échanger de grosses quantités d'énergie entre d'une part les zones de production éolienne ou solaire et les zones de stockage hydraulique, et d'autre part les zones consommation, souvent très éloignées des premières.
Tout cela aura un coût très élevé, qui viendra s'ajouter au coût intrinsèque des nouvelles technologies de production.
Les 43 Milliards de notre appareil de production éolien équivalent à un EPR risquent de se transformer rapidement en 50 ou 60 Milliards lorsque l'on y aura ajouté les installations permettant de gérer son intermittence pour pouvoir l'intégrer au réseau.
La différence sera payée par le consommateur, c'est-à-dire par vous et moi.
Lequel consommateur prendra alors conscience du véritable coût des énergies intermittentes.
Mais comme dit l'autre, quand on aime on ne compte pas…
________________

L'EPR , en tant qu'installation de production de base, assure une production continue, sauf durant les arrêts programmés pour maintenance et remplacement du combustible.
Il ne nécessite aucun système de compensation de quoi que ce soit, pas plus qu'un aménagement spécial du réseau de distribution européen, ou un quelconque dispositif de stockage.
De plus, et c'est essentiel, il est prévu pour fonctionner 60 ans, c'est-à-dire largement deux fois plus qu'une l'éolienne offshore, ce qui constitue un avantage économique certain.

Par contre, alors que l'éolien exploite un vent gratuit, l'EPR devra fabriquer son combustible à partir de minerai d'Uranium obtenu à l'étranger, ce qui crée une dépendance qui doit être négociée au prix d'accommodements politiques parfois discutables.
(Il est vrai qu'il existe de nombreux sites d'extraction dans des contrées "civilisées", avec lesquelles il est possible de négocier sans vendre son âme au diable).
________________________

Le véritable débat n'est pas sur le coût de ceci ou de cela, mais bien plutôt sur les risques que nous sommes prêts à assumer ou à faire porter sur les générations futures.

Et là la comparaison est sans appel.

Le risque nucléaire, qui a longtemps été une éventualité théorique, a cessé d'être un risque pour devenir une triste réalité depuis le ratage de Three mile island, et les catastrophes de Tchernobyl et de Fukushima.

Le gros inconvénient de l'EPR, et de l'électronucléaire en général, est lié à l'usage de produits hautement radioactifs et à la production de déchets non moins toxiques, et pour des milliers d'années pour certains.

Le traitement et la neutralisation de ces déchets n'ont pas encore trouvé de solution satisfaisante, le problème est donc reporté sur nos descendants, ce qui devrait suffire à condamner cette technologie dans les plus brefs délais.

Même si, comme on vient de le montrer, l'électronucléaire n'est pas plus cher que l'éolien offshore ( il serait même plutôt nettement moins cher ), il présente par ailleurs de tels risques de contaminations graves et durables, que son maintien comme technologie stratégique du futur ne saurait être adopté sans être préalablement approuvé par un référendum populaire.
Dont il ne sera jamais question bien entendu…

__________________

Le choix de l'éolien offshore nous garantit contre les risques majeurs, mais comporte des inconvénients qu'il ne faut pas sous-estimer:

Pour produire 100 TWh ( 20% de notre consommation finale d'électricité) en éolien offshore il faudrait 4 133 machines de 8 MW, ce qui représente près de 1 400 Km de parc éolien avec des machines disposées sur trois rangs !!

On peut raisonnablement douter de la compatibilité d'une telle invasion avec les différents usages du littoral tels que la navigation, la pêche, l'aquaculture, la plaisance, ou le tourisme et la protection de l'environnement en général.

Cet encombrement de l'espace marin pose un problème de fond dès lors que l'on considère des niveaux de production importants, représentants une part significative de la consommation (Nous avons pris 20% pour notre calcul, mais le besoin peut être supérieur).

Sans oublier bien entendu les installations indispensables de compensation de l'intermittence.

____________________

Ce n'est donc pas sur le coût des installations de production qu'il faut attaquer l'électronucléaire, mais bien plutôt sur les risques de cette technologie:
- Les récents évènements ont montré que le pire est possible, ce qui était nié encore avant Tchernobyl.
Et ce dont certains doutent encore malgré Fukushima…
- La France n'a pas de réserves d'Uranium suffisantes pour les besoins d'une production significative. Elle ne peut donc revendiquer l'indépendance énergétique pour la production électronucléaire, qui représente aujourd'hui près de 90% de la production électrique.
- Les récents évènements ont montré que la probabilité d'un accident nucléaire ultime sur un réacteur n'est pas nulle. La France possède 58 réacteurs en activité, ce qui multiplie la probabilité d'autant.
- Les dégâts causés par un accident ultime pourraient être d'une ampleur telle qu'une partie importante du territoire serait durablement rendue inhabitable, avec des conséquences humaines ingérables sans le secours d'autres pays, et un impact économique générateur d'une crise dont le pays se remettrait difficilement.
- La gestion et l'enfouissement des déchets nucléaires n'a toujours pas reçu de solution satisfaisante. Le principe du stockage réversible se heurte à des difficultés d'implémentation et de pérennité des installations, et surtout du manque de moyen d'assurer la transmission des informations aux générations futures sur des centaines, voire des milliers d'années.

On tente parfois de cacher cette "misère" potentielle derrière un vaste programme de recherches sensé nous apporter LES solutions:
Qu'il s'agisse de la surgénération, d'autres procédés de réacteurs, ou de la fusion, la fuite en avant qui nous est proposée ne rassure personne quant à l'innocuité de ces nouvelles machines qui paraissent si difficile à dompter.
Le remède risque d'être pire que le mal.
_________________

Face aux risques considérables de l'atome, la transition énergétique est peut-être la chance qui nous est offerte.
A nous de la saisir, elle ne passera pas deux fois…
__________________

Mieux vaut payer cher une transition énergétique qui nous assurera un avenir serein, que persister dans une fuite en avant dont la facture sera présentée à nos descendants.
__________________

 

Repost 0
21 juillet 2017 5 21 /07 /juillet /2017 21:01

Quatre clés pour (commencer à) comprendre la transition énergétique.

21 Juillet 2017
L'arrivée de Monsieur Hulot au Gouvernement a pu signifier, pour certains, l'entrée dans une ère nouvelle marquée par l'émergence d'une conscience écologique gouvernementale.
On allait enfin non plus se contenter de dire ce qu'on allait faire, mais également faire ce que l'on avait dit, voire ce que d'autres avaient promis auparavant sans le réaliser.
L'aura du nouveau ministre éclaire tous les aspects de l'écologie, de la défense de l'environnement au sens large jusqu'à la lutte contre le changement climatique.
Nul doute que sa participation au Gouvernement n'aura d'autre but que de promouvoir quelques-unes de ses idées généreusement exposées dans les médias depuis des décennies.
____________

L'une des premières urgences est de faire démarrer le train de la transition énergétique, qui est en gare depuis longtemps et ne manque pas de passagers bruyants qui s'impatientent, mais qui est encore dépourvu de locomotive, et surtout d'un chauffeur compétent et d'un chef de gare énergique.
La locomotive, nous en avons choisi une récemment, et qui mieux que N. Hulot pouvait être ce chauffeur providentiel ?
Dans le rôle du chef de gare, Monsieur Edouard devrait convenir  si les consignes de sa direction sont claires et volontaristes.
_____________

Pour savoir de quoi l'on parle, il est toujours bon de rappeler quelques chiffres:
Nous consommons aujourd'hui 160 Mtep d'énergie finale, soit 1 800 TWh  ainsi répartis:
480 TWh d'électricité, et 1 320 TWh hors électricité.

Ces 1 320 TWh, utilisés pour produire de la chaleur, de la force motrice, et alimenter l'industrie chimique, sont obtenus à partir de combustibles divers, dont 1 200 TWh de fossiles, le reste en bois de chauffage.
___________________

30 MWh par an et par habitant, tout compris, c'est donc la mesure de notre niveau de vie en terme de dépense énergétique.
C'est à la fois peu et beaucoup.
C'est beaucoup lorsque, comme aujourd'hui, il faut tirer cette énergie du nucléaire et de sources fossiles en voie d'épuisement, et qui de plus ne sont pas disponibles sur notre territoire national.

Mais c'est peu lorsque l'on considère les quantités colossales d'énergie que le Soleil déverse généreusement sur nos têtes, et qu'il ne tient qu'à nous de récolter.
_____________

Prenons un exemple:

Selon la carte mondiale des gisements d'énergie solaire, le territoire de France métropolitaine reçoit en moyenne environ 1 300 KWh/m2/an d'énergie solaire, sur une surface orientée au Sud et inclinée d'un angle égal à la latitude.
Soit 715 000 TWh/an.
Ou encore 12 000 MWh/an par habitant, c'est-à-dire 400 fois plus que nos besoins actuels de 30 MWh.

Bien sûr, il faut capter cette énergie, la transformer en un produit utilisable selon nos besoins, c'est-à-dire en chaleur, en force motrice, et en électricité.
Mais, même en acceptant un rendement de conversion de 20%, il devrait être possible de "récupérer" 260 KWh/m2/an.
(20%, c'est le rendement d'un panneau solaire hybride, qui produit de la chaleur et de l'électricité).

En s'en tenant à notre consommation actuelle de 1 800 TWh, tout compris et pas seulement l'électricité, il suffirait d'une surface de 7 000 Km2 pour obtenir toute l'énergie dont nous avons besoin.
Il faudrait donc y consacrer 1,3% de la superficie du  territoire national, ce qui ne paraît pas indécent en regard des surfaces consacrées à d'autres activités dont l'utilité n'est pas toujours évidente.
D'autant plus que, dans ces 1,3%, peuvent déjà figurer bien entendu les toitures des bâtiments convenablement orientés, les autres surfaces pouvant accepter un usage multiple comme une partie du réseau routier, les ombrières de parkings, etc.
Il apparaît donc que l'énergie solaire, seule, suffirait à nous procurer toute l'énergie dont nous avons besoin actuellement.

Et nous n'avons pas compté l'énergie supplémentaire que peuvent fournir l'éolien, l'hydraulique, le bois énergie, le biogaz, les biocarburants, et la géothermie…
________________

Il n'y a donc aucun problème objectif de ressources énergétiques renouvelables et décarbonées.

Les technologies nécessaires au recueil des énergies renouvelables existent depuis longtemps, y compris pour le stockage nécessaire à la compensation de l'intermittence.

Les "problèmes" que nous rencontrons sont donc des problèmes d'enfants gâtés.

Mais il est bien connu que notre société excelle dans l'art de créer des problèmes là où il n'y en avait aucun auparavant.

___________________

Que faisons-nous ?

Lorsque l'on évoque la transition énergétique, on parle essentiellement éolien, solaire, et hydraulique, c'est-à-dire électricité.
Bien sûr, ces sujets sont porteurs puisque l'électricité est au cœur de notre société technologique.

Assez curieusement, les 1 200 TWh de combustibles fossiles, que nous utilisons en plus de l'électricité, ne semblent pas intéresser beaucoup de monde; ils sont pourtant largement majoritaires  à la fois dans l'industrie, les transports, et le secteur résidentiel-tertiaire, donc également majoritaires dans les émissions de gaz à effet de serre.

On évoque certes l'exploitation de la biomasse sous forme de biocarburants et de biogaz, on parle de filière bois énergie,  mais sans en faire une affaire d'Etat, comme un truc de peu d'intérêt.
Comprenne qui peut…
Mais ce n'est pas notre propos d'aujourd'hui.

C'est donc l'électricité qui tient le haut du pavé, laissant les 66% de l'énergie finale restante se débrouiller avec les biocombustibles (Biocarburants et Biogaz), qui ont beaucoup de mal à lutter contre un pétrole et un gaz naturel fossiles toujours triomphants.
(On attend toujours une taxe carbone efficace).

En fait nous sommes priés de résoudre le problème de ces 1 200 TWh de fossiles en faisant des économies d'énergie sur le chauffage au fuel et au gaz, et en achetant des autos électriques.

Lesquelles autos électriques augmenteront significativement notre consommation d'électricité…Mais ceci est une autre histoire.

______________

Il a donc été "décidé" que la transition énergétique, c'est d'abord une affaire d'électricité, laquelle est aujourd'hui en grande majorité fabriquée dans le monde soit à partir des sources fossiles, soit à partir du nucléaire.
La part des énergies renouvelables, hors hydraulique et bois énergie, progresse, mais est encore minoritaire.

La France fabriquant son électricité essentiellement avec du nucléaire, notre transition énergétique à nous se résume donc à une affaire de politique électronucléaire.
Oui, c'est très restrictif, mais c'est ainsi.
Pour les réclamations, s'adresser à Monsieur Edouard.
__________________

Pour notre affaire de transition, l'alternative est claire:

Soit on continue avec le nucléaire ( Développement de la filière EPR pour remplacer les REP vieillissants), et alors nous n'avons pas besoin d'une transition énergétique, puisqu'on l'a déjà, au moins pour l'électricité.
(Du moins si l'on privilégie le critère du CO2, qui reste aujourd'hui l'ennemi désigné).

Soit on programme l'abandon du nucléaire, et alors on lance un vaste programme de remplacement.
(Nous disons  bien "on lance" et non "on fait des projets de lancement").
Car il est évident que l'on ne va pas arrêter des réacteurs nucléaires avant d'avoir une solution de remplacement prête à rendre la relève.
A moins que l'usager ne soit disposé à accepter des coupures de courant sauvages lors des froides soirées hivernales,…Il serait intéressant de poser la question par référendum.
_________________

Pour le Ministre, le choix n'est pas simple.
L'électronucléaire est une technologie non émettrice de CO2, donc parfaitement conforme aux directives de la transition.
Il n'y aurait donc aucune raison d'en changer.
Mais cette technologie est en même temps ce que l'Homme a inventé de pire en matière de pollution potentielle de l'environnement, elle doit donc être abandonnée, selon les critères de l'Ecologie dont M. Hulot est le porteur de drapeau attitré.

A notre connaissance l'actuel Président n'a pas fait campagne sur son désir de sortir rapidement du nucléaire.
Mr. Hulot  devra donc résoudre un dilemme:
En lui va se livrer un combat entre l'homme et le ministre.
Le premier, tenu déontologiquement d'obéir à sa conscience écologique, et le second, non moins tenu par son engagement dans le Gouvernement, à obéir  au chef d'icelui.

Difficile de tenir des engagements si contradictoires.
Mais, comme dit l'autre, "Il avait qu'à pas y aller "…
____________

Par ailleurs la transition énergétique est une affaire de plusieurs décennies. Personne n'imagine un seul instant remplacer en treize ans (2 030) les fossiles et le nucléaire par du vent, du soleil, de l'eau, un peu de géothermie, un peu de bois et de la bouse de vache.
Il nous faudra bien deux générations pour commencer à voir le bout du tunnel ( 2 080 ?).

Un premier Ministre est là au mieux pour quelques années, et un Ministre souvent pour quelques mois seulement.
Ni l'un ni l'autre ne verra le résultat de ses éventuels efforts, qui n'apparaîtra que sur le long terme.
Or les électeurs attendent des résultats à court terme, il faudra donc leur jeter quelques poignées de grain pour éviter qu'ils ne quittent le poulailler dans lequel on a eu tant de mal à les faire entrer.
_______________

Pour le moment M. Hulot a prudemment chaussé les pantoufles de ses prédécesseurs, et donc annoncé une réduction à 50% de la part du nucléaire dans la production électrique nationale à l'horizon 2025.
(Comprenez "le plus vite possible", dans la mesure ne nos moyens).
Ceci serait obtenu paraît-il en fermant environ 17 ou 20 réacteurs.
Il s'agit vraisemblablement des 6 réacteurs de la génération CP0 de Fessenheim et du Bugey, et de 11 réacteurs génération CP1 ayant été mis en exploitation avant 1981 et qui auront dépassé les 40 ans en 2021, et de deux ou trois autres qui ont cessé de plaire.

Les 17 réacteurs jetés en pâture à la presse fournissent annuellement 120 TWh, soit 22% de la production totale d'électricité.

On aura noté que personne au château n'a pu préciser comment on allait faire pour se passer de ces 120 TWh dans un délai aussi court, et qui ferait les frais de cette coupe claire.
Surtout au moment choisi pour "booster" la voiture électrique qui, cela n'aura échappé à personne, consomme de l'électricité !!
Mais un Ministre ne se préoccupe pas de ce genre de détails.

Cette annonce est une poignée de grain un peu avarié, qui  commence à sentir le moisi, nous l'avons déjà entendue maintes fois sans jamais voir le début d'un commencement de réalisation.

Mais est-elle au moins cohérente ?
__________________

Pour tenter de faire une analyse honnête, on ne peut échapper hélas à la nécessité de regarder de plus près comment est organisée la production et la distribution d'électricité dans un pays moderne.

En premier lieu on ne doit plus parler de système électrique français, mais de grand réseau électrique européen.
Le temps de la petite tambouille nationale est révolue.
L'ensemble des réseaux interconnectés constitue un réseau unique dont toutes les installations participent au "réglage système".
Une défaillance sur une ou plusieurs installations de production en France par exemple peut être compensée par le lancement de plusieurs centrales à gaz en Allemagne et/ou en Italie.
Une modification majeure décidée par un pays ne doit pas être mise en œuvre sans concertations avec les pays partenaires.

Ce point constitue la première clé pour comprendre les problèmes de la transition énergétique.
_________________

Dans les pays civilisés la fourniture d'électricité est un service public qui comporte une obligation de résultat.
Le ou les fournisseurs sont tenus de fournir les quantités auxquelles ils se sont engagés auprès de leurs abonnés et du régulateur, qui est la CRE en France (Commission de Régulation de l'Energie).

Le consommateur est libre de soutirer de l'électricité quand il veut, à hauteur de la puissance et de l'énergie compatibles avec l'abonnement souscrit.
(C'est une liberté encadrée que certains ont tendance à oublier, et que le nouveau compteur Linky se charge de leur rappeler).

Comme nous l'allons voir, cette liberté des consommateurs se paye par un certain nombre d'obligations que les fournisseurs doivent respecter.

Le fournisseur est prié de prendre toutes les dispositions nécessaires pour éviter d'avoir à recourir aux coupures sauvages, sinon il aura à rendre des comptes à la CRE.

Pour respecter ces engagements, le ou les fournisseurs doivent donc pouvoir s'appuyer sur des moyens de production dits "de base" capables de produire sans intermittence, en continu, et possédant une grande réserve de marche grâce aux stocks (Réserves stratégiques) rendus obligatoires par l'Agence Internationale de l'Energie.
Ces stocks ont pour but d'éviter des tensions internationales qui seraient dues à des crises passagères du marché de l'énergie.
C'est surtout vrai pour les pays qui ne possèdent pas de sources d'énergie "de base" sur leur territoire. La France en fait partie (Hélas, ou heureusement ?).
(Les anciens se souviennent que jadis notre territoire possédait des gisements de Charbon et de Gaz naturel, épuisés aujourd'hui).

Ces installations "de base" doivent donc pouvoir fournir une puissance cumulée correspondant au maximum de la puissance soutirée par la demande interne, hors périodes exceptionnelles de pics de consommation, qui sont gérés autrement.

En France, cette demande max "courante" correspond à environ 80 GW, pour une demande moyenne d'environ 60 GW.
(Ces valeurs fluctuent et sont affectées de variations saisonnières d'une année sur l'autre).

Quant à la demande exceptionnelle, elle peut atteindre 100 GW. C'est aujourd'hui un seuil critique pour le réseau français.

En pratique, la puissance soutirée fluctue entre 30 et 80 GW, selon l'heure, la saison, les conditions météo.
Malgré cette demande en yoyo, notre parc de production "de base" a toujours été capable de répondre sans tomber dans le black out ou les délestages sauvages.
__________________

Les seules technologies permettant d'assurer une production "de base", donc de fournir les 80 GW ci-dessus à la demande, sont les centrales thermiques à flamme, utilisant des combustibles fossiles, et les centrales nucléaires, ces combustibles étant stockables et stockés réglementairement en conformité avec les règles de l'AIE.
Pour le nucléaire, les stocks sont constitués par le combustible présent dans les réacteurs, et de celui qui est en cours de fabrication sur le territoire français.

Au risque de se répéter, il faut insister sur ce point:
On ne connaît pas d'autre système capable d'assurer une production "de base" telle qu'elle est définie par l'AIE c'est-à-dire avec une réserve de marche de plusieurs mois.

Ce point est la deuxième clé qui permet de comprendre quelque chose aux difficultés de la transition énergétique.

L'éolien, le solaire, l'hydraulique, ne peuvent pas garantir une production d'électricité continue pendant plusieurs mois.
(Seule la géothermie à haute température pourrait y prétendre, avec un peu d'hydraulique au fil de l'eau, mais à une faible échelle).
___________________

Si, en raison de circonstances particulières, choisies ou subies, il n'était plus possible d'assurer une production électrique "de base" à hauteur de 80 GW environ (En France), il deviendrait nécessaire de réorganiser le système de distribution et de consommation pour s'accommoder d'une production de base réduite.

Ce scénario a été évidemment envisagé.

Parmi les mesures prévues on peut citer le contrôle de la consommation des abonnés grâce à un système de gestion centralisé visant à planifier les soutirages pour "lisser" la demande de puissance.
On peut également, et c'est déjà le cas à faible échelle, mettre en œuvre un système de délestage programmé, déjà appliqué aux fournisseurs d'électricité "verte", qui doivent souscrire des "garanties de capacité", elles-mêmes adossées au marché des "capacités d'effacement" négociables.
On peut aussi, mais c'est à la limite du sérieux, acheter notre électricité sur le marché européen, voire même en Afrique (Solaire) ou en Scandinavie (Hydraulique et éolien offshore) par le moyen d'un réseau de câbles sous-marins, dont certains sont d'ailleurs en construction…

Toutes ces mesures, à terme contraignantes pour les usagers, montrent l'importance "vitale" des capacités de production "de base", que l'on ne peut réduire qu'à la condition d'adapter le réseau de distribution pour remplacer l'ancien système de "suivi de charge" par un  nouveau système fondé sur le "suivi de production", appelé "Réseau intelligent" ou "Smart Grid".
Le nouveau compteur Linky est le premier maillon, vu par l'usager, de ce nouveau réseau.

Ce troisième point est la troisième clé qui permet d'entrevoir l'utilité du nouveau compteur Linky, sans lequel il nous faudrait tout simplement renoncer à la transition énergétique, et se préparer à s'éclairer à la bougie et à se chauffer au bois.
( Rappelons qu'en cas de coupure d'électricité, les chaudières modernes à gaz ou à fuel cessent de fonctionner…).

___________________

En France la production "de base" d'électricité est obtenue grâce à deux types de centrales thermiques:

D'une part un parc de 58 réacteurs nucléaires (Oui, une centrale nucléaire est  une centrale thermique d'un type un peu particulier), dont la capacité installée est de 63,2 GW, qui peut délivrer en continu une puissance d'environ 60 GW max.
Cette puissance max disponible fluctue selon la disponibilité des réacteurs, dépendant des arrêts pour maintenance, remplacement du combustible, et arrêts pour visites décennales.
(L'exploitant définit son calendrier d'arrêts pour maintenance de manière à disposer de la puissance maximale au moment des grands froids).

D'autre part, un parc de centrales thermiques classiques à flamme  fonctionnant au Gaz, au fuel, ou au charbon (Il en reste encore deux ou trois).
Ces centrales thermiques peuvent fournir jusqu'à une vingtaine de GW de puissance continue, appelée selon la demande du réseau.

L'ensemble Nucléaire + Thermique peut ainsi fournir une puissance d'environ 80 GW lorsque la demande est très forte, typiquement en soirée les périodes hivernales.

Lorsque la demande dépasse le seuil de 80 GW environ, on a recours à des moyens de production de "semi-base", qui sont essentiellement Hydrauliques, et dont les réserves sont par nature faibles mais prévisibles à moyen terme.
La semi-base comprend les barrages de lac, ou au fil de l'eau, les STEP de pompage-turbinage, les usines marée motrices.
Ces moyens fournissent bon an mal an environ 10% de notre énergie électrique.
C'est essentiellement une énergie stockée.

Les installations dont la production dépend du vent ou de l'ensoleillement, ne peuvent constituer un recours sûr à cause de leur intermittence.
D'une part cette production ne peut être planifiée, même si elle est relativement prévisible.
En effet on peut prévoir à peu près la force moyenne du vent tel jour à tel endroit, mais on ne peut décider de la force de ce vent, de même pour le Soleil.
D'autre part ses variations sont brusques, intra-horaires, à la merci d'une saute de vent ou d'un nuage.

Pour qu'elles deviennent des installations de semi-base, elles devraient être associées à des installations de stockage tampon de masse, un peu comme l'eau d'un gigantesque barrage.

En France, il n'existe encore aucune installation dédiée au stockage de masse d'électricité solaire ou éolienne.
(Les installations existantes sont déjà utilisées pour autre chose).
Aujourd'hui la production éolienne et solaire est injectée dans le réseau, en complément occasionnel de l'électricité thermique, et de l'hydraulique.

Lorsque tous ces moyens de production ont à faire face à une demande très forte qui dépasse leurs possibilités du moment, on a recours aux importations.
Les capacités d'échanges transfrontaliers sont aujourd'hui établies à environ 10 GW entre la France et les pays voisins.
La mutualisation du réseau électrique européen requiert un accroissement de ces capacités d'échange, pour gérer la circulation de l'énergie éolienne et solaire entres les différentes zones géographiques.
Des liaisons avec l'Afrique sont également en cours d'étude.
________________

La conclusion de tout ceci est que l'on ne peut réduire les capacités de production de base qu'à condition de réduire et de contrôler la demande de consommation, ce qui exige de mettre en œuvre deux actions:
D'une part réaliser des économies d'énergie à hauteur de la réduction de production de base envisagée,
Et d'autre part passer du système de suivie de charge au système de suivi de production grâce au réseau intelligent.

Que l'on décide de fermer 17 , 25, ou 37 réacteurs nucléaires, peu importe du moment que l'on a préalablement fait ce qu'il fallait pour réduire la consommation et la contrôler pour en lisser la valeur.

Ce quatrième point est la quatrième clé qui permet de comprendre les problèmes qui nous attendent et donc les contraintes qu'il nous faudra accepter.

Il est extrêmement dommage que tout ceci n'ait jamais fait l'objet d'une communication aux usagers, cela aurait peut-être pu éviter une polémique stérile autour du nouveau compteur.

________________


En cette matière, il est recommandé d'éviter de mettre la charrue avant les bœufs sous peine d'avoir à gérer "quelques" difficultés causées par un réseau devenu fou…

Nous comptons sur Monsieur Hulot et Monsieur Edouard pour nous éviter ces soubresauts électriques.

PS. Comme déjà suggéré dans un précédent article, les usagers avisés seraient bien inspirés d'étudier sérieusement la possibilité de produire eux-mêmes leur besoin électrique de base.
C'est un conseil d'ami.
________________

En 2025, dans huit ans, notre consommation finale d'électricité n'aura pas significativement varié, elle sera d'environ 450 TWh.
( Lire en particulier: "RTE, Bilan prévisionnel de l'équilibre offre-demande d'électricité en France jusqu'en 2050").
Cette consommation finale correspond à une production d'énergie d'environ 550 TWh.
(Nous aurons toujours les pertes en lignes, les pertes de transformation, les consommations internes au secteur de l'énergie électrique).

L'augmentation le la consommation due à l'accroissement du nombre de ménages, aux nouvelles applications comme la voiture électrique (Dont M.Hulot veut faire la promotion), au développement du marché des pompes à chaleur, sera compensée par les économies réalisées dans l'efficacité énergétique des nouveaux matériels et surtout par le recul du chauffage électrique à effet Joule et le développement de l'autoconsommation des producteurs particuliers ( Solaire ).
__________________

Aujourd'hui la capacité de production nucléaire est environ de:

63,2 GW x 0,9 x 8 760 h # 500 TWh.

400 TWh sont consommés en interne au titre de l'énergie finale.
50 TWh sont exportés, car le réseau en yoyo ne permet pas de les consommer en interne (Rentabilisation d'une énergie fatale).
50 TWh sont dissipés en pertes en lignes, pertes de transformations, et consommations internes du secteur.

Dans la consommation finale, le nucléaire représente donc:

400 TWh / 480 TWh =  83,3 %   (Et  non 72% comme lu ici et là).

Mais dans la production d'énergie électrique, ce même nucléaire représente donc:
500 TWh / 550 TWh =  91%
(C'est le ratio officiel le l'honorable maison EDF. Tout autre valeur est fantaisiste).

 

Pour ramener cette part à 50%, tout en conservant une énergie finale de 480 TWh, il faudrait donc ramener la part nucléaire à 250 TWh, c'est-à-dire fermer non pas 17, mais 26 réacteurs de 900 MW.
(Et même davantage si nous comptons les pertes en lignes etc…).

Cette action d'éclat devrait s'accompagner de la mise en service (Nécessité incontournable) d'installations de production de base capables de replacer la production actuelle des 24 réacteurs mis au rebut.

Ces installations pourraient être, au choix:
- Soit un parc de  26 centrales thermiques à Gaz à cogénération ( Tant qu'on y est…) .
- Soit un ensemble de parcs éoliens et solaire de capacité énergétique équivalente, accompagnés des installations de compensation de l'intermittence ( Centrales thermiques, Stations de pompage-turbinage, stockage gazeux sous forme d'Hydrogène obtenu pas électrolyse, ou autre…).
___________________

La fermeture de 26 réacteurs, voire plus, est parfaitement possible, mais à deux conditions:

Soit la consommation d'énergie finale ne baisse pas, et alors il faudra mettre en place le programme ci-dessus.

Soit on se dispense du programme de compensation de la production perdue, mais alors on explique comment on va réduire la consommation finale électrique de 160 TWh.

Nous attendons avec impatience de connaître le choix du Gouvernement, et les décisions arrêtées pour impulser le lancement des projets industriels correspondants à la stratégie retenue.

Car enfin, ces centrales thermiques, ces parcs éoliens et solaires, ces stations de pompage-turbinage, ces usines de production d'Hydrogène par électrolyse, ces piles à combustible pour refaire de l'électricité, ces batteries énormes pour le stockage, il faudra bien que quelqu'un les fasse, et les finance…
Il arrivera bien un jour ou tout cela devra sortir des rapports papier de stratégie pour entrer dans la vie réelle.

Nous comptons sur Monsieur Hulot pour être l'Homme du XXIè siècle qui aura réussi ce tour de force.
____________________

 

 

 

 


 

 

 

 

Repost 0
6 juillet 2017 4 06 /07 /juillet /2017 19:08

Un EPR requinqué.

6 Juillet 2017
Le tribunal a donc rendu son verdict. L'accusé, blanchi au bénéfice du doute, est cependant placé sous surveillance et se voit imposé une cure de rajeunissement dans un délai de sept ans.
Il faut préciser que cette décision était attendue, une décision d'arrêt du chantier aurait signifié l'arrêt de mort du programme EPR, et donc de la filière électronucléaire, ce qui n'est pas dans l'air du temps malgré les annonces réitérées du Gouvernement, qui pourraient laisser penser le contraire.
On peut donc parler de non évènement.
Comme prévu de longue date, les deux réacteurs de Fessenheim seront mis à l'arrêt lorsque l'EPR de Flamanville sera entré en production, en 2019, si aucun nouvel "incident" ne vient perturber le programme.
___________________

On trouvera un rappel de cette histoire de couvercle de cuve ici:
http://leblogdedoczaius.over-blog.com/2015/05/flamanville-polemique-autour-d-une-cuve.html

On trouvera des détails techniques ici:
http://www.irsn.fr/fr/expertise/rapports_gp/documents/gpespn/asn-dep-2015-037971_irsn-2015-00010_gpespn-30092015.pdf
___________________

Cette affaire ne peut manquer de poser une question fondamentale:
En quoi cet écart de la composition de l'acier du couvercle, par rapport aux valeurs prescrites par le cahier des charges, peut-il compromettre la résistance de la cuve en fonctionnement normal dans la durée, et/ou dans des conditions de surcharges accidentelles, ou de défaillance des systèmes de sécurité ?
Avec une question subsidiaire: Quelles seraient les conséquences d'une rupture d'un élément de la cuve ?
__________________

Il est relativement "simple" de répondre à la question subsidiaire sur les conséquences:
Il faut d'abord préciser que, à notre connaissance, aucune cuve de réacteur  ne s'est encore cassée en fonctionnement normal ou en cas d'incident ou de surcharge normalement contrôlés par les systèmes de sécurité demeurés opérationnels.
Les cuves elles-mêmes n'ont encore jamais été l'élément initiateur d'un accident majeur.

Leur problème est dans leur capacité à résister à des surcharges résultant d'une perte de contrôle du système de refroidissement et de transfert de chaleur aux générateurs de vapeur, quelle que soit la cause de cette perte de contrôle.

A Tchernobyl, et à Fukushima, les dégâts causés à la ou aux cuves furent la conséquence de défaillances des systèmes de sécurité, elles-mêmes résultant soit d'erreurs humaines, soit de causes extérieures, soit de certaine malfaçons dans la conception des centrales.
L'accident de Three mile island, dû à un disfonctionnement du système de refroidissement, a entraîné une fusion partielle du cœur, mais sans percement de la cuve grâce à l'intervention rapide des mesures de sécurité.
__________________

Il peut se produire un accident majeur, de type APRP (Accident de Perte de Réfrigérant  Primaire), sans que la cuve soit directement à l'origine de l'accident, comme ce fut le cas à Three mile island, Tchernobyl et Fukushima.
Ce "pépin" peut être initié par une défaillance du système électrique, ou des pompes primaires, par une brèche importante d'une tubulure du circuit primaire, ou tout autre incident qui affecterait la bonne circulation de l'eau primaire, sans que la cuve soit en cause.
Si les moyens d'alimentation en eau de sécurité sont alors insuffisants, il peut en résulter des dégâts en chaîne conduisant à la fusion du combustible, qui s'amalgame avec les structures métalliques de l'intérieur de la cuve pour former le "corium" à température de plusieurs milliers de degrés, et percement du fond de cuve avec libération du corium violemment radioactif dans l'environnement.
La pauvre cuve n'y serait pour rien, car à l'impossible nul n'est tenu.
(Le corium est capable de transpercer du bon acier de trente cm d'épaisseur en quelques heures, et plusieurs mètres de béton de bon aloi en quelques jours…).

En cas d'APRP, le réacteur est immédiatement et automatiquement mis à l'arrêt grâce à l'introduction des barres de ralentisseur au sein des grappes de combustible, et éventuellement en injectant un produit ralentisseur de neutrons ( par exemple acide borique).

Mais après le processus de mise à l'arrêt, même s'il s'est déroulé parfaitement, le combustible continue à dégager de la puissance, et ceci durant une période importante. Il faut donc continuer à refroidir, pour évacuer cette puissance résiduelle, qui décroit naturellement.
Sur un réacteur REP de 1300 MW, la puissance résiduelle après mise à l'arrêt est encore de 270 MW au bout de une seconde, 195 MW au bout d'une minute, 58 MW au bout d'une heure, et 24 MW au bout de un jour, l'arrêt complet n'étant atteint qu'au bout d'un mois environ, encore faut-il garder ensuite les barres de combustibles dans la piscine pour achever le refroidissement, ou les laisser dans la cuve avec une circulation d'eau suffisante.
Ceci lorsque tout se déroule dans les règles.

Mais si l'accident APRP s'accompagne d'une insuffisance de débit d'eau primaire, et/ou d'une défaillance du système d'injection d'eau de sécurité, quelles qu'en soient les raisons, la puissance résiduelle du cœur n'est plus évacuée correctement et la température du combustible s'emballe, entraînant une chaîne de catastrophes telles que celles dont le spectacle nous a été offert par deux fois.
_______________________

La catastrophe japonaise, mais aussi celle de Tchernobyl, ont eu l'effet d'un électrochoc, d'une prise de conscience d'un risque jusque là considéré comme inimaginable: APRP, suivi de fusion du cœur, suivi de percement de la cuve, avec dispersion du corium dans l'environnement.
Cet accident, jugé inimaginable, était donc possible.

On se perd en conjectures sur les raisons profondes pour lesquelles un tel accident avait été jugé impossible lors de la conception des centrales.
L'analyse psychiatrique de cet aveuglement collectif, à haut niveau, serait riche d'enseignements sur la pertinence de certaines décisions actuelles…
(La méthode Coué, d'usage courant dans les discours politiques, serait-elle également devenue d'usage licite dans le discours scientifique ?).

Les réacteurs des anciennes générations (REP) ont dû recevoir des aménagements afin de renforcer leur résistance à ce type d'accident, sans cependant atteindre un niveau de sécurité totalement satisfaisant.

Les réacteurs de nouvelle génération (EPR) ont été conçus dès le départ pour offrir une protection en profondeur, notamment au niveau du radier désormais équipé d'un récupérateur de corium avec un dispositif de refroidissement.
Il nous reste à espérer que ces mesures suffiront à limiter les dégâts causés par un APRP avec percement de la cuve et fuite du corium.
_____________________

Il n'existe pas d'exemple de cuve de réacteur ayant subi une rupture dans des conditions de fonctionnement normales, ce qui rend difficile la réponse à la question principale.
On peut cependant penser qu'une telle rupture, surtout au niveau du couvercle, causerait des dégâts importants aux mécanismes de manœuvre des barres de contrôle qui pourraient ne plus jouer leur rôle de blocage de la réaction.
En effet, le couvercle d'un réacteur EPR est percé de 107 trous équipés de gaines assurant l'étanchéité des passages des barres et instruments de mesure.
(La pression dans la cuve est normalement de 155 Kg).
Un accident au couvercle pourrait nuire au fonctionnement de ces mécanismes qui doivent coulisser librement.
La mise à l'arrêt du réacteur serait alors partiellement compromise.
La réaction nucléaire restant à un niveau élevé, et l'eau de refroidissement faisant défaut, les conditions seraient réunies pour un beau feu d'artifice.

Mais le pire n'est jamais sûr…
_____________________

L'ASN aurait probablement autorisé, sans condition, le fonctionnement du couvercle s'il avait existé un procédé de contrôle "in situ" de l'état de la pièce sans nécessité de la démonter.  Ce procédé n'existe pas aujourd'hui, c'est la raison de la décision de le remplacer le plus tôt possible, c'est-à-dire en 2024 , qui est, selon EDF, le délai le plus court pour fabriquer un tel objet.

EDF espère cependant pouvoir, d'ici deux ans, mettre au point un procédé de contrôle "in situ" qui pourra (peut-être) éviter un remplacement du couvercle et obtenir de l'ASN une modification de sa position.
___________________

La bonne qualité de l'acier de cuve est certes essentielle, comme pour tous les autres organes d'une installation nucléaire.
Mais la bonne santé de la cuve ne suffit pas en elle-même à assurer la sécurité du réacteur.
Tous les autres composants participent à l'objectif de sureté:
Les tuyauteries et leurs soudures, les pompes, les soupapes de sécurité, le pressuriseur, le système d'injection de sécurité, les échangeurs des générateurs de vapeur, les mécanismes de contrôle des barres et des grappes de combustible, les sondes de température et de pression, les soupapes de sécurité, etc, etc.
La fiabilité de cet ensemble conditionne la fiabilité de l'ensemble.
Cet ensemble ne peut fonctionner correctement sans un système de gestion mixte dans lequel les automatismes sont supervisés par du personnel qualifié.
La conception de la centrale elle-même participe à la sureté.
On a vu l'importance de la disposition et de la fiabilité des générateurs électriques de secours à moteurs diesel en cas d'inondation ( Centrale du Blayais, et de Fukushima).
Des organes paraissant secondaires peuvent se révéler essentiels en cas d'accident.
Par-dessus tout, les installations les plus parfaites sont vulnérables si les équipes qui s'en occupent ne sont pas elles-mêmes de très haut niveau technique et humain.
_______________

La sureté de fonctionnement d'une centrale nucléaire ne se résume donc pas, hélas, à un problème de couvercle de cuve.
La meilleure cuve ne résistera pas à un APRP mal maîtrisé, ou dont le système de sécurité présente des failles de conception, de conduite, ou de maintenance.
L'arbre ne doit pas cacher la forêt…
_________________

La décision d'autoriser, ou pas, la mise en service de la cuve de Flamanville, devrait (aurait dû) être fondée sur des attendus techniques, et seulement techniques.
Malheureusement il semble que d'autres considérations sont venues polluer l'analyse du problème, et peut-être la décision:
les retards cumulés, les dépassements budgétaires, les délais considérables nécessités par la mise en œuvre des solutions techniques radicales, l'image de la compagnie responsable du projet, l'impact sur les autres projet EPR notamment à l'export, la nécessité politico-technique d'arrêter Fessenheim et donc de démarrer au plus vite  l'EPR, la perte de crédibilité du nucléaire par rapport aux autres moyens de production ( solaire, éolien, biomasse, hydraulique…), tout cela a probablement contribué à exercer une pression considérable en faveur d'un "avis favorable".
Il serait dramatique que les mêmes raisonnements qui conduisirent jadis à nier le risque d'accident majeur, soient repris aujourd'hui pour nier le risque lié à une qualité d'acier hors spécifications.
_______________

Saint Eloi est le patron des travailleurs sur métaux et, par extension, des électriciens.
Tant qu'à rester dans l'irrationnel, nous pouvons toujours tenter de lutter contre la méthode Coué en faisant brûler des cierges à Saint Eloi.
Ou consulter Madame Irma sur l'opportunité de continuer à habiter à côté d'une centrale nucléaire.

Les bretons, qui en connaissent un rayon en matière de saints, ont toujours refusé d'accueillir une centrale nucléaire chez eux.
Peut-être ont-ils bénéficié du privilège d'informations particulières de Saint Eloi, fort honoré en cette contrée.
____________

 

 

 

Repost 0
28 juin 2017 3 28 /06 /juin /2017 19:40

LAVIA, ou le début du dressage.

28 Juin 2017
La chasse à l’automobiliste « hyper véloce » est un exercice dans lequel l’usager a vu son rôle passer de « gibier de passage » à celui de « faisan de tir », tant il est vrai que désormais plus personne ne peut prétendre échapper aux radars fixes et mobiles, ou aux snipers de bas côtés.
A tel point que l’imprudent qui prétendrait n’avoir jamais perdu un seul point de permis serait suspecté d’entretenir des relations inavouables avec la préfecture, voire même de rouler avec des fausses plaques, ce qui est hélas très répandu, m’a-t-on dit…, ou pire encore, de bénéficier d’un permis obtenu après versement d’un bakchich substantiel auprès d’une République introuvable sur la carte, mais néanmoins parfaitement habilitée à délivrer le précieux document.

A l'opposé des porteurs de calibre 12, voire même de 7x64, qui justifient leur action par son effet « bénéfique » sur la régulation du gibier en évitant la surpopulation (Ce qui n’est pas faux), les porteurs de radars justifient leur zèle en invoquant non pas la lutte contre la surpopulation d'automobilistes, mais au contraire son impact positif sur la réduction du nombre de morts dans les accidents de la voie publique ( Ce qui n'est pas complètement faux non plus) .

Notre propos aujourd’hui n’est pas de décortiquer les motivations en question, mais plutôt de dénoncer l’ambigüité de la démarche des gendarmes dont on n’a jamais su très bien si son but était réellement de sauver des vies, ou s’il s’agissait d’exploiter une « pompe à phynances », sorte de complément de l’IRPP, le revenu étant ici remplacé par l’importance du dépassement de la vitesse prescrite.

Plusieurs indices contribuent en effet à éveiller les soupçons:
- Depuis plusieurs décennies, le code de la route limite la vitesse à 130 Km/h sur autoroute.
Aucun véhicule à usage privé n’est donc autorisé à dépasser cette limite, sur quelque voie publique que ce soit.
La logique la plus évidente voudrait donc que les constructeurs soient contraints de ne livrer que des véhicules dont la vitesse max est limitée par construction à 130 Km/h*.
Comme chacun le constate, il n’en est rien.
Les vitesses max des véhicules commercialisés atteignent couramment 180, voire 220 Km/h, et bien davantage pour certains.
* le problème des véhicules destinés à la compétition sur circuits privés est un autre domaine, de même que celui des véhicules de secours et des forces publiques.
- On pourrait aussi citer les radars disposés au bout d’une ligne droite en descente, les panneaux d’entrée d’agglomération placés dans la zone des terres agricoles à 500 m des premières habitations, etc.

Il y a donc collusion de fait, sinon d'intention avérée, entre les pouvoirs publics et les constructeurs, pour mettre entre les mains des usagers des véhicules « pousse au crime » dont l’usage se traduit inévitablement par des infractions, donc un impôt routier, et éventuellement des morts.
- Sur nos routes de campagne, nombre d’infractions mineures sont dues à la difficulté de savoir, à un moment donné, quelle est la limitation appliquée sur la portion empruntée.
Dans les territoires, les panneaux 90,70, 50, parfois 45, ou 30,  quelquefois 110, se succèdent à une cadence infernale sur les départementales traversant des villages.
Sur un parcours de 50 Km, il n’est pas rare de rencontrer plusieurs dizaines de ces panneaux qui mobilisent abusivement l’attention du conducteur, au détriment de la sécurité de la conduite.
Leur emplacement est parfois si saugrenu qu'ils échappent facilement à l'attention du plus méfiant des chauffeurs.
Ces limitations sont pourtant nécessaires, au moins pour la plupart d'entre elles. Mais la fréquence de leurs changements nécessiterait un complément de signalisation automatique.
Nous sommes au XXIè siècle, que diable !
Le signalement de ces panneaux par un bip sonore et/ou un message vocal soulagerait grandement le conducteur, qui pourrait consacrer toute son attention à la conduite.
La mise en place de ce service est d’une simplicité enfantine.
Un simple code barre en peinture métallique, disposé sur le revêtement cent mètres avant le panneau, serait détecté par un dispositif à trois euro et demi, disposé à l'avant de la voiture, il pourrait même être couplé au radar de détection d'obstacle, qui devient banal.
Le fait qu’un tel dispositif, dont la simplicité ne peut être mise en doute, a toujours été refusé par les pouvoirs publics, est un indice sérieux de la volonté de laisser la bête tomber dans le piège, car il s’agit bien de piège.
Plus personne ne met en doute la volonté cachée des pouvoirs publics de faire jouer aux limitations de vitesse un double rôle: participer à l’amélioration de la sécurité, mais aussi prélever un impôt routier, le second rôle apparaissant parfois comme le plus important des deux.

L'idée de signaler au conducteur la vitesse limite autorisée à la position qu'il occupe n'est pas nouvelle.

Quelques-uns d'entre nous se souviennent de l'époque d'avant les limitations de vitesse. Eh oui, ce temps a existé, où l'on pouvait "appuyer sur le champignon" sans craindre la moindre remarque désagréable d'un pandore, tout au plus pouvait-il vous faire remarquer que vous alliez "un peu vite".
La seule contrainte alors était l'obligation de rester maître de sa vitesse, ce qui était évidemment une figure de style.

Cette liberté à peu près totale, sur un réseau routier dépourvu d'autoroutes et où les routes secondaires étaient vraiment secondaires, avec des voitures aux tenues de route primesautières et aux freins approximatifs, se traduisait bien sûr par un massacre permanent dont l'ampleur allait croissant.

En 1972, il y eu 18 000 morts et 386 000 blessés.
Il n'était plus possible de continuer ainsi.

Les limitations que nous connaissons aujourd'hui furent mises en place en 1973, elles n'ont été que peu modifiées depuis.

Lors de la mise en place de ces limitations, le système à bandes métalliques décrit plus haut fut proposé par certains équipementiers, mais les pouvoirs publics ne donnèrent pas suite, on imagine aisément pourquoi.

Aujourd'hui la technologie a "un peu" évolué, les voitures sont en passe de se débrouiller seules et de circuler sans l'aide d'un conducteur humain.
Ces modernes Automédon savent donc tout faire, et bien entendu détecter les zones de limitation de vitesse, et la valeur prescrite.

Lorsque ce progrès sera généralisé, puis peut-être rendu  obligatoire (Il en est question à Bruxelles), la voiture deviendra ipso-facto un gibier protégé dont le permis sera à l'abri des chevrotines, du moins pour le motif d'hyper vélocité.

En attendant cette époque, on parle de 2017 quand même, rien n'interdit d'équiper les voitures actuelles du dispositif de détection des zones de limitation de vitesses, puisque ce dispositif aura été homologué pour les voitures sans chauffeurs.

Aujourd'hui déjà on peut disposer de cette fonction, grâce à quelques  logiciels disponibles sur Smartphone, mais le résultat est approximatif et non garanti, ce qui est  incompatible avec une application en rapport avec la sécurité routière.

Le système (Officiel ?) est le « lavia », dont la généralisation a été proposée.
LAVIA, Limiteur s'Adaptant à la VItesse Autorisée.
(ISA, Intelligent Speed Assistance).
Les nombreux essais effectués dans le cadre du développement de la voiture sans chauffeur, ont permis de valider le système.
La position exacte du véhicule est obtenue par GPS, et le régime de limitation de vitesse attaché à cette position est donné par une cartographie développée en collaboration avec l'IGN.
Il existe une convention entre la DSCR ( Direction de la Sécurité et de la Circulation Routière) et l'IGN (Institut Géographique National).

Une fois obtenue la précieuse information, il faut décider ce qu'on en fait.
Sachant que, dans tous les cas, la signalisation actuelle sera conservée.

Le degré zéro étant la simple information du conducteur, qui garde l'entière responsabilité de la suite qu'il va donner: Soit le mépris, soit le ralentissement de son allure, ou au contraire l'accélération si  aucun radar ni aucun képi ne sont en vue.

Le degré au-dessus du zéro consiste à laisser le système limiter la vitesse du véhicule sans intervention du conducteur, mais en laissant à celui-ci la possibilité de le neutraliser .
Oui, c'est idiot, mais c'est une proposition.

Le degré max est la fonction "sans appel"; la vitesse max est imposée "manu militari" sans autre forme de procès.
Evidemment, la perspective de perdre l'initiative de contrôler sa vitesse en toutes circonstances n'est pas du goût de tous les automobilistes.
Si la prise de contrôle du système intervient lors d'un dépassement, il peut en résulter un risque d'accident. Qui sera responsable ?

Les constructeurs devront revoir leurs arguments de promotion. En effet, quel pourra être désormais l'intérêt d'acquérir un véhicule de plus de 100 CV, et/ou capable d'"abattre" (C'est le terme consacré) le kilomètre en quelques secondes, ou passer de 0 à 100 Km/h en 3 secondes ?

L'objectif de ces grandes manœuvres est clairement d'éliminer ce que les scientifiques appellent l'"équation personnelle".
(L'équation personnelle, c'est l'influence, aussi faible soit-elle, de l'expérimentateur sur le résultat de l'expérience).
Et Dieu sait si, en matière de conduite automobile, l'expérimentateur chauffeur influe sur le résultat de l'expérience de la conduite.
En l'occurrence, il s'agit de supprimer à terme toute intervention du "conducteur" dans la conduite de son véhicule.
Aujourd'hui c'est la vitesse qui passe sous le contrôle de la robotique, demain c'est l'ensemble de la conduite qui sera concernée.

Et après-demain, quoi d'autre ?

________________


 

 

 

 

 

 

Repost 0