Overblog Suivre ce blog
Administration Créer mon blog
21 mars 2016 1 21 /03 /mars /2016 09:43

21 Mars 2016

Dès l'origine des transports automobiles le pétrole s'est établi maître du jeu.
L'absence totale de concurrence d'autres produits lui a permis d'être et de rester la seule référence économique en matière de coûts d'exploitation pour le carburant, qu'il s'agisse des entreprises professionnelles de transport, ou des particuliers.
La tentative récurrente de remplacer le pétrole par de l'électricité dans les transports n'a jamais été couronnée de succès, eu égard aux problèmes persistants d'autonomie.
Notre société, dite libérale à économie capitalistique, place le prix et la rentabilité financière en tête des critères de choix face à plusieurs solutions offrant des services comparables.
Toute tentative d'innovation en matière de carburants nouveaux devra donc d'abord apporter la preuve de sa capacité à concurrencer le pétrole en matière de coût énergétique, avant d'être considérée comme un challenger possible, et avant de considérer ses autres avantages.
Les critères tels que l'indépendance énergétique, la lutte contre le réchauffement climatique, la réduction des émissions polluantes, la préférence nationale, la création d'emplois, etc, ne sont spontanément considérés qu'en arrière-plan et assez loin derrière le coût spécifique énergétique, dont la référence reste le pétrole.
Dans ces conditions, seules des mesures incitatives financières, ou réglementaires contraignantes, sont en mesure de modifier l'ordre des critères de choix.
(Pour rester dans la vraisemblance, l'option "abandon de l'économie capitalistique" n'est pas ici envisagée).
La référence du coût du carburant dans les transports reste donc le baril de pétrole.
Pour être crédible, c'est-à-dire réussir ses levées de fonds, toute stratégie de développement d'un carburant de substitution (Ou de tout autre produit) doit établir un "Business plan" à partir duquel les investisseurs prendront leur décision.
Ce business-plan comprend évidemment, entre bien d'autres choses, une analyse du marché, un plan de croissance, un bilan de rentabilité.
S'il s'agit de fournir un service déjà existant (Par exemple un carburant pour les transports), le prix du service devra supporter la concurrence déjà en place, en l'occurrence le pétrole, dont le prix devient la référence.
(Par "prix du service" il faut entendre non seulement le prix du carburant lui-même, mais également toutes les modifications nécessaires à la mise en œuvre du nouveau produit, comme les moteurs, le réseau de distribution, etc…).
Malheureusement, Le prix du baril de brut est une donnée fluctuante imprévisible.
Au cours des deux dernières décennies ce prix a évolué entre trente et cent dollars, souvent à l'opposé des indications des prévisionnistes, et au gré des crises financières et/ou des bouleversements géopolitiques.
Construire un "business plan" sur une référence de prix totalement imprévisible à moyen terme est une démarche très risquée, et les investisseurs n'aiment pas les risques.
Qui ira investir des centaines de millions de dollars dans des recherches et des développements industriels avec des prévisions de prix de marché dignes de Mme Irma ?
En matière de biocarburants, les Etats, la Communauté Européenne, ou les sociétés à participation des Etats, doivent donc se substituer au capital privé pour financer la recherche, les études de faisabilité, et les démonstrateurs ou chaînes pilotes.
Les plannings de ces travaux sont en général très longs, au moins une dizaine d'années, sans pour autant être assurés d'obtenir un prix de revient du produit en rapport avec le prix du pétrole au moment d'entrer sur le marché.
S'il s'avère, lors de la mise sur le marché, que le produit de substitution est notablement plus onéreux que le pétrole, et que ses avantages mis en valeur ne suffisent pas à créer spontanément la demande, l'Etat doit alors se substituer au marché en créant les conditions fiscales et réglementaires de nature à favoriser le nouveau produit.
Si tel s'avère être le cas pour le Bioéthanol de seconde génération par exemple, qui peut entrer en phase industrielle à partir de 2020, l'Etat disposera des leviers de la TICPE et de la taxe Carbone, et pourquoi pas la CSPE, pour rendre possible la substitution, comme ce fut fait dans le passé avec la TIPP, et encore aujourd'hui, pour favoriser le diesel par rapport à l'essence.
Aujourd'hui le prix du pétrole dépend des états d'âme de quelques émirs, de soubresauts géopolitiques incontrôlables, et de manipulations du marché par les grandes compagnies.
Demain, non seulement les carburants seront renouvelables mais, grâce à des filières de production moins exposées aux aléas politiques et financiers internationaux, leur prix ne sera plus exposé à subir les variations indexées sur les sautes d'humeur des marionnettistes de la world company.
l'Ethanol de seconde génération constitue l'alternative écologique au supercarburant.
(L'Ethanol de première génération est à oublier, il est dans le collimateur de l'ONU car il est fabriqué à partir de produits alimentaires).
La deuxième génération n'est pas encore industrialisée.
Le biocarburant doit être fabriqué, contrairement au pétrole qui est un produit naturel.
Les procédés de fabrication mis au point au cours de recherches longues et coûteuses, feront l'objet de dépôts de brevets et les licences des plus efficaces se vendront à prix d'or.
Il est donc essentiel, pour un pays qui souhaite conserver son indépendance et économiser ses deniers, d'être propriétaire de procédés et de brevets de fabrication du précieux élixir.
Les compagnies qui ont établi leur richesse sur le pétrole, sont évidemment les premières intéressées à développer un savoir-faire et à le protéger par des brevets sur la fabrication des biocarburants.
En France de tels travaux sont conduits par exemple sous l'égide du projet "FUTUROL" supporté par le consortium "PROCETHOL 2G" qui réunit 11 entreprises de recherche (IFPen, INRA ) et des industriels comme TOTAL.
Ce projet, démarré en 2008, arrive à la phase de démonstrateur industriel ( 2015-2016). La mise en production est prévue entre 2016 et 2020, sur un site de Bucy dans l'Aisne, avec un objectif de 180 millions de litres par an.
Cette activité permettra d'évaluer la capacité du Bioéthanol à concurrencer le pétrole sur le marché libre, ou bien s'il sera nécessaire de faire appel à la taxation différentielle pour évincer la sainte huile.
Avec un brut à 40 euro le baril, le prix de revient du litre de super, est de 45 centimes.
(25 ç de pétrole, 10 ç de raffinage, 10 ç de marge).
Le prix à la pompe passe à 1,25 euro en ajoutant les taxes.
(TICPE : 60 ç, et TVA).
Le PCI du Bioéthanol est inférieur à celui du super, la consommation de la voiture sera augmentée d'environ 15%, ce qui réduit d'autant le prix acceptable au litre.
On peut supposer que le bioéthanol sera dispensé de TICPE et n'aura à supporter que la TVA, auquel cas sont prix de revient ne devrait pas dépasser 0,90 euro/L pour concurrencer le pétrole à la pompe, en tenant compte de l'augmentation de consommation.
Bien sûr, si le cours du baril remonte à 100 euros, la marge de manœuvre sera améliorée.
L'objectif de prix de revient du Bioéthanol est donc d'environ 0,90 euro/L dans le contexte actuel du baril de brut à 40 euro et dans l'hypothèse d'une dispense de TICPE.
Pour un pétrole à 100 euro le baril, ce prix de revient acceptable pourrait passer à 1,35 euro/L.
Mais faut-il souhaiter un retour à la crise pour voir le pétrole remonter ?
Ce qui vient d'être dit à propos du Bioéthanol vaut également pour le biocarburant diesel, et le Biogaz.
Avant de disparaître, s'il disparaît un jour car les opinions sont partagées à ce sujet, le pétrole restera maître du jeu économique, tant est grande sa suprématie dans la technologie qui supporte nos sociétés.
La chute du cours du baril est un mauvais coup contre la transition énergétique. Son maintient durable à un bas niveau pourrait compromettre de nombreux programmes de développement d'installations de production d'énergie durable, particulièrement les biocarburants.
Le recours à la taxe Carbone (Ou à un équivalent) serait alors nécessaire pour provoquer une reprise.
En France, la "composante Carbone" incorporée aux taxes existantes est de 22 euro/tonne CO2, correspondant à environ 3,5 centimes par litre de carburant.
Donc totalement inefficace pour inciter au basculement vers les biocarburants.
Compte tenu du montant exorbitant des taxes déjà supportées par les carburants pétroliers, il semble bien difficile d'en augmenter encore la valeur.
Heureusement, il reste toujours la possibilité de réduire les taux de TCPE et de TVA appliqués aux biocarburants…

Repost 0
17 mars 2016 4 17 /03 /mars /2016 12:23

17 Mars 2016
L'enseignement de la logique était autrefois la porte étroite par laquelle devait passer l'étudiant prétendant accéder au monde des mathématiques. La clef de voûte du système était la règle de trois, au nom de laquelle de nombreuses baguettes furent brisées sur les doigts des élèves plus portés sur la pensée magique que sur le raisonnement cartésien.
Cette logique primaire n'a plus cours. Nous vivons désormais dans un monde quantique, lequel est régi par une logique plus subtile et des règles surprenantes.
Le principe d'exclusion et son confrère le principe d'incertitude ont remplacé la règle de trois.
L'expérience virtuelle du chat de Schrödinger, à la fois vivant et mort, illustre bien l'aspect déroutant de la nouvelle logique.
Ce dernier cas a manifestement fortement influencé Madame la Ministre, qui en a fait une règle de vie.
Elle a surtout retenu qu'une proposition pouvait être à la fois vraie et fausse tant qu'on n'y regarde pas de trop près.
(C'est-à-dire tant que l'on n'ouvre pas la boîte du chat…)
Par exemple, prenons au hasard la politique de la France concernant l'énergie électrique.
La stratégie officielle répétée moult fois par le Gouvernement et réitérée récemment par Mme la Ministre, tient en quelques lignes:
- Réduire la consommation d'électricité.
- Réduire la part de l'électronucléaire de 75 % à 50%.
- Maintenir la puissance électronucléaire à sont niveau actuel de 63,2 GW.
Selon la nouvelle logique, cette proposition en trois points est à la fois vraie et fausse tant que l'on s'abstient de la vérifier par des mesures.
Elle est donc parfaitement orthodoxe du point de vue quantique.
D'ailleurs les médias, férus de physique quantique comme chacun sait, n'ont rien trouvé à redire à de tels propos, ce qui nous garantit leur orthodoxie.
Seul un étudiant attardé, demeuré fidèle aux anciens rites, a cru devoir scruté ces propositions à l'aune de la logique de papa.
Il s'est simplement demandé naïvement comment l'on pouvait à la fois réduire la consommation globale d'énergie électrique, et réduire la part de l'électronucléaire de 75% à 50%, tout en conservant le niveau de puissance de ce même électronucléaire.
Une simple règle de trois (celle de Grand’papa) montre qu’un parc électronucléaire de 63,2 GW correspond à une production annuelle de 470 TWh avec un facteur de charge même modeste de 85%.
Un autre appel à cette règle simpliste montre que, si cette production correspond à 50% de la production électrique totale, cette dernière est alors de 940 TWh.
Ce qui représente une augmentation de 88% par rapport à la production actuelle.
Exactement le contraire de la réduction annoncée par la Ministre.
Notre étudiant se trouve alors plongé dans un abîme de perplexité. La Ministre aurait-elle fait cette annonce après avoir abusé de substances illicites ? Impensable.
Il doit y avoir un truc.
L'échec de sa réflexion l'a conduit à envisager une autre approche du problème.
La physique moderne (dont il a quand même entendu parler) enseigne que la mesure d'un système perturbe ce système et en modifie les composantes.
Bon sang, mais c'est bien sûr, là est la solution.
La consommation électrique, la part du nucléaire, et la puissance des réacteurs constituent le système offert à notre sagacité.
En physique quantique, le fait de chercher à comprendre l'intrication des composantes entraîne une modification du système, qui se réarrange différemment.
En l’occurrence, après examen des déclarations de Mme la Ministre, et réarrangement quantique, il faut lire:
- Consommation globale d'électricité augmentée de 25%.
- Part de l'électronucléaire inchangée à 75%.
- Production nucléaire augmentée de 15%.
Il en a qui s'indignent de l'inaptitude des politiques à tenir leurs promesses.
Ils n'ont rien compris. Ces distorsions ne sont qu'un effet des lois de la physique quantique.
On ne s'étonnera plus de voir un Président appliquer un programme contraire à celui pour lequel il a été élu. Il n'y a aucune malice à cela, c'est simplement l'effet conjugué des principes d'exclusion et d'incertitude auxquels on ne peut échapper.
Le simple contrôle de l'exécution du programme voté suffit à en perturber le contenu, généralement dans le sens opposé.
Tenez-en compte lors des prochaines élections, vous aurez plus de chance de voir votre programme appliqué en votant pour le candidat qui soutient le programme contraire…
On vous le dit, c’est quantique.

Repost 0
16 mars 2016 3 16 /03 /mars /2016 19:22

16 Mars 2016

S’il fallait qualifier le monde moderne dans les aspects qui le démarquent définitivement des temps anciens, le mot « communication » serait à coup sûr le plus approprié.
D’abord statique, de contenu limité et monodirectionnelle pour les média, elle a acquis une dimension universelle et interactive grâce d’une part aux technologies numériques, et d’autre part aux progrès des moyens de transmission de l’information par les ondes électromagnétiques, la fibre optique, les ultrasons, ou tout autre support comme les courants porteurs ou les satellites, la consécration étant apportée par l'Internet.
Cette conquête a permis de réunir les sociétés et les être humains, pour le meilleur et pour le pire. Aujourd’hui ce progrès s’étend aux objets eux-mêmes qui, d’inertes, deviennent « connectés » et vont acquérir non pas une indépendance, mais une possibilité de comportement plus souple et pourront être intégrés dans un ensemble fonctionnel concerté pour plus d’efficacité.
Un tel progrès apporte des bouleversements qui ne sont pas acceptés spontanément, car il est plus facile de changer la technologie que de faire évoluer les mentalités.
Plus une technologie est compliquée, moins elle est compréhensible. Elle peut être alors perçue comme « magique ».
Dans ce cas deux attitudes sont possibles:
- Soit l’acceptation sans réserve obtenue par la séduction et l’effet de mode. La publicité sait comment utiliser ces comportements.
- Soit le rejet de principe de toute nouveauté qui, faute d’être comprise (souvent mal comprise), est suspectée de contenir des menaces cachées.
Une nouvelle technologie peut également ne pas être perçue comme magique, mais susciter quand même des réserves pour plusieurs raisons:
- Soit la crainte d’avoir à assimiler une technique nouvelle génératrice de complications inutiles pour un bénéfice non évident.
- Soit la crainte d’avoir à subir une atteinte à la liberté et/ou une violation de l’intimité.
- Soit la crainte d’avoir à subir des nuisances nouvelles qui accompagneraient la mise en œuvre de cette nouvelle technologie.
- Soit encore une méfiance envers une possible augmentation de coût pour un service dont l’intérêt n’est pas bien perçu.
Il y a donc de nombreuses raisons de refus d’adhésion à toute innovation technologique.
Ces raisons ne sont pas toutes à rejeter.
L’Histoire nous a appris que tout nouvel outil possède deux utilisations: Il peut servir à faire le bien ou le mal.
Une arme peut servir à défendre le faible, ou à l’asservir.
Il en va de même évidemment pour tout progrès technologique.
Le laser, qui nous permet de lire les DVD, et qui a tant d’applications industrielles, peut être utiliser pour détruire à distance.
Internet, dont les apports sont immenses, est également générateur d'escroqueries et de fanatisme.
Les satellites, dont l’utilité n’est plus à démontrer, peuvent également permettre de tuer à distance.
Même le courant électrique domestique, sans lequel notre civilisation s’effondrerait, devient nocif dans certaines conditions et pour certaines personnes ( Rayonnement des lignes THT, ou des transformateurs moyenne tension, effet des champs magnétiques intenses).
Le GPS, dont certains ne peuvent plus se passer, permet aussi le traçage des individus.
Il est impossible de citer une seule innovation technologique qui échappe à la règle.
Il appartient à l’espèce humaine de savoir faire la balance entre les effets bénéfiques et les effets nocifs.
Cette nécessité de gérer le mal qui accompagne le bien a débuté avec l'invention de la massue, qui permet de chasser, mais aussi de tuer son ennemi désigné.
La médecine est depuis toujours confrontée à la nécessité du choix. Un médicament est à la fois utile pour une maladie, mais possède des effets secondaires qui peuvent être nocifs. L’AMM n'est délivrée qu'après un inventaire bénéfice/risques.
Le tri entre le bon et le mauvais usage n’est pas spontané pour certains. C’est pourquoi la société s’efforce de le prendre en compte à travers des organismes si possibles impartiaux.
Pour les problèmes de communication il existe la CNIL .
Le compteur communicant, nouvelle espèce technologique, fait appel à des moyens qui n’échappent pas à la « malédiction » du bien et du mal.
Oui, il apporte du progrès, il est même la clé de la gestion de l’énergie électrique renouvelable. A ce titre il pourra difficilement être contourné.
Mais Oui, il apporte également des risques liés à une « intrusion » supplémentaire dans la vie des individus, avec les possibilités de nuisances habituelles apportées par les applications communicantes (Téléphone portable, GPS, Internet, RFID, commerce dématérialisé, clés numériques, etc, etc…).
Le déploiement du compteur communicant, Linky en France, est actuellement l’objet d’une polémique, surprenante au premier abord, eu égard à la relative indifférence qui a accompagné dans le passé le déploiement d’autres technologies similaires.
On peut citer par exemple le téléphone cellulaire, le GPS, le réseau internet, la domotique, les réseaux sociaux, Facebook, le paiement par carte bleue, le four à micro-ondes, le paiement sans contact, les achats sur le Net, la cuisinière à induction, le multiplexage automobile, la banque en ligne, le télé relevé des compteurs, la WiFi, etc, etc…
Toutes ces technologies utilisent largement le numérique, les échanges d’informations cryptées ou non, les ondes électromagnétiques de fréquences et de puissances variées, les courants porteurs, et certaines sont basées sur les échanges librement consentis de données personnelles et autorisent même le « traçage » des individus sans que cela soulève le moindre problème.
Aucune d’entre elles n’a jamais donné lieu à un mouvement populaire massif de refus et d’interdiction, si l’on excepte bien sûr les opposants professionnels.
A part une faible cohorte de misonéistes, toutes ces technologies ont été plébiscitées par les sociétés qui en sont même devenues esclaves consentantes.
(L’annonce officielle des dangers du téléphone portable utilisé collé à l’oreille pendant des heures, n’a pas été suivie d’une mise au rebut massive des smart phones, même pour les enfants).
La raison en est simple: les usagers en ont immédiatement perçu l’intérêt et l’utilité pour eux-mêmes, et les ont adoptées, faisant passer au second plan les inconvénients pourtant bien réels pour certains .
Aucune association n’a jamais exigé l’interdiction de l’automobile, pourtant source de plusieurs centaines de milliers de morts et de dix fois plus d’infirmes depuis son introduction.
Mais alors, pourquoi cette mobilisation contre le compteur communicant, qui utilise une technologie de communication éprouvée, déjà largement utilisée depuis des années ?
C’est simple à comprendre:
Autant l’usager est prêt à faire la queue toute la nuit pour acquérir le dernier Smart Phone car il en perçoit l’intérêt pour lui (Même si cette perception est fausse ou trompeuse), autant il rejette le fameux compteur, car il estime n’en avoir aucun besoin personnel.
Il est alors prêt à entendre toutes sortes d’arguments le confortant dans sa décision de rejet.
Que la plupart de ces arguments soient stupides, mensongers, partiaux, hors sujet, importe peu, pourvu qu’ils renforcent sa conviction.
Face à une telle attitude, les explications rationnelles sont sans portée. Même si les « arguments » présentés par les opposants ne sont même pas dignes d’être commentés, Ils ne sont pas sans efficacité auprès de personnes disposées à accepter un « prêt à penser » et pas du tout disposées à s’investir dans une réflexion sur la validité de la bouillie intellectuelle qu’on leur propose en guise d’argumentation.
Sur le fonctionnement du compteur communicant, tout a été dit, et expliqué abondamment dans des documents accessibles sur le Net. Inutile donc d’y revenir, ce n’est pas là que les opposants vont chercher leurs « arguments ».
Ce compteur communicant, indispensable au déploiement des énergies renouvelables, est soutenu par une initiative européenne.
La situation de cette affaire est exposée entre autres dans le rapport de la Commission Européenne du 17/06/2014 Ref SWD(2014)188-189 final.
Il y est rappelé en préambule:
« En conformité avec les dispositions du troisième paquet climat-énergie,

Sous réserve des résultats d’une évaluation économique à long terme des coûts et des avantages, les Etats membres sont tenus de préparer un calendrier (Sur une période de dix ans maximum en ce qui concerne l’électricité) pour le déploiement de systèmes de mesure intelligents ».

[La nécessité du compteur communicant n’a donc pas germé dans la cervelle malade d’un ingénieur de EDF, mais correspond à un consensus établi par les énergéticiens au sein des instances européennes ].

« En ce qui concerne l’électricité, l’objectif est d’équiper au moins 80% des consommateurs d’ici 2020 si la mise en place des compteurs intelligents donne lieu à une évaluation favorable »

[ Il s’agit de l’évaluation économique ci-dessus, désignée ACA ci-après]

« la directive relative à l’efficacité énergétique soutient le développement de services énergétiques fondés sur des données provenant de compteurs intelligents ainsi que le développement d’effacement de consommation et d’une tarification dynamique »

[L’objectif technique est ainsi précisé, il s’agit de pallier les fluctuations de demande de puissance électrique en incitant les consommateurs à négocier un programme d’effacement de consommation, en proposant des avantages tarifaires ].

« La directive respecte et promeut le droit des personnes à la protection des données à caractère personnel …..Article 8 de la charte des droits fondamentaux de l’Union Européenne »

On ne parle donc pas d’un projet local fantaisiste, mais d’une initiative européenne dont la mise en œuvre est déjà bien engagée.

A la date de parution du rapport, près de 45 millions de compteurs intelligents ont déjà été installés dans trois Etats membres ( Finlande, Italie et Suède).
A la même date, la situation des ACA (Analyse Coûts Avantages) est la suivante:
- ACA positifs dans 16 Etats membres ( sur 27):
Autriche, Danemark, Espagne, Estonie, Finlande, France, Grèce, Irlande, Italie, Luxembourg, Malte, Pays-Bas, Pologne, Roumanie, Royaume Uni, Suède.
- ACA négatif dans 7 Etats membres:
Allemagne, Belgique, Lettonie, Lituanie, Portugal, République Tchèque, Slovaquie.
- ACA non encore disponibles pour 4 Etats membres:
Bulgarie, Chypre, Hongrie, Slovénie.
Le rejet de l’Allemagne doit être nuancé: Ce pays a décidé que seuls seront équipés les plus gros consommateurs (plus de 6000 KWh par an), ce qui n’est pas absurde.
La Suède est déjà équipée à 99%, et l’Italie à 90%.
Une grosse majorité des Etats membres a donc déjà donné un avis positif et la plupart ont déjà commencé le déploiement.
Voir en particulier:
[https://ec.europa.eu/energy/en/topics/markets-and-consumers/smart-grids-and-meters]
Et
[http://www.europarl.europa.eu/RegData/etudes/BRIE/2015/568318/EPRS_BRI%282015%29568318_EN.pdf]

L’ACA est une concession aux analystes économiques pour qui tout projet doit être justifié par une rentabilité financière, si possible à court ou moyen terme.
Le long terme intéresse assez peu les financiers qui recherchent une rentabilité court terme.
Or le véritable intérêt du compteur communicant n'apparaîtra qu'en 2025-2030 lorsque la part des renouvelables dans le mix électrique deviendra prépondérante.
En permettant de lisser la demande de puissance sur le réseau, le compteur communicant permettra de sortir plus vite du nucléaire puisque les fluctuations des énergies intermittentes deviendront moins gênantes, et plus faciles à compenser.
Mais allez donc expliquer cela à des financiers ou des analystes qui ne s’intéressent qu’aux dépenses immédiates sans prendre en compte les avantages à long terme.
Comme dit le philosophe:
« Quand le sage montre la Lune, l’imbécile regarde le doigt ».
Tôt ou tard il sera bien obligé de la regarder, la Lune.

Repost 0
15 mars 2016 2 15 /03 /mars /2016 19:10

15 Mars 2016

Les énergies renouvelables, c'est bien.
L'électricité d'origine éolienne et solaire constitue, sans conteste, notre bouée de sauvetage pour le grand naufrage énergétique du XXIIè siècle.
Même si aujourd'hui la sainte huile et ses acolytes le Gaz naturel et le charbon sont encore disponibles, il est sage de commencer sérieusement à préparer le "monde d'après" pour ne pas être pris au dépourvu lors de la pénurie.
Chez les cigales, on continuent à chanter et on se préoccupe assez peu de cette histoire de soi-disant pénurie, avec ses airs d'arlésienne qui se prend pour le père fouettard. A l'abri derrière un nucléaire faussement bonhomme, on peut chanter encore un certain temps. Mais pas trop longtemps.
Chez les fourmis (d'outre-Rhin), on ne chantent pas. Un chat est un chat, puisque pénurie il y aura, plus vite on cherchera d'autres sources, plus vite on évitera les conséquences fâcheuses.
Elles ont donc décidé, pour faire bonne mesure, d'arrêter le nucléaire et de développer les renouvelables à tour de bras.
L'éolien et le solaire ont ainsi fait l'objet en Allemagne d'une politique de déploiement ambitieuse.
En 2015, on y trouve un parc éolien de 45 GW installés, produisant annuellement 88 TWh , soit 13,5 % de l'énergie électrique d’outre-Rhin.
Le facteur de charge global est de 22,3%, relativement faible car la part de l'éolien offshore n'y est encore que de 10%.
La consommation électrique allemande s'élève à 650 TWh, ce qui correspond à une puissance moyenne de 74 GW, toutes sources confondues.
On peut alors s'étonner qu'avec une puissance installée éolienne représentant plus de 60% de la puissance moyenne électrique consommée par l'Allemagne, l'éolien ne participe qu'à hauteur de 13,5% à la quantité d'énergie produite (88 TWh sur 650).
C'est le "drame" des énergies intermittentes.
Il ne faut pas confondre énergie et puissance.
La puissance "installée" d'une unité de production électrique quelle qu'elle soit représente la puissance maximale qu'elle peut délivrer dans les meilleures conditions, on parle alors de "Puissance nominale".
Par exemple, pour une centrale thermique ou nucléaire, la puissance réellement délivrée en régime continu est égale à la puissance nominale pour peu qu'on lui fournisse le combustible requis, ce qui est facile s'agissant de Gaz, de Charbon ou de combustible nucléaire, du moins tant qu'ils sont disponibles.
Pour une éolienne il en va autrement. Le vent est certes gratuit, mais il souffle à sa guise.
La puissance délivrée dépend de la force du vent, elle a sa valeur "nominale" seulement pour une vitesse de vent comprise dans certaines limites.
Si le vent faiblit, la puissance diminue et si le vent est trop fort il faut mettre les pales en "drapeau" pour éviter une avarie.
Donc, même si la puissance éolienne installée est impressionnante, la puissance "utile" sera notablement plus faible, le rapport des deux étant le "facteur de charge".
Pour le parc éolien allemand, le facteur de charge varie entre 18% pour des machines terrestres assez mal situées, jusqu'à 35% pour des machines offshore modernes bien exposées.
La moyenne est à 22,3%.
Il faut donc un nombre d'éoliennes considérable pour égaler la production énergétique d'une petite centrale thermique.
Ce point est préoccupant car les possibilités d'occupation des sols et des plateaux continentaux sont évidemment limitées.
Le Gouvernement allemand a lancé un programme visant à obtenir une meilleure utilisation du vent en agissant dans deux directions:
Remplacer les "vieilles" machines par d'autres plus modernes de meilleur rendement et plus puissantes ( Re-powering), et développer des super-machines de 10 MW et plus pour les applications offshore futures.
La production éolienne est donc par nature intermittente, puisque dépendant de la force du vent.
Les relevés des années 2011 à 2014 montrent que la puissance effective délivrée au réseau par les éoliennes allemandes a fluctué dans un rapport de 1 à 5,5 sur un rythme annuel et saisonnier, et même d’un jour à l’autre.
Le maximum est en principe sur Décembre-Janvier et le minimum sur Juillet-Août, avec des « variations surprise » car, comme dit la chanson: « Le vent souffle où il veut ».
Les clients attendent du réseau une disponibilité de puissance sans faille, ils se moquent des sautes de vent. Le gestionnaire de réseau doit donc se débrouiller pour compenser les fluctuations de l’éolien (et du solaire).
Tant que la part de l'éolien dans le mix électrique allemand est faible (13,5 % aujourd’hui) ces fluctuations de puissance restent gérables en ajustant la puissance des autres sources d'énergie (Centrales thermiques).
Par contre, si la part éolienne passait à une valeur importante, 30% par exemple, les fluctuations dues à l'intermittence deviendraient ingérables sauf à construire de nouvelles centrales thermiques, ce qui est contraire à l'esprit de la transition énergétique.
Heureusement les choses s'arrangent un peu lorsque l'on considère la production d'énergie solaire.
Les allemands ont également beaucoup investi dans le solaire jusqu'en 2014. Le parc photovoltaïque ( PV) affiche aujourd’hui 38 GWc installés en 2014, produisant 35 TWh, soit 6% environ de part dans le mix électrique.
Le rendement des panneaux est de 10,5%, ce qui est normal dans un pays non privilégié par l'ensoleillement, sauf le Sud.
Cette énergie est bien sûr intermittente, mais les relevés de 2011 à 2014 montrent que les fluctuations solaires sont déphasées favorablement par rapport aux fluctuations du vent, apportant ainsi une compensation partielle de l'intermittence de l'éolien.
En gros il y a moins de vent en été, mais davantage de Soleil, et vice-versa en hiver.
On peut tirer de cette constatation que l'éolien et le solaire sont complémentaires et doivent impérativement être déployés simultanément pour minimiser les inconvénients de l'intermittence.
Actuellement en Allemagne la part de ces deux énergies dans le mix électrique atteint 20 % environ, contre 4 % en France.
(En termes de production annuelle).
La gestion de l’intermittence impose au gestionnaire de réseau l’obligation de s’adjoindre un service météorologique très performant afin d’établir des prévisions détaillées des vents et de l’ensoleillement.
Ces prévisions doivent avoir une résolution spatiale permettant d’effectuer des prévisions de production pour chaque parc éolien ou solaire.
Toujours en Allemagne, la production électronucléaire est de 90 TWh avec 8 réacteurs encore en service, soit 14 % de la production électrique.
Cette production est censée disparaître en 2022.
Elle sera remplacée par des renouvelables, ou par des centrales thermiques.
En France, où la part de l’éolien et du solaire n’est encore que de 4% du mix électrique, et où la production électronucléaire se porte bien, merci, ces problèmes sont évidemment ignorés, sauf de EDF qui aura à les affronter un jour.
Nous lui souhaitons bien du plaisir…
PS:
Selon Eurostat, les prix de l’électricité pour le consommateur domestique sont en moyenne 80% plus élevés en Allemagne qu’en France.
Préparez vos mouchoirs…

Repost 0
14 mars 2016 1 14 /03 /mars /2016 09:24

La dure existence d'un réacteur nucléaire.

14 Mars 2016

Un réacteur nucléaire est fréquemment comparé à une cocotte minute ou à une chaudière de chauffage central.
Certes, il en utilise certains principes de base, mais il en diffère par quelques "petits" détails.
Une meilleure image serait celle d'un équilibriste posé sur un fil tendu au-dessus du cratère d'un volcan en activité, et qui devrait garder cette position durant quarante années, voire davantage.
Encore que, si notre homme tombe, il disparaît sans causer d'autre dégât qu'à lui-même.
Tandis que si notre réacteur "perd l'équilibre", les dégâts seront autrement importants comme on a pu s'en rendre compte à deux reprises en moins d'un quart de siècle.
La conduite d'un réacteur ne supporte pas l'approximation.
La description des multiples avatars susceptibles de précipiter la catastrophe nous entraînerait trop loin et pourrait causer maints cauchemars chez le lecteur non prévenu .
Le maintien d'un réacteur en bon état de fonctionnement est une sorte de guerre de tranchées perpétuelle, une traque permanente du moindre petit écart de paramètre qui pourrait déclencher un enchaînement d'incidents dont l'issue est souvent fatale s'il n'y est pas mis bon ordre dans les plus brefs délais.
Heureusement le personnel est aidé dans sa tâche par une armée de dispositifs automatiques redondants qui se chargent de l'essentiel du travail de régulation, de détection des écarts de fonctionnement, et d'application des mesures de correction nécessaires.
A condition bien sûr que les sondes, les soupapes, les tuyaux, les pompes, les relais électromagnétiques, les voyants d'alarmes, les électrovannes, les détecteurs de niveaux, les manomètres, et autres commandes manuelles ou non, soient de bonne composition et consentent à se comporter conformément au cahier des charges et sans défaillance.
La perfection n'étant pas de ce monde, la présence permanente d'une équipe de spécialistes est requise pour prendre les décisions lorsque des choix s'imposent concernant la conduite à tenir en présence d'une anomalie. En l'occurrence, des procédures précises doivent être suivies, qui sont décrites dans des "cahiers de consignes" dont l'exhaustivité doit être le gage de la bonne marche du système.
Le principe est que rien ne doit être laissé au hasard ni à l'improvisation.
Un réacteur n'aime rien tant que la tranquillité. Lorsqu'un état d'équilibre est obtenu, il vaut mieux ne rien faire pour le perturber, il faut surtout éviter les variations brusques car elles nuisent à la santé des différents organes, et donc à la longévité de l'ensemble. Les chocs thermiques et les vibrations sont particulièrement redoutés.
Toutes les installations de production d'électricité, parmi lesquelles 58 réacteurs nucléaires, sont raccordées au réseau et ont entre autres pour tâches de contribuer au maintien de la fréquence de 50 Herz et de la tension, dans des limites précises.
A chaque instant, l'ensemble de ces installations est géré de manière à fournir exactement la puissance demandée par les utilisateurs.
Il existe une très faible capacité de stockage d'électricité, constituée par un parc de STEP (Station de Transfert d'Energie par Pompage) qui sert surtout à amortir les à-coup de puissance sur le réseau.
Les utilisateurs "appellent" de la puissance en fonction de leurs besoins du moment, et c'est aux gestionnaires du réseau de s'arranger pour la leur fournir.
Pour cela il existe chez ERDF un service important de prévisions de consommation, dont la tâche est d'analyser les besoins et les habitudes des consommateurs (particuliers, commerçants, industriels) afin d'établir des prévisions permettant de gérer au mieux les installations de production.
La puissance électrique demandée par ce réseau est fluctuante, elle peut varier de +/- 50% selon l'heure, le jour, la saison, les conditions météo (Chauffage électrique).
Il est donc nécessaire de pouvoir faire varier la puissance injectée dans le réseau, au rythme de la demande.
Tant que l'électronucléaire ne participe que pour une faible part à la production électrique d'un pays, il est effectivement possible de conserver les réacteurs à leur puissance nominale et de suivre la demande en agissant sur les autres moyens de production (Thermiques en général).
Mais lorsque, comme en France par exemple, le nucléaire constitue l'essentiel des moyens de production électrique, il devient nécessaire d'ajuster la puissance du parc en modifiant la puissance des réacteurs eux-mêmes.
Les réacteurs doivent donc travailler en "régime flexible" selon le mode de "suivi de charge".
La plupart des réacteurs (Sinon tous) peuvent fonctionner dans ce mode, avec des possibilités d'amplitude plus ou moins grandes, mais ce régime entraîne une fatigue supplémentaire du matériel, dont on doit tenir compte dans le programme de maintenance.
La licence d'exploitation de chaque réacteur définit ainsi le nombre total de cycles de variation de charge admissibles en fonction de la conception d'origine du réacteur et du types de transitoires autorisés.
La modulation de puissance (Suivi de charge) est obtenue par deux procédés classiques: Le positionnement des barres de contrôle et/ou la concentration d'acide borique dans le circuit primaire.
Notons au passage que, pour les réacteurs français de première génération (900 MWe) type Fessenheim, la modulation de puissance par l'acide borique (mode A) est largement utilisée. C'est un mode efficace mais lent.
( Contrairement à ce qui a pu être dit à propos de la récente controverse sur Fessenheim, l'arrêt d'un réacteur de génération 1 avec injection de Bore n'est pas une procédure exceptionnelle).
Lors de la modulation de puissance, il se produit des variations de température dans le circuit, qui entraîne une fatigue de la plupart des composants par changements cycliques de charge mécanique. Cette fatigue entraîne une usure prématurée, cause de changements structuraux.
Chaque réacteur est donc spécifié pour un certains nombre de cycles d'amplitude et de temps de transition autorisés.
La fatigue liée à la modulation de puissance concerne entre autres:
- La cuve, qui doit supporter les écarts de température importants préjudiciables à la fiabilité à long terme (fragilisation de l'acier).
- Les piquages des tuyaux de raccordement des boucles du circuit primaire, fatigue des soudures, fuites éventuelles.
- Le revêtement en acier inox de l'intérieur de la cuve, les contraintes thermiques peuvent provoquer des microfissures sous le revêtement.
- Les fourreaux de passages des barres de contrôle et de l'instrumentation, qui traversent le couvercle de cuve et doivent assurer l'étanchéité. Ils n'aiment pas les chocs thermiques.
(Ils sont contrôlés lors des visites annuelles, et sur certains il existe des sondes de détection de fuites d'eau primaire).
- Les crayons de combustibles, avec des écarts de dilatation entre les pastilles et la gaine, entraînant des fissures et des fuites de combustible dans le circuit primaire.
- La densité de puissance dans le cœur, qui subit des variations liées aux divergences de température.
- Les vannes du pressuriseur, dont la fréquence de travail est augmentée considérablement.
- Le pressuriseur lui-même, qui travaille beaucoup plus en mode suivi de charge qu'à puissance constante.
- Les barres de contrôle, qui n'arrêtent pas de faire le yo-yo dans les gaines, qui s'usent beaucoup plus vite.
- Le mécanisme de commande des barres de contrôle, fortement sollicité.
- Les pompes, qui n'apprécient guère les changements de régime fréquents, qu'il s'agisse des pompes primaires ou du circuit secondaire vers les générateurs de vapeur.
- Les générateurs de vapeur eux-mêmes, dont les tubes échangeurs de chaleur sont mécaniquement sollicités, avec un régime de vibrations variable en fonction des variations de température. Les risques sont des ruptures au niveau des tubes échangeurs ou des canalisations de raccordement au circuit primaire.
- Etc…
Beaucoup de monde dont il faut vérifier périodiquement l'état de santé.
Les barres de contrôle doivent faire l’objet d’un suivi particulier en raison de leur rôle essentiel dans la sureté. En cas de problème pouvant affecter la partie nucléaire de l'installation (Cuve du réacteur, circuit primaire, circuit secondaire, combustible, température, pression, pressuriseur, pompes primaires et secondaires) il faut arrêter immédiatement le réacteur. Ceci est obtenu en déclenchant la chute des barres de contrôle au sein des grappes de crayons combustibles, la réaction est alors stoppée en deux secondes.
L'arrêt est ensuite conforté par injection d'acide borique dans le circuit primaire si nécessaire.
Lorsque le réacteur est ainsi "arrêté" le cœur continue à chauffer et dégage environ 7% de sa puissance nominale, ce qui fait quand même 210 MW sur un réacteur de 1000 MW électriques (3 000 MW thermiques).
Il faut donc continuer à le refroidir sous peine de fusion du cœur et accident niveau 7+ (Fukushima). Le cœur est considéré comme froid au bout d'un mois seulement.
Il est donc indispensable que les barres de contrôle soient en parfait état, ainsi que le mécanisme de commande et les gaines de coulissement.
Si les barres de contrôle sont coincées, on a toujours la solution d'arrêter le réacteur en injectant massivement de l'acide borique dans le circuit primaire.
En mode de suivi de charge ces barres de contrôle sont très sollicitées et s'usent plus rapidement qu'en mode régime de base.
Le blocage d’une ou plusieurs barres peut résulter d’une usure intense. L’accident le plus important à ce niveau est le percement d’une gaine d’étanchéité dans laquelle coulisse une barre de contrôle. Sous l’effet de la pression du circuit primaire (155 kg), il peut alors y avoir éjection de la barre avec des dégâts collatéraux et fuite de fluide primaire dans l’enceinte.
L’affaire peut très mal se terminer si le réacteur n’est pas aussitôt arrêté. Il est important que soit monté un dispositif limitant le déplacement de la barre en cas d’éjection, ce n’est pas le cas partout.
Le fonctionnement en mode de suivi de charge n’est donc pas anodin. Il nécessite un suivi particulier et une maintenance plus lourde.
L'arrivée des énergies nouvelles intermittentes, dans un environnement non prévu pour stocker l'électricité, crée une situation nouvelle qui va aggraver la fatigue des réacteurs:
L'éolien et le solaire étant des énergies intermittentes par nature, le réseau aura à gérer des apports massifs très irréguliers d'énergie. Face à une demande relativement stable, il faudra donc moduler la puissance du réseau en mettant les autres centrales (Thermiques et nucléaires) en mode de suivi de charge intensif, provoquant ainsi une fatigue supplémentaire des installations.
Tout ceci est évidemment pris en compte dans la gestion du parc nucléaire, mais il n'en demeure pas moins que l'arrivée "sauvage" des renouvelables intermittentes fait peser un problème nouveau sur l'ensemble du parc de production "classique".
La nécessité de systématiser le mode de suivi de charge implique d'accompagner le déploiement de la production intermittente d'une part de production "flexible" en l'absence de moyens de stockage d'électricité.
Cette production flexible sera à base de centrales thermiques à gaz dans l'hypothèse d'une sortie du nucléaire. Sa part pourra représenter 30 à 40% de la puissance installée, et dépendra de la structure du parc d'énergies renouvelables, de la répartition éolien/solaire, du régime des vents et de l'ensoleillement.
L'augmentation de la part des énergies renouvelables intermittentes aura donc un impact certain sur le vieillissement des réacteurs nucléaires.

Repost 0
11 mars 2016 5 11 /03 /mars /2016 11:22

11 Mars 2016

En France, la production électronucléaire est sensiblement égale à la consommation d'électricité finale.

Alors, pourquoi "seulement" 75% de nucléaire dans le mix électrique ?

Cette apparente anomalie est due aux fluctuations importantes de la demande de puissance de la France.

En effet, la demande intérieure fluctue entre 40 GW (GigaWatts) et 100 GW selon la saison, l'heure, et la météo, alors que la puissance électronucléaire disponible maximale est plafonnée à 63,2 GW.

Lorsque la demande intérieure excède 63,2 GW, il faut faire appel à des moyens de production supplémentaires, qui ne sont pas nucléaires, ou importer de l'électricité; par contre, lorsque la demande est inférieure à 63,2 GW, il faut exporter la production nucléaire excédentaire car on ne sait pas la stocker (Les STEP existantes n'ont pas la capacité nécessaire).

C'est pourquoi la part effective du nucléaire dans la consommation intérieure est "seulement" de 75%.

Si ces fluctuations de demande interne pouvaient être lissées, le nucléaire existant serait alors capable de fournir 100% des besoins, soit 470 TWh environ.

L'objectif du programme "Smart Grid", dont le compteur Linky est le premier maillon, est précisément de lisser la demande de puissance pour en limiter les fluctuations.

Lorsque ce programme sera opérationnel ( Il y a 35 millions de compteurs à installer), le nucléaire pourra alors fournir non pas 75% de la demande, mais 80 ou 85%, voire davantage, et ceci sans augmenter la puissance installée.

Ceci n'est évidemment pas du goût des anti nucléaire, à qui le Gouvernement a promis une réduction de la part de cette technologie à 50% dans le mix électrique, sans cependant préciser l'échéance.

Mais alors, que faut-il croire, 50% ou 85% ?

L'équation est schizophrénique:

Si l'on garde le nucléaire à sa puissance actuelle de 63,2 GW, la mise en œuvre du smart grid conduira à une part électronucléaire plus élevée qu'aujourd'hui, sans qu'il soit nécessaire d'augmenter la puissance installée du parc.

C'est évidemment le souhait des partisans de cette technologie, qui ont défendu ( et obtenu) le principe du maintien de la puissance à sa valeur actuelle de 63,2 GW.

Dans ce cas bien sûr il faudra poursuivre les travaux de mise à nivaux du parc existant (Grand carénage) et la construction des EPR prévus pour remplacer les centrales REP les plus anciennes, dont le démantèlement sera aussitôt entrepris comme prévu dans la procédure légale.

Si au contraire on décide un retrait du nucléaire, il faudra démarrer un programme de substitution basé sur les énergies renouvelables et incluant un programme de construction d'installations de stockage d'énergie pour compenser l'intermittence de l'éolien et du solaire, qui sont appelés à fournir plus de 60% de la consommation électrique.

Parallèlement à ces travaux, il faudra financer le démantèlement du parc nucléaire existant, et mettre un terme aux développements de nouveaux réacteurs.

Dans les deux cas il faudra se dem… avec les déchets.

Une éventuelle décision de retrait du nucléaire ne saurait se satisfaire d'une solution mi-figue mi-raisin.

Si la décision de retrait est motivée par la volonté d'épargner aux populations européennes le risque d'une catastrophe majeure, alors il faut tout arrêter, et dans des délais le plus court possible, de l'ordre d'une décennie.

Se contenter d'arrêter vingt réacteurs et en conserver trente-huit en activité serait dépourvu de sens. Le risque ne serait pas significativement réduit pour autant.

D'autre part, lancer le démantèlement de cinquante-huit réacteurs quasi simultanément est une entreprise surhumaine, eu égard au manque d'expérience ( et au coût).

Il est important de rappeler qu'il n'y a pas d'exemple dans le monde d'un seul réacteur entièrement démantelé jusqu'au niveau de l'herbe.

Il n'aura échappé à personne que, aujourd'hui, le Gouvernement n'a pas encore fait de choix.

La promesse de réduire à 50% la part du nucléaire dans le mix électrique est absolument fantaisiste, dès lors que l'on annonce dans le même temps que l'on maintient la puissance du parc nucléaire à 63,2 GW.

Evoquer un éventuel retrait du nucléaire n'a de sens que si l'on peut justifier de l'existence de moyens de production de remplacement, si possible évidemment avec des énergies renouvelables.

Aujourd'hui, le seul programme conséquent susceptible d'être appelé à remplir ce rôle est le programme de parcs éoliens offshore de la côte atlantique.

Un premier appel d'offres (2012) a permis de démarrer quatre parcs d'une puissance totale installée de 1 928 MW, dont le raccordement est prévu de 2 018 à 2 020.

Un deuxième appel d'offre (2 014) concerne deux autres parcs offshore d'une puissance totale de 992 MW, avec raccordement en 2 023.

Le facteur de charge estimé pour ces parcs est de 35%, ce qui correspond à une production annuelle de 6,7 TWh pour le premier, et 3 TWh pour le second.

Par comparaison, un seul des réacteurs REP de la première génération produit annuellement environ 7 TWh, soit 14 TWh pour la centrale de Fessenheim dont l'arrêt est en question ( Deux réacteurs).

Donc, la totalité de la future production des six parcs éoliens offshore en cours de construction ne suffirait même pas à compenser l'arrêt de la centrale de Fessenheim.

Et il ne s'agit que de deux réacteurs de puissance "réduite" de 900 MW et dont le facteur de charge est peu élevé (85%).

Et de plus, la production éolienne offshore est intermittente puisque soumise au régime des vents. Elle ne peut donc contribuer au bilan énergétique global que si, et seulement si, elle peut s'adosser à des moyens de relève de l'intermittence dédiés.

Inutile de préciser que ces moyens n'existent pas et qu'ils n'ont fait l'objet d'aucun appel d'offres à ce jour.

(Bien que l'absence de moyens de compensation de l'intermittence soit un obstacle dirimant au déploiement de l'éolien et du solaire, ce problème ne semble empêcher personne de dormir, ce qui pourrait prouver le peu d'intérêt réel porté par nos responsables aux énergies renouvelables. Mais, est-ce bien une surprise ?).

L'éventualité d'une décision d'arrêt immédiat d'un ou plusieurs réacteurs nucléaires se traduirait donc dans l'heure qui suit par un déficit de puissance électrique qui ne pourrait être compensé que par des importations et/ou l'augmentation de l'activité des moyens thermiques existants, qui sont eux-mêmes limités.

( C'est pourquoi il est nécessaire d'attendre l'entrée en production de l'EPR de Flamanville avant de songer à arrêter Fessenheim).

D'autre part, et selon le nombre de réacteurs arrêtés, il sera nécessaire de lancer rapidement la construction d'un nombre équivalent de centrales thermiques à Gaz puisque aucun moyen de production renouvelable ne sera disponible avant 2 020 ou 2 023.

(L'avantage des centrales à Gaz à cycle combiné est qu'il ne faut que deux ans pour en construire une, et que le coût est évidemment considérablement inférieur à celui d'un réacteur nucléaire !

Quant à lancer la construction de centrales à fuel ou à charbon, personne n'oserait le suggérer…Quoique….).

Il semble donc tout à fait irréaliste de se battre sur une décision de réduction rapide de la puissance électronucléaire, c'est tout simplement impossible avant au mieux 2023.

Sauf bien sûr à lancer un vaste programme de construction de centrales à Gaz, ce qui hélas risque fort de nous pendre au nez…

Il y a en effet de fortes chances pour que la transition énergétique démarre par le lancement d'un important programme de construction de centrales à combustibles fossiles.

On vous avait bien dit qu'il faudrait choisir entre la peste ou le choléra.

Et pendant ce temps, les Shadoks pompaient….

Repost 0
9 mars 2016 3 09 /03 /mars /2016 15:07

9 Mars 2016

Parmi les sujets offerts récemment en pâture à l’opinion publique se trouve l’affaire du compteur Linky.

Ce nouveau compteur, qui n'en demandait pas tant, s'est ainsi trouvé promu au rang d'agent au service d'un complot visant à espionner notre vie privée pour le bénéfice d'un "Big brother" dont les menées politiques et surtout commerciales seraient destinées à servir les buts hégémoniques de la "World Company".

Pour faire bonne mesure, ses détracteurs chargent la mule en « dénonçant » un risque de santé publique qui résulterait de l'usage de courants porteurs émetteurs d’ondes électromagnétiques nocives pour les personnes.

Ce procès à charge est accompagné d'un appel à l'opinion afin d'exiger l'abandon du programme.

C'est, à travers cette affaire, tout le projet "Smart Grid" qui est remis en question par les "lanceurs d'alertes" appuyés par les réseaux sociaux.

Essayons d’y voir clair.

Pourquoi un nouveau compteur ?

Le CBE ( Compteur Bleu Electronique) a à peu près complètement remplacé les anciens compteurs électromécaniques. Il apporte des avantages tels que la possibilité du télé relevé, et un certain niveau de communication avec l’usager. On aurait pu penser qu’il apportait une solution moderne et définitive au problème du raccordement client.

Hélas, c’était sans compter avec la transition énergétique, qui nous impose quelques révolutions technologiques.

Historiquement, la distribution de l’énergie électrique est organisée sur le principe de l’adaptation de l’offre à la demande.

ERDF, en tant que grand régulateur du réseau, établit des prévisions de consommation et met en œuvre les moyens de production nécessaires à la satisfaction de cette demande.

Pour cela la production repose sur deux dispositifs:

Le premier, qui est le cœur du système, est chargé de la production de base. Il est constitué d’un parc de 58 réacteurs électronucléaires correspondant à une puissance installée de 63,2 GW, et produisant bon an mal an 470 TWh pour un facteur de charge de 85% ( Ces valeurs peuvent fluctuer d’une année sur l’autre selon les variations du facteur de charge lié aux aléas industriels).

Le volume annuel de cette production est sensiblement égal à la demande intérieure annuelle d’électricité finale.

Ce n’est pas un hasard. En fait l’habitude était prise de construire des installations de production au fur et à mesure de l’augmentation de la demande, un peu à guichet ouvert, sans se demander si on ne ferait pas mieux d’essayer de commencer par réduire cette demande.

Cette course à l’échalote nous a conduits droit dans le mur.

En effet, la demande intérieure de puissance n’est pas constante, elle fluctue entre 40 GW environ et 100 GW selon la saison, la météorologie, le jour de la semaine et l’heure de la journée ou de la nuit, alors que la production nucléaire est continue par vocation, et plafonne à 63,2 GW.

Lorsque la demande est inférieure à 63,2 GW, l’excédent produit par les réacteurs nucléaires est vendu à l’export car on ne sait pas stocker l’électricité en masse.

A l'inverse, lorsque la demande excède 63,2 GW, l’opérateur fait appel à un deuxième dispositif qui comprend des moyens de production supplémentaires constitués de centrales thermiques à flamme, de centrales hydroélectriques, et d’un peu de renouvelables.

En cas de pic de demande au-delà de 85 à 90 GW, il est nécessaire d’importer de l’électricité car les moyens supplémentaires en place ne suffisent plus.

Il en résulte que l’électricité consommée se compose de 400 TWh d’électronucléaire (# 75%) et de 130 TWh du reste.

(Dont environ 30 TWh de consommation énergétique incluant les pertes en lignes, et l’autoconsommation des industries énergétiques).

Si la demande de puissance était constante, le nucléaire pourrait fournir 100% des besoins.

Indépendamment de la transition énergétique, cette demande interne en yo-yo devient insupportable et EDF a tiré le signal d’alarme: Si rien n’est fait pour corriger cette situation, la fourniture du pic de consommation pourra devenir problématique, et ceci dès 2016 si les conditions météo sont défavorables.

(En effet, le retrait du nucléaire, décidé par nos voisins allemands, réduit fortement pour la France les possibilités d’importation en cas de pic de demande dépassant les 100 GW. Des délestages seraient alors nécessaires ).

Il est donc indispensable de ramener les fluctuations du yo-yo dans des limites acceptables, l’objectif étant de 10% autour de la valeur moyenne de 63,2 GW.

Ceci est d’autant plus critique que, malgré les projets de réduction de consommation énergétique, la consommation électrique est toujours en augmentation. Cette accroissement est en rapport avec l’augmentation du nombre des ménages, la demande de confort toujours plus forte, les nouvelles applications comme la domotique, l’informatique, les communications, auxquelles viendront s’ajouter les véhicules électriques dans un proche avenir.

Pour obtenir une réduction des fluctuations de puissance demandée, il est nécessaire d’introduire une part de régulation du profil de la consommation des usagers.

Le but étant d’étaler dans le temps l’utilisation des appareils gros consommateurs comme les radiateurs électriques, les cumulus, les lave-linge, sèche-linge, lave-vaisselle, tables de cuisson, fours électriques, pompes à chaleur, et batterie de véhicules électriques.

Ceci ne peut être réalisé que grâce à un dialogue en temps réel (c’est important) avec l’usager, conduisant à une négociation sur un programme personnalisé d’étalement des consommations en fonction des possibilités de chacun. Des incitations tarifaires sont évidemment prévues, ainsi qu’une aide personnalisée pour optimiser la gestion de l’énergie électrique du domicile.

Ce dialogue nécessite d’établir entre le fournisseur d’énergie et l’usager une liaison bidirectionnelle et de fournir une interface de raccordement compatible avec la mise en œuvre du programme de gestion optimisée.

C’est la fonction du nouveau compteur Linky.

Il est important de préciser que cette démarche, qui vise à obtenir un lissage de la puissance demandée, est incontournable et ne peut faire l’objet d’une discussion. Elle est au cœur de la transition énergétique.

On peut, à la rigueur, discuter sur la manière dont la démarche est mise en œuvre, mais pas sur la démarche elle-même.

L’installation de compteurs communicants est le premier acte d’une série qui doit conduire à la mise en œuvre du réseau intelligent (Smart Grid).

Son utilité est démontrée déjà dans la situation actuelle, puisqu’il permettra d’obtenir une meilleure utilisation de l’énergie électrique.

En effet, comment peut-on justifier, dans la perspective d’une meilleure efficacité énergétique, de maintenir une capacité de puissance installée de plus de 90 GW alors que la puissance moyenne demandée n’est que de 63 GW ?

Dans la transition énergétique, la première démarche est donc bien de faire cesser ce gaspillage.

C’est vrai aujourd’hui, ce le sera encore plus demain dans la perspective d’avoir à renoncer à l’électronucléaire et au thermique fossile, car c’est bien de cela qu’il s’agit.

( N’oublions pas qu’il « suffirait » de quatre ou cinq EPR de plus pour régler le problème. Certains y pensent, les opposants au compteur Linky feraient bien d’y penser aussi…).

La transition énergétique est dans l’air du temps, elle finira bien par se produire un jour.

Cette échéance impose à l’évidence de réfléchir aux dispositifs qui remplaceront le nucléaire et les fossiles.

(Cette réflexion est de la responsabilité des gouvernements et du ou des fournisseurs d’énergie).

Les moyens de production de substitution sont connus:

Eolien, Solaire, Biomasse essentiellement.

L’Eolien et le Solaire sont appelés à prendre en charge une part importante de la demande électrique, certainement plus de 60%.

Ces sources d’électricité sont intermittentes par nature car soumises aux aléas météorologiques et aux alternances jour/nuit.

Les possibilités de stockage d’électricité seront limitées et ne pourront prendre en charge la totalité de l’intermittence.

Il sera donc nécessaire de changer l’approche de la gestion du système de distribution.

Aujourd’hui c’est la production qui s’adapte à la demande.

On a vu que, pour cela, il nous faut maintenir disponibles des installations d’une puissance très supérieure aux besoins moyens.

Demain il sera indispensable de modifier ce concept. Une partie de la demande devra s’adapter à la production disponible.

Ce changement de paradigme n’est évidemment pas perçu par les consommateurs, habitués à la situation d’abondance actuelle.

Mais dès 2020 il leur faudra accepter certaines contraintes et certains aménagements sous peine de devoir en payer le prix sous forme de délestages inopinés et/ou de pénalités tarifaires.

La gestion fine du réseau de distribution imposera des liaisons bidirectionnelles avec l’usager, ce que fait le compteur Linky.

L'aspect positif du déploiement de ce nouveau compteur est compris par la majorité de la population.

Une minorité s'y oppose, arguant d'un manque de sécurité dans la gestion des données personnelles recueillies, et de risques allégués de santé publique liés à certaines radiations. Le principe de précaution est invoqué afin d'obtenir l'interdiction de ce compteur.

Si l'on écarte les réactions misonéistes et de simple néophobie, il demeure une interrogation légitime qui traduit un besoin d'explications.

Les arguments contre ce nouveau compteur sont de deux ordres:

D’une part, une partie des opposants lui reprochent de diffuser dans le logement des radiations électromagnétiques nocives pour la santé et insupportables par les personnes électro sensibles.

D’autre part d’autres opposants (incluant une partie des précédents) n’acceptent pas de voir leurs données personnelles de consommation mises à disposition d’un tiers.

Que peut-on dire sur ces deux problèmes ?

Concernant les radiations électromagnétiques, il faut savoir que le compteur Linky ne diffuse lui-même aucune radiation dans le logement.

Il se contente de mettre à disposition de l’usager une interface de communication lui permettant, s’il le désire, d’y connecter son propre réseau domotique sur lequel il fera circuler les signaux de son choix, avec les moyens de son choix ( filaire blindé ou non, CPL, radio, etc…) et pour commander les appareils de son choix.

La sortie information client standard est prévue sur Bus filaire réalisé avec un câble blindé mis à la Terre.

Ceci pour éviter les perturbations radio qui pourraient être créées par des moyens de transmission non blindés.

Le compteur Linky n'injecte aucun signal CPL dans le logement.

Les seuls signaux CPL utilisés par Linky le sont entre le compteur et le transformateur BT de quartier, donc à l’extérieur du logement, et la plupart du temps en lignes enterrées.

A partir de la sortir IC ( Informations Clients) on entre dans le domaine privé.

Il appartient au client (ou à son installateur) de réaliser une installation dans les règles de l’art afin de supprimer tout risque de perturbations EM. ( Electro Magnétiques).

Si le client désire communiquer avec le compteur par une liaison radio ( C'est son droit), il existe un module ERL (Emetteur Radio Linky) fonctionnant dans la bande 2,4 Ghz/Protocole ZigBee ou 858 Mhz/Protocole KNX.

Ce module normalisé peut être fourni sur option avec le compteur.

Si le client est gêné par des radiations, ce seront les siennes propres et il devra s’en prendre à lui-même, ou voir le problème avec son installateur.

Pour ceux qui craignent les ondes EM quelles qu'elles soient, on ne peut que leur conseiller d'éviter d'utiliser l'interface ERL (Emetteur Radio Linky) et de veiller à ce qu'aucun CPL ne soit utilisé dans le logement.

Il leur suffira d'utiliser la sortie communication standard fournie par le Linky, et de câbler leurs liaison domotique en filaire blindé (Comme recommandé dans la notice Linky).

Et bien entendu de couper toute autre installation personnelle qui utiliserait soit un réseau CPL, soit un réseau Wi-Fi, et d'éteindre tous les téléphones cellulaires présents au domicile.

Il va de soi que leurs appareils de puissance compatibles Linky, s'ils en ont, devront être équipés d'une interface filaire, et surtout pas d'interface CPL ou Wi-Fi, ou autre Radio.

Rappelons donc que toutes les communications à l’intérieur du logement sont réalisées à l’initiative du client, sous la responsabilité de son installateur, qui seul peut être tenu responsable d’un mauvais fonctionnement et/ou d’un trouble de jouissance causé par d’éventuelles radiations dues à une installation défectueuse.

Concernant les données personnelles, il s’agit du problème général de la protection des données personnelles sur tous les réseaux, téléphonie mobile, internet, réseaux bancaires, paiements par cartes, positionnement GPS, etc, etc….

Les données recueillies en temps réel par le compteur Linky sont envoyées par courants porteurs en ligne sous forme cryptée à un concentrateur situé dans le poste de distribution publique.

Elles sont ensuite traitées par un système qui a reçu la certification de l'ANSSI ( Agence Nationale de Sécurité des Systèmes Informatiques) et le feu vert de la CNIL.

Ensuite l'usage qui sera fait de ces données comporte un aspect collectif d'information sur le réseau, et un aspect individuel lié à un client particulier.

La connaissance en temps réel, par le gestionnaire de réseau, du profil temporel de consommation d'un particulier, peut être ressentie comme une intrusion dans la vie privée. Quand cette connaissance peut s'étendre à la nature des appareils connectés à un moment donné, on peut comprendre l'inquiétude de certains usagers pour qui le huis clos de la vie privée demeure sacré.

Ceux-là doivent savoir que la connaissance détaillée des appareils connectés ne sera pas obligatoire, elle sera simplement utile pour gérer de manière intelligente un éventuel programme d'effacement auquel on aura souscrit moyennant avantage tarifaire.

(il est toujours plus agréable d'effacer un ou deux radiateurs plutôt qu'un appareil de cuisson au moment du repas !)

Notons que l’importance et la sensibilité des données recueillies par Linky est inférieure de plusieurs ordres de grandeur à celle des données qui circulent dans les autres réseaux dont la protection n’est pas meilleure, ni pire.

Donc, dans un avenir pas très lointain, il sera nécessaire et utile de pouvoir programmer l’utilisation des appareils gros consommateurs d’énergie électrique.

Cette programmation devra s’insérer dans un programme de gestion de l’énergie du logement, dont une partie sera décidée par l’usager lui-même, et l’autre partie sera sur incitation du fournisseur d’énergie.

Chaque appareil de puissance devra donc être muni d’une interface permettant la télécommande, certains le sont déjà.

Cette télécommande pourra reposer sur divers médiums: Réseau filaire, Réseau Wi-Fi, ZigBee, KNX, réseau CPL, selon le choix du client qui raccordera tout çà au compteur Linky par l’intermédiaire d’une petite centrale domotique.

(Pour ceux qui craignent d'être agressés par les ondes, ils leur suffira de travailler en filaire blindé comme expliqué plus haut. Et, pour faire bonne mesure, ils pourront faire installer leur compteur à l'extérieur du logement, dans une armoire métallique munie d'une bonne prise de Terre).

Le principe même du compteur communicant est, à terme, de donner au fournisseur d’énergie électrique le moyen de gérer la distribution d’énergie de manière à réduire les fluctuations de demande de puissance tout en préservant le confort des usagers en évitant les délestages inopinés.

Répartir la demande de puissance pour éviter les pics de consommation préjudiciables à la fiabilité du réseau.

Cette répartition intelligente suppose l’assentiment et la collaboration de l’usager.

Dans cette optique l’usager devient un acteur à part entière.

Il appartiendra au gestionnaire de réseau de procéder avec tact et discernement pour désamorcer les conflits et obtenir l’adhésion la plus large possible.

Repost 0
5 mars 2016 6 05 /03 /mars /2016 18:16

5 Mars 2016
On sait que le Nucléaire est un domaine où la dissimulation et le secret sont élevés à la hauteur d’une institution.
L’électronucléaire ne fait pas exception à la règle, bien qu’il s’agisse d’une activité industrielle civile qui, en principe, n’a rien à cacher.
Son caractère potentiellement hautement dangereux (La preuve n’en est hélas plus à apporter) et l’immersion des centres de production au sein des territoires habités fortement peuplés, sont deux raisons pour lesquelles la transparence la plus totale devrait être pratiquée.
C’est le cas officiellement.
L’ASN (Autorité de Sureté Nucléaire) est un organisme dont l’indépendance est garantie par l’Etat (On est prié de ne pas ricaner) et dont la tâche est de surveiller les activités électronucléaires, de détecter les failles de sécurité, de rapporter à qui de droit, d’émettre des injonctions à corriger ces failles, de veiller à l’exécution des interventions jugées nécessaires.
Les rapports de cette auguste institution sont consultables sur son site (www.asn.fr).
Tous les incidents se produisant sur chacune des INB (Installation Nucléaire de base) sont signalés à l’ASN et font l’objet d’un rapport circonstancié et d’un classement dans l’ordre de gravité ( Echelle INES).
La très grande majorité des incidents rapportés sont classés niveau 0 ou niveau 1, le niveau maximum étant 7, correspondant à la catastrophe majeure.
TOUS les réacteurs, récents ou anciens, sont inévitablement (Comme tout système complexe) affectés par des incidents, dont la gestion est prise en charge par des dispositifs de sécurité automatiques doublés ou triplés, et complétés par les interventions immédiates des équipes de sécurité de service.
Tout cela étant régis par des procédures précises intégrant les données du REX ( Retour d’EXpérience).
Le but ultime étant d’éviter la perte de contrôle du réacteur avec dénoyage partiel ou total du cœur, qui entraînerait la fusion de ce cœur avec éventuellement perçage de la cuve et libération du corium.
(LOCA, Lost Of Coolant Accident, niveau 7+).
On parle beaucoup en ce moment d’un problème qui affecte la zone « non nucléaire » du réacteur N°1 de Fessenheim.
(Comme s’il existait une zone non nucléaire dans une centrale!)
Il existe semble-t-il à cet endroit un problème récurrent de tuyauterie qui affecte l’alimentation des générateurs de vapeur.
A plusieurs reprises (2014 et encore en 2015), une portion de ce tuyau sous pression cède et il se produit une fuite importante.
Si la fuite n’est pas immédiatement repérée, l’eau se répand jusqu’à l’étage en dessous, qui héberge les armoires électriques qui commandent les dispositifs de sécurité qui, dans ce cas, déclenchent l’arrêt du réacteur.
(Un peu comme l’automobiliste dont le premier réflexe est d’arrêter son moteur lorsqu’il voit de la vapeur s’échapper de son capot).
Quand on parle de fuites, il s’agit ici de quantités colossales eu égard à la pression et au débit.
La chaîne de sécurité est doublée en deux parties indépendantes, chacune pouvant seule assurer la coupure du réacteur.
L’arrêt du réacteur s’obtient normalement en laissant plonger les barres de contrôle dans la cuve, ce qui stoppe la réaction par absorption des neutrons. Ceci est obtenu soit manuellement, soit automatiquement à partir de capteurs qui détectent l’anomalie.
Tout cela se passe entre gens de bonne compagnie, on éponge l’eau, on remplace la durite percée, on vérifie deux ou trois choses, et on relance le réacteur.
(Normalement on ne relance qu’après avoir obtenu l’autorisation de l’ASN).
Le problème ici est que le fameux tuyau a cédé à plusieurs reprises et que le réacteur a été relancé sans que la cause de l’accident ait été identifiée.
Il paraît également, d’après les informations des médias allemands (!) , que lors d’une de ces manœuvres l’arrêt du réacteur a été obtenue non pas par la méthode habituelle de relâchement des barres de contrôle, mais par injection de Bore dans le circuit primaire ( le Bore est un ralentisseur de neutrons efficace, on en injecte couramment pour réguler la température de l’eau primaire, en conjonction avec le réglage des barres de contrôle).
Il ne nous appartient pas de porter un jugement sur l’orthodoxie de ces manœuvres, l’affaire se règle entre l’ASN, EDF et la CLIS.
Cependant on pourra noter que l’affaire n’a donné lieu à aucun relâchement de produits radioactifs, que le réacteur est resté sous contrôle, et que les équipes de sécurité ont maîtrisé la chose, même si parfois on a pu penser à de l’improvisation.
Ce genre d’incident est classé niveau 1.
Le fait que l’arrêt du réacteur ait été obtenu par injection de Bore et non par abaissement des barres autorise certains à penser que le circuit de commande de ces barres était hors service, ce qui serait alors un incident majeur.
(Les barres tombent de leur propre poids, il est exceptionnel qu’elles restent coincées).
D’autres ont supposé que, dans une vieille cuve, il valait mieux injecter du Bore qu’abaisser les barres, ce qui aurait pu provoquer un choc thermique qui aurait pu être mal supporté.
En tout état de cause on peut s’étonner que des armoires électriques, sur lesquelles repose la sécurité du réacteur, soient disposées dans un local inondable à la moindre fuite !
On peut aussi s’inquiéter de la fragilité d’une canalisation dont le rôle est primordial, et surtout de la vulnérabilité de l’ensemble dans lequel une panne peut en entraîner une ou plusieurs autres.
Tout cela apporte du grain à moudre pour les anti-nucléaires qui, à juste raison, exigent l’arrêt de certaines centrales que leur âge et leur situation géographique rendent décidément de plus en plus dangereuses, et qui ne sont plus supportées par nos voisins.
Il serait effrayant de penser que les mesures de sécurité relatives au maintien en activité des vieilles centrales soit traitées de la même façon que l’aménagement des secteurs routiers dangereux: on attend un certain nombre de morts pour décider d’intervenir.
C’est, hélas, ce qu’on peut craindre…
Pour en savoir plus, lire:
http://www.asn.fr/Controler/Actualites-du-controle/Avis-d-incident-des-installations-nucleaires.

Repost 0
14 février 2016 7 14 /02 /février /2016 19:21

14 Février 2016

L’autonomie des voitures électriques est un sujet récurrent depuis plus d’un siècle.

Aujourd’hui la technologie n’a toujours pas vraiment résolu le problème.

Certes les cartons des ingénieurs sont remplis de promesses laissant espérer des lendemains qui chanteront, mais la réalité du terrain oblige à plus de modestie.

Peut-on définir les besoins ?

Les besoins sont une chose, les envies en sont une autre. Les voitures actuelles remplissent leur fonction utilitaire, et même au-delà pour les performances car il faut également satisfaire l'égo.

Mais, pour circuler sur un réseau limité à 130 km/h (et peut-être 120 km/h bientôt) il n'est pas absolument indispensable de concevoir des véhicules surpuissants capables de 180 km/h voire beaucoup plus, surtout quand on prétend rechercher les économies d'énergie.

La "voiture à deux litres aux cent", cheval de bataille de la lutte contre la pollution et le CO2, et objectif imposé à l'industrie automobile à travers les normes européennes, impose de renoncer aux 180 km/h au profit d'une approche plus "apaisée" du concept de la mobilité.

Nous verrons que la voiture électrique est peut-être une occasion de mettre en pratique ces bonnes résolutions.

Si l'on se rapporte aux caractéristiques d'une voiture moyenne typique à moteur thermique, représentative du modèle "utilitaire amélioré" cher à l'usager soucieux de ses deniers, mais aussi désireux d'offrir une image flatteuse, on trouve une motorisation elle aussi classique:

Un moteur de 70 KW (95 CV), un réservoir de 60 litres représentant une énergie embarquée de 600 KWh, une consommation de 7,5 L/100 ( (nous parlons d'essence) et donc une autonomie de 800 km, cohérente avec les dimensions du territoire.

Le rendement moyen des moteurs thermiques est assez minable, il n’excède pas 20% en usage courant.

Sur les 600 KWh contenus dans le réservoir, seulement 120 KWh seront donc utilisés pour la propulsion, le reste étant dissipé sous forme de chaleur (Dont une partie est récupérée pour le chauffage en hiver).

120 KWh pour faire 800 km, cela fait 15 KWh/100 km.

C'est l'énergie nécessaire pour vaincre la résistance de l'air, les frottements de roulement des pneus, les pertes dans la transmission, et l'énergie nécessaire pour monter les côtes.

La même voiture, équipée d’une propulsion électrique, aura besoin de la même énergie pour le même usage, soit 15 KWh/100 km.

Le moteur électrique de 70 KW ne pose pas de problème, on sait même faire beaucoup mieux.

Le rendement d’une propulsion électrique est très bon, en général 85%, ce qui porte l'énergie primaire nécessaire à 17,6 KWh/100 km environ.

Donc pour avoir la même autonomie que la voiture à essence, il faudrait une batterie de 140 KWh.

Et c'est là que le bât blesse.

Dans l'état actuel de la technologie, une telle batterie pèserait plus d'une tonne, ce qui doublerait le poids du véhicule et augmenterait considérablement son coût, sans parler des problèmes de recharge rapide.

On considère généralement que, pour rester dans la même gamme de puissance et de coût que la voiture à essence de référence, le poids total de la batterie ne doit pas dépasser 300 kg, soit le poids de quatre personnes adultes.

Ce poids comprend les éléments "actifs" de la batterie (sur la base de 140 Wh/kg environ), le contenant, le logement renforcé contre les accidents divers et une éventuelle explosion, les organes de gestion, régulation, refroidissement le cas échéant, les renforts de caisse et de suspension pour supporter le surpoids.

Cet ensemble correspond aujourd'hui à une batterie de 30 KWh environ.

L'autonomie du véhicule, dont la consommation est de 17,6 KWh/100 km, sera donc de 170 km en moyenne.

Cette autonomie pourra être prolongée à 200 km grâce à la récupération d'énergie au freinage.

Mais sur autoroute l’autonomie ne dépassera pas 120 km car d'une part la conduite est en principe plus soutenue, et d'autre part la récupération d’énergie au freinage est inopérante (On ne freine pas sur une autoroute…).

Pour éviter la panne sèche prématurée, les constructeurs de voitures électriques limitent par construction la vitesse à 130 km/h .

(Certains limitent également les accélérations, grosses consommatrices d'énergie).

L’ouverture des autoroutes à ces véhicules pose donc un triple problème:

D’une part ils devront se ravitailler impérativement tous les 100 km sous peine de risquer la panne sèche.

D’autre part le temps de recharge de la batterie devra être suffisamment faible pour deux raisons: Ne pas transformer un long voyage en chemin de croix, et éviter la formation de files d’attente insupportables aux bornes de chargement.

Qu'en est-il aujourd'hui de la distribution des carburants pétroliers ?

Sur le réseau autoroutier concédé à péage (9 000 km, soit 18 000 km de chaussées à deux et trois voies), il y a aujourd’hui 450 stations services espacées d’environ 40 km en moyenne.

Le temps moyen pour chaque véhicule est estimé à cinq minutes.

Ainsi, une station d’autoroute comportant par exemple huit pompes pourra servir environ 100 clients par heure. Au-delà on commence à voir se former des files d'attentes.

L'écoulement des éventuelles files d'attente est relativement rapide puisque chaque voiture n'occupe la pompe que durant cinq minutes.

Heureusement les véhicules thermiques ne s’arrêtent que rarement pour faire le plein. D’une part grâce à leur autonomie considérable ils peuvent parcourir 6 à 800 km et plus sans ravitailler, et d’autre part la plupart d’entre eux font le plein avant de partir afin d’éviter les surcoûts autoroutiers. Seuls les imprévoyants, les étourdis, ou ceux dont le trajet dépasse leur autonomie, doivent s’arrêter pour manque de carburant.

Il y a donc rarement des files d’attente importantes, sauf les jours de grands départs (Davantage d'étourdis ou de trajets supérieurs à 800 km?).

Peut-on transposer cette situation au cas des véhicules électriques ?

Non, et ceci pour plusieurs raisons.

En effet, contrairement aux véhicules thermiques, les électriques actuels doivent impérativement ravitailler tous les 100 à 120 km, et de plus la durée d'une charge est de 30 minutes en "charge rapide"(Selon les études et projets actuels).

Il existe actuellement des projets d’équipement des autoroutes en bornes de recharge rapide. Le cahier des charges fixe les caractéristiques de ces bornes: Une charge de 20 KWh en 30 minutes.

Une station électrique équipée de six postes pourra donc servir 12 clients par heure.

Au-delà que cette fréquentation il y aura formation de files d’attentes dont l'écoulement sera très long puisque chaque voiture occupe la pompe durant une demi-heure.

L'attente pourra atteindre plusieurs heures…

Donc, au-delà d’un flux de quelques dizaines de véhicules électriques par heure, il y aura saturation du réseau de chargement et allongement insupportable du délai d’attente.

Les voitures électriques actuelles ne peuvent donc pas emprunter les autoroutes, sauf pour des trajets n’excédant pas cent km. Tenter d’aller plus loin comportera le risque de devoir patienter deux ou trois heures à la prochaine station de recharge, si elle existe, ou de devoir appeler une dépanneuse si la panne sèche se produit entre deux stations…

Pour améliorer la situation et retrouver la même fluidité que connaissent les véhicules thermiques, il faudrait à la fois augmenter considérablement la capacité des batteries, et réduire dans la même proportion la durée de la charge, c'est-à-dire augmenter la puissance des bornes de charge rapide.

Quelle capacité de batterie ?

Nous avons vu plus haut que, pour obtenir la même énergie motrice que celle procurée par 60 L de carburant pétrolier, il faut une batterie de 140 KWh.

Passer de 30 KWh à 140 KWh sans augmentation exagérée du poids, cela représente un saut technologique qui n'est pas aujourd'hui dans les perspectives à moyen terme des industriels.

Les prévisions réalistes pour les prochaines années portent sur un doublement de la capacité énergétique spécifique, soit 50 à 60 KWh pour 300 kg, à l'horizon 2025.

L'autonomie serait alors de 250 à 300 km, de quoi aborder plus sereinement un trajet autoroutier, sans toutefois égaler l'autonomie des voitures à pétrole.

Mais augmenter la capacité de la batterie ne suffit pas. Il faut également pouvoir la charger.

Quelle puissance pour les bornes de recharge ?

Les 30 minutes du consensus actuel pour 80% de charge sont inacceptables compte tenu du flot des véhicules sur une autoroute.

Le temps imparti ne devrait pas être supérieur à 10 minutes.

Pour recharger en 10 minutes à 80% une batterie de 60 KWh, il faut une puissance de 300 KW.

Aujourd'hui les projets d'équipement des autoroutes prévoient des bornes de 50 KW seulement, donc totalement inadaptées aux besoins du futur proche prévisible.

(Tesla, avec une batterie de 85 KWh et des bornes de 135 KW, montre la voie à suivre, même si par ailleurs le choix d'une puissance de 450 CV n'est pas dans la ligne des économies d'énergie, mais ceci est une autre histoire…).

Il semble donc que l'ouverture des autoroutes aux véhicules électriques pour les longs trajets demeure une perspective de très long terme.

L'absence de batteries de très forte capacité, et l'inadéquation des bornes de recharge rapide prévues, constituent deux obstacles rédhibitoires.

Les seules voitures de conception nouvelle que nous verrons sur les autoroutes à court et moyen terme seront les hybrides, qui utiliseront pour la circonstance leur moteur thermique, la propulsion électrique étant réservée (?) à la circulation urbaine.

Ceci apporte de l'eau au moulin des détracteurs du tout l'électrique alimenté par batterie électrochimique.

Voilà donc un boulevard ouvert pour d'autres solutions utilisant des énergies renouvelables:

- Les biocarburants de deuxième et troisième générations.

- Le Biogaz.

- La pile à Hydrogène.

Les biocarburants ont pour eux l’avantage de la simplicité d’emploi. Les moteurs ne nécessitent que des modifications mineures, la distribution utilise les mêmes réseaux et les mêmes matériels que les carburants pétroliers.

L’autonomie des véhicules est sensiblement la même que celle des véhicules à pétrole.

La première génération, déjà largement répandue, voit son emploi règlementairement limité en Europe à cause de la concurrence portée aux productions alimentaires (Quotas plafonnés par l'ONU). La seconde génération est prête techniquement mais son coût reste encore élevé, et son rôle dans le changement d’affectation des sols pose encore problème, surtout dans le cas d’emploi de plantes dédiées ( Jatropha, Miscanthus).

La troisième génération ( Algocarburants) est encore en phase de développement.

On peut cependant penser que, durant les deux prochaines décennies, les biocarburants prendront une place importante si la lutte contre les émissions de CO2 fossile entre dans une phase active, ce qui n’est pas encore le cas aujourd’hui, du moins sur le terrain.

La manière dont les constructeurs d'automobiles tripotent leurs résultats de mesures d'émissions de CO2 et de polluants en dit long sur leurs intentions réelles quant au respect des engagements de la COP21.

Par ailleurs le pétrole n'a jamais été aussi bon marché, ce qui en fait un produit quasiment indétrônable, sauf par une éventuelle "vraie" taxe carbone qui, hélas, se fait attendre.

Le Biogaz présente un intérêt immédiat comme remplaçant du gaz naturel dans les applications fixes raccordées au réseau de distribution.

Son utilisation dans les véhicules est déjà effective sous forme comprimée dans des bouteilles, ou liquéfié.

Il peut être utilisé facilement dans des moteurs légèrement modifiés, mais nécessite la mise en place d’un réseau de distribution pour être généralisé. Ce problème constitue un frein sérieux à son développement.

L’autonomie des véhicules à gaz n’est pas à priori meilleure que celle des véhicules électriques à batteries améliorées. Par contre la recharge des bouteilles peut être beaucoup plus rapide, ce qui constituerait un atout décisif.

La pile à combustible n'est pas encore au stade de l'industrialisation à grande échelle, et porte également le problème de la réserve d'énergie à emporter.

Ce n'est donc pas dans un avenir à court terme que nous verrons les autoroutes envahies par les voitures électriques.

Affaire à suivre…

Repost 0
5 février 2016 5 05 /02 /février /2016 16:49

5 Février 2016
Tesla a incontestablement frappé un grand coup.
Sortir un "Supercar" électrique, et réussir à l'imposer sur un marché à priori bien verrouillé par quelques marques prestigieuses, cela dénote une très fine connaissance des motivations, des attentes et des exigences d'une clientèle peu disposée à accepter la médiocrité.
Les commentaires dithyrambiques de la presse spécialisée ou généraliste confirment que la démarche a frappé les esprits.
Il est vrai que cette voiture présente dans son jeu quatre atouts qui ont tout pour susciter l'enthousiasme:
Puissance de 700 CV (515 KW),
Vitesse de 250 km/h,
Autonomie de 500 km,
Accélérations 3,3 secondes de 0 à 100 km/h (modèle P 85 D).
De quoi flatter l'égo le plus pointilleux, et pour le prix "raisonnable" de 100 000 euros environ (Bonus déduit, car il y a bonus).
Les divers essais confirment que "le ramage se rapporte au plumage", et que cette voiture est bien le phœnix de la route. Les performances sont au rendez-vous, et même au-delà.
Au point que l'on a pu croire au miracle: Une pareille débauche de performances alliée à une autonomie quatre fois supérieure à celle des autres électriques du marché, on nous aurait donc caché une découverte majeure ?
Mais non, tout est normal.
La puissance, la vitesse, les accélérations, sont bien là. L'autonomie aussi.
Mais pas ensemble.
Si l'heureux propriétaire d'une Tesla P85D est autorisé à procéder à un essai de son bolide sur un circuit fermé ( Il n'existe aucun autre endroit dans le monde civilisé où une vitesse supérieure à 130 km/h est permise) il pourra jouir de sensations peu communes, mais seulement sur quelques dizaines de kilomètres, c'est ce que lui permet sa batterie de 85 KWh.
En effet, la capacité effective de cette batterie est de 77 KWh (Elle ne doit JAMAIS être vidée complètement). Une telle capacité permet donc d'alimenter un moteur de 500 KW pendant 554 secondes (petite règle de trois), ce qui correspond à 30 km environ à une moyenne de 200 km/h.
Soit un peu plus de deux tours du circuit des 24h du Mans, et sans battre le record du tour, qui est de 249 km/h environ (Team Porsche, en 2015).
Par contre, si notre homme souhaite se déplacer "normalement" sur une longue distance, il empruntera une autoroute à 130 km/h et verra son autonomie considérablement augmentée. Il lui faudra cependant modérer sa façon de conduire car la Tesla P85D pèse 2,6 tonnes avec quatre personnes à bord, et les accélérations consomment beaucoup d'énergie malgré la récupération. Dans ces conditions il pourra espérer parcourir 350 km avant le signal de panne sèche.
Les 500 km annoncés dans la brochure correspondent aux conditions du cycle NEDC et sont donc fantaisistes. Rappelons que ce cycle vient d'être abandonné et remplacé par le cycle WLTP plus représentatif de la conduite normale.
En conclusion, la Tesla nous enseigne que si nous remplaçons la batterie de 22 KWh de la ZOE par une autre de 85 KWh, son autonomie sur autoroute passera de 110 km à 350 km voire plus.
Où est le miracle ?
Reconnaissons cependant à Tesla le mérite d'avoir réalisé l'exercice sur une voiture de série, qui constitue un formidable banc d'essai.
Il paraît que Renault projette pour 2017 d'équiper la ZOE d'une nouvelle batterie de 48 KWh fabriquée par LG Chem.
Effet Tesla ?
Tesla a donc peut-être lancé la course à la capacité des batteries. Dans ce cas il faudra revoir le cahier des charges des bornes de charge rapide.
Pour charger à 80% en 30 minutes une batterie de 48 KWh, il faut une puissance de 80 KW et non 43 KW comme prévu aujourd'hui.
Tesla a donc eu raison de prendre les devants avec ses bornes de 135 KW.
Toujours la course à l'échalote…

Repost 0

Présentation

  • : Le blog de doc zaius
  • : Suivi des problèmes environnementaux du moment. Analyses techniques . Comptes rendus avancements projets.
  • Contact

Recherche

Liens