Overblog Suivre ce blog
Administration Créer mon blog
14 juin 2014 6 14 /06 /juin /2014 15:17

14 Juin 2014

« Le Président de la République a confirmé l’engagement de réduire de 75% à 50% la part du nucléaire dans la production d’électricité à l’horizon 2025. »

Cette annonce est évidemment dépourvue de sens si elle n’est pas complétée par l’indication de la production électrique à laquelle elle se rapporte.

Aujourd’hui la production annuelle d’électricité est de 500 TWh, dont 375 TWh de nucléaire ( 75%).

Beaucoup de facteurs incontrôlables interviennent dans l’évolution de la consommation d’électricité, et donc aussi de la production si l’on considère une balance import-export à peu près équilibrée.

2025 c’est demain matin.

Dix ans ne suffisent pas à bouleverser des habitudes de consommation. On peut penser que le taux de croissance de la population et du nombre de ménages, de leur équipement électroménager, audiovisuel, informatique et de communication, et le développement de la voiture électrique, contribueront à une augmentation de la consommation électrique, alors que l’abandon progressif du chauffage-climatisation électrique au profit du Gaz ou des réseaux de chaleur urbains, et l’amélioration de l’efficacité énergétique en général, auront l’effet inverse.

L’hypothèse d’une consommation constante est donc raisonnable, en sachant que la réalité pourra être très différente.

Si nous retenons pour 2025 une consommation-production de 500 TWh, le nucléaire ramené à 50% verrait donc sa part tomber de 375 à 250 TWh.

Une coupe de 125 TWh dans la production nucléaire correspond à l’arrêt de 21 tranches de 900 MW.

Dans l’hypothèse, soutenue par certains, d’une réduction globale de la consommation, il faudrait arrêter davantage de réacteurs pour atteindre les 50%.

Sachant que l’arrêt d’une tranche doit être immédiatement suivi de la mise en route de son démantèlement ( pour des raisons de sureté que nous avons déjà exposées dans un article précédent), une telle coupe claire, 36% du parc, doit être préparée longtemps à l’avance compte tenu de l’énorme travail que représente ce programme d’arrêt-démantèlement.

Il n’existe aucune trace de ce programme de préparation aux démantèlement: formation des équipes, acquisition des compétences, procédures d’enfouissement des déchets, reconversion des personnels d’exploitation, etc…

Comme nous l’avons déjà vu l’arrêt des deux réacteurs de Fessenheim sera compensé par la mise en production du réacteur EPR de Flamanville et ne peut donc être considéré comme un début de réduction de la production nucléaire.

D’autre part, il va de soit qu’une éventuelle décision de l’arrêt de 21 réacteurs n’aurait de sens que si elle était accompagnée d’un programme de production de remplacement par d’autres sources puisque la consommation sera la même (selon notre hypothèse).

Ces autres sources pourraient être à base d’énergies renouvelables et d’installations thermiques en relève de l’intermittence.

Pour mémoire, rappelons qu’une éolienne offshore de 6 MW produit annuellement 18 GWh. Il en faudrait donc 7 000 ( Sept mille !) pour compenser la coupe de 125 TWh due à l’arrêt des 21 réacteurs.

Sans oublier les installations thermiques de production en relève de l’intermittence.

Le projet-programme éolien offshore de la côte atlantique prévoit la construction de 600 éoliennes d’ici 2020. C’est donc un effort plus de dix fois supérieur qui devra accompagner l’arrêt des 21 réacteurs, effort à répartir entre les diverses énergies renouvelables, ou en ayant recours au thermique, comme en Allemagne…

Inutile de rappeler qu’un tel programme n’est pas sur les rails.

Dans un tel contexte on peut se demander si cette histoire de transition énergétique ne serait pas tout simplement un « non sujet » destiné à servir de vernis à une politique de « business as usual » légèrement teintée de vert grâce à quelques éoliennes offshore, un peu de cogénération, et beaucoup d’incitation aux économies d’énergie.

Ce qui n’est déjà pas si mal…

Au fait, il paraît que l’on reparle de gaz de schiste dans les couloirs du château.

Repost 0
14 juin 2014 6 14 /06 /juin /2014 11:29

14 Juin 2014

Le lecteur avisé aura certainement compris depuis longtemps que les atermoiements autour de la stratégie nucléaire de la France ne sont que des postures feintes destinées à alimenter les discussions de salons et entretenir une illusion d’ouverture à la négociation avec les écologistes, tout au moins ceux qui ont encore un peu d’espoir de voir changer les choses.

Il suffit pour s’en convaincre de lire le rapport du Ministère de l’Ecologie, du Développement Durable, et de l’Energie, sur le site d’icelui intitulé « Energie, Air et Climat », du 3 Novembre 2009 remis à jour le 24 Septembre 2013 et confirmé le 11 Juin 2014 ( Date de mise à jour du site).

Ce rapport expose dans la continuité l’essentiel de notre politique nucléaire présente et à venir:

<developpement-durable.gouv.fr/Politique-internationale-de-la.html>

Sa lecture est instructive, en voici quelques extraits:

« La France mène une politique visant à la maintenir comme un acteur incontournable de la relance du nucléaire dans le monde à la fois pour des raisons de politique extérieure et de politique intérieure » . ……

« Le nucléaire est une technologie stratégique et sensible, dont la maîtrise est indubitablement un atout pour la puissance de notre pays » . ….

« Le renforcement de l’industrie nucléaire nationale améliorera encore la sécurité d’approvisionnement de notre pays. les succès industriels à l’étranger seront générateurs d’emplois en France et augmenteront les valeurs et résultats de nos industriels du nucléaire » . ….

«Sous l’impulsion du Président de la République, ce positionnement de la France dans la relance du nucléaire à l’international se traduit, au niveau de l’Etat par : L’instauration d’une doctrine et la création d’un instrument de coopération (l’Agence France Nucléaire International) pour assister les Etats étrangers souhaitant développer ou renforcer leur recours au nucléaire à des fins pacifiques. la promotion, dans les cadres bilatéraux, communautaires et multilatéraux, d’un développement de l’énergie nucléaire sûr, responsable et protecteur des générations futures » . ….

« La France a des coopérations institutionnelles et industrielles avec l’ensemble de ces pays : Royaume-Uni, Etats-Unis, Russie, Chine, Inde, Japon, Finlande, Afrique du Sud, Brésil etc. Souvent, ces coopérations sont encadrées par des accords intergouvernementaux qui prévoient des comités bilatéraux de suivi » . …..

« La France a signé des accords intergouvernementaux, portant (au moins partiellement) sur la coopération nucléaire, avec les pays suivants : Afrique du Sud, Algérie, Brésil, Bulgarie, Chine, Egypte, Emirats Arabes Unis, Hongrie, Inde, Italie, Jordanie, Libye, Lituanie, Pologne, République Tchèque, Russie, Slovaquie, Tunisie ».

Fin de citation.

La fiche d’accompagnement « Industrie Nucléaire 2013 » précise par ailleurs les points suivants:

« - Le Président de la République a confirmé l’engagement de réduction de la part de Nucléaire de 75% à 50% à l’horizon 2025.

- Les deux réacteurs de Fessenheim seront arrêtés définitivement au plus tard le 31 Décembre 2016.

- le Président a également confirmé que le chantier de l’EPR de Flamanville sera conduit à son terme.

- Il a également confirmé qu’aucun autre réacteur ne sera lancé durant ce quinquennat ».

Fin de citation.

On aura noté bien entendu que cette proclamation exhaustive ne comporte aucune annonce d’arrêt d’un quelconque programme nucléaire actuellement en route. Bien au contraire,

« Le Gouvernement a décidé d’engager des moyens supplémentaires importants pour renforcer la recherche en matière de sûreté en redéployant pour cela 50 M euros sur des programmes d’investissements d’avenir consacrés au nucléaire du futur. »

( in « L’industrie nucléaire » , déjà cité).

On comprend mieux dès lors le renvoi aux calendes grecques de l’annonce de la stratégie de transition énergétique. En fait cette annonce est déjà contenue dans le document cité. Il ne nous reste plus qu’à décoder la proclamation sibylline:

« Le Président de la République a confirmé l’engagement de réduire de 75% à 50% la part du nucléaire dans la production d’électricité à l‘horizon 2025. »

Ce sera fait dans un prochain article.

Repost 0
9 juin 2014 1 09 /06 /juin /2014 15:14

. 9 Juin 2014

En France, la moitié de l’énergie finale consommée l’est sous forme de chaleur, ce qui représente donc environ 1000 TWh par an!

Cette chaleur est répartie entre l’Industrie ( 15%), et le Résidentiel-tertiaire (85%). On comprend pourquoi la première démarche de la transition énergétique est l’amélioration de l’efficacité énergétique dans les applications de chaleur du résidentiel-Tertiaire ( Chauffage des locaux et eau chaude sanitaire). Le gisement d’économies y est considérable.

Aujourd’hui cette chaleur est obtenue essentiellement par deux voies:

- La voie directe qui consiste à brûler du combustible et à récupérer la chaleur dégagée avec le maximum de rendement. Nous utilisons pour cela deux sortes de combustibles: Des produits fossiles (Charbon, Pétrole, gaz naturel), et de la biomasse sous forme de bois énergie. Le rendement obtenu peut atteindre près de 100% dans les chaudières à condensation.

Il faut également mentionner le Solaire et la Géothermie, appelés à se développer dans l’avenir mais qui ne représentent encore qu’une faible participation au fournitures de chaleur. (A ne pas confondre avec le Solaire photovoltaïque et l’éolien, qui fournissent de l’électricité…)

- Et la voie indirecte, qui consiste à fabriquer d’abord de l’électricité, puis utiliser cette électricité pour obtenir de la chaleur grâce à l’effet Joule. Lorsque cette électricité est fabriquée dans des centrales thermiques qui brûlent les combustibles traditionnels cités plus haut, le rendement global sera celui des centrales thermiques diminué des pertes en lignes, soit en bout de chaîne 20 à 25% dans le meilleur des cas.

C’est alors plus de 75% du potentiel énergétique du combustible qui se perd en chaleur dans l’atmosphère, un gaspillage inconsidéré lorsque l’énergie devient une denrée rare et chère.

Dans ces temps difficiles, où il est fortement question d’efficacité énergétique, la moindre des choses est de tâcher de récupérer au moins une partie de ces 75% perdus. Ce qui est réalisable grâce à la cogénération, qui consiste simplement à détourner une partie de cette chaleur perdue pour la diriger vers un réseau de distribution de chaleur. La chose ne pose pas de problème technique particulier, elle requiert seulement une modification des installations et la construction d’infrastructures pour distribuer la chaleur. L’idée n’est pas nouvelle et cela fonctionne déjà de par le monde.

Un réseau de chaleur n’est pas autre chose qu’un classique « chauffage central » étendu à une collectivité , ce qui permet d’optimiser l’efficacité énergétique et la gestion en ayant une seule « chaudière » . La distribution de chaleur en réseau n’est donc pas une nouveauté. La chaleur en question est produite par des chaudières « classiques » souvent multi combustibles et dont le rendement est optimisé pour avoisiner 100 % en récupérant la chaleur latente.

Il y a plus de 400 réseaux de chaleur en France, pour une puissance totale de 17 GW correspondant à 6% des besoins nationaux de chauffage. La chaleur fournie est utilisée à 60% pour le résidentiel. (Données de l’ADEME).

Paris possède le plus important réseau de chaleur, avec 470 km de canalisations il alimente l’équivalent de 460 000 logements.

Certains de ces réseaux utilisent la chaleur issue de la cogénération, la cogénération en elle-même étant souvent utilisée localement sans passer par un réseau collectif. Il y a en France 860 installations de cogénération.

La France, qui possède 58 réacteurs nucléaires en activité, ne pouvait pas manquer de s’intéresser à la récupération de la chaleur perdue, d’autant plus qu’en cas de succès cette nouvelle application aurait l’avantage de pérenniser le Nucléaire fortement contesté ces temps-ci.

Il faut bien reconnaître que le jeu en vaut la chandelle, fut-elle légèrement empoisonnée: Avec une production annuelle de 500 TWh électriques (Nucléaire + Fossiles), ce sont près de 1000 TWh qui partent dans l’atmosphère en pure perte. Ces 1000 TWh représentent davantage que nos besoins en chaleur basse température utilisée pour le chauffage dans le Résidentiel-Tertiaire.

Bon sang mais c’est bien sûr,

Pourquoi ne pas y avoir pensé plus tôt ?

Mais on y a pensé, mais sans enthousiasme excessif. Parce que le fuel et le gaz étaient disponibles en quantité illimitée et pour pas cher. Parce qu’on a cru que le nucléaire allait résoudre tout les problèmes énergétiques. Parce qu’il aurait fallu construire un réseau de chaleur et que ce précieux fluide supporte de grosses pertes en ligne. Et aussi pour d’autres raisons plus obscures qu’il vaut mieux ne pas chercher à approfondir, surtout s’agissant du Nucléaire.

Mais aujourd’hui la donne a changé, le pétrole et le gaz commencent à coûter cher (commencent seulement) non seulement financièrement, mais surtout politiquement, il est temps de songer à économiser l’énergie.

Faire appel au Nucléaire pour fournir de la chaleur n’est pas une démarche nouvelle: Le premier réacteur nucléaire commercial, qui a été mis en exploitation en 1956 à Calder Hall (Royaume-Uni), fournissait à la fois de l’électricité et de la chaleur. En Suède, le réacteur Agesta a fourni de l’eau chaude pour le chauffage urbain à Stockholm de 1963 à 1973. Aujourd’hui, sur 432 réacteurs en exploitation dans le monde, 74 utilisent la cogénération pour fournir aussi de la chaleur.

En France le Nucléaire est un sujet explosif au point que le Gouvernement vient de repousser encore d’une année l’annonce de son programme de transition énergétique, dont la pierre d’achoppement est évidemment la politique nucléaire.

Alors, proposer d’utiliser les réacteurs nucléaires pour fournir de la chaleur, c’est un peu comme allumer la mèche d’un tonneau de poudre.

En effet, dès lors que cette filière prendra en compte les fournitures de chaleur, ses partisans auront un argument de plus pour justifier sa poursuite.

Et puis, une centrale nucléaire est une installation certes contestée, mais au moins isolée et éloignée des lieux d’urbanisation importante. Il n’en sort que du courant électrique qui ne transporte aucune pollution.

Utiliser la cogénération consiste à faire sortir de la centrale des tuyaux qui transporteront de l’eau que l’on nous garantit parfaitement inoffensive, mais qui ne sera séparée du réseau secondaire des réacteurs que par la mince cloison d’un échangeur. On ne peut pas ne pas être inquiets.

Rappelons brièvement comment la chaleur dégagée par la réaction de fission se transforme en vapeur pour actionner une turbine couplée à un alternateur:

La chaleur de la réaction est évacuée par une circulation d’eau, analogue dans son principe au circuit d’eau d’un moteur thermique d’automobile. C’est le circuit primaire. L’eau y circule à une pression de 150 Bar et à une température moyenne de 310°C.

Ce circuit primaire transfère sa chaleur à un échangeur à tubes qui se trouve dans un générateur de vapeur (GV) qui contient lui-même un circuit d’eau, dit circuit secondaire, séparé du premier. L’eau du GV se transforme en vapeur à 287 °C et 72 bar de pression. Cette vapeur est envoyée vers la ou les turbines qui vont actionner l’alternateur.

Ensuite la vapeur est envoyée dans un échangeur pour être condensée et retourner dans le circuit. Cet échangeur est refroidi par un autre circuit d’eau appelé circuit de refroidissement. Nous avons donc trois circuits d’eau sous des pressions et des températures différentes, et qui sont par principe indépendants mais seulement séparés par la mince cloison des échangeurs.

En cas de cogénération, la récupération de chaleur s’effectue au niveau du circuit de refroidissement, ou son analogue.

L’eau du circuit primaire, qui traverse le cœur du réacteur, se charge progressivement d’une contamination radioactive très importante. Cette contamination est due à l’action des neutrons sur les produits de corrosion relâchés dans le milieu primaire, corrosion qui affecte les métaux constituants les différentes parties du circuit primaire: Barres de combustible, acier de la cuve, tuyaux, pompes, où l’on utilise de l’Inconel, du Zircaloy, le l’Inox, des alliages à base de Cobalt, etc…

Les produits de corrosion sont alors transmutés en isotopes radioactifs de durées de vie diverses, certains de plusieurs années. A ces produits s’ajoutent des débris de matériaux fissiles relâchés par les barres de combustible.

Ce circuit primaire doit donc faire l’objet d’un confinement extrême afin d’éviter la dissémination. Il existe un point faible qui est l’interface entre le circuit primaire et le circuit secondaire des générateurs de vapeur, interface constitué par les tubes échangeurs dans lesquels circule l’eau primaire fortement radioactive. Ces tubes ont des parois très fines (quelques mm) pour de bons échanges thermiques et sont sujet à la corrosion, qui peut aboutir à des fuites ou même des ruptures au niveau des soudures. L’eau du circuit secondaire est alors contaminée, le passage étant favorisé par la différence des pressions. Pour limiter le risque, une dosimétrie est pratiquée régulièrement, mais des accidents de rupture de tube se sont déjà produits dans ce type de centrales.

Ces accidents ne sont pas majeurs dans la mesure où les conséquences sont limitées au site, avec au pire quelques bouffées de vapeur contaminée envoyée dans l’atmosphère suite à l’ouverture des purges sous l’effet de la forte pression de l’eau primaire passant dans le GV. ( Dans une telle occurrence le Préfet est alors sensé faire évacuer la population)

Il y a donc une possibilité de contamination du circuit secondaire lors de ce type d’accident, qui n’est pas exceptionnel sur des installations avec des générateurs de vapeur un peu anciens ( ils sont remplacés périodiquement après inspection).

Les fuites entre circuit primaire et circuit secondaire sont inhérentes à la conception des générateurs de vapeur. Elles se produisent à la suite de la corrosion des tubes et/ou de microfissures provoquées par les vibrations, et leur occurrence augmente avec le vieillissement. C’est pourquoi il est mis en place un système de surveillance de dosimétrie reposant en particulier sur le dosage de l’Azote 16, qui permet d’intervenir rapidement.

En exploitation « normale » le circuit primaire d’un réacteur à eau pressurisé fuit toujours un peu. Il y a deux sortes de fuites:

- Les fuites « quantifiées » qui prennent naissance aux joints, robinets, et qui sont recueillies et mesurées.

- Les fuites « non quantifiées » qui correspondent au passage anormal de l’eau du circuit primaire dans le circuit secondaire.

Pour compenser ces fuites on réinjecte de l’eau dans le circuit primaire pour faire l’appoint. La fuite vers le circuit secondaire est connue en soustrayant les fuites quantifiées du débit d’appoint.

En moyenne ce genre de fuites ne dépasse pas 40 à 50 Litres à l’heure. Si le seuil de 230 L/h est atteint ( cela arrive parfois) alors le réacteur est mis à l’arrêt pour réparation de la fuite. ( Une telle fuite peut être l’amorce d’une rupture de tube de l’échangeur, ce qui entraînerait des problèmes plus compliqués). En cas de brèche au niveau d’un tube la fuite est évidemment plus importante, mais il s’agit alors d’un accident heureusement rare mais non exceptionnel.

Tout çà pour montrer que l’eau du circuit secondaire n’est pas toujours aussi pure que décrit dans les communiqués d’information à la Presse. (Surtout quand la fuite se produit alors que la circuit primaire est très pollué, c’est-à-dire avant un cycle de nettoyage de l’eau primaire).

Or ce circuit secondaire interface avec le circuit de refroidissement par un autre échangeur, qui lui non plus n’est pas à l’abri d’une rupture accidentelle qui mettrait les deux circuit en communication. En cas de cogénération, la chaleur serait prélevée au niveau du circuit de refroidissement, et de la contamination pourrait alors affecter le réseau de distribution ! On ne peut donc pas présumer de l’absence totale de risque de contamination radioactive d’un réseau de chaleur alimenté par une centrale nucléaire.

Pour ce qui est des protestations de bonne foi des autorités responsables de la sécurité nucléaire, il suffit de se rappeler que des accidents de rupture de cuve de réacteur étaient déclarés impossibles….Avant Tchernobyl et Fukushima !

Et que dire des assurances sur l’efficacité des enceintes de confinement …

Une contamination, même légère, du réseau de chaleur aurait des conséquences considérables et poserait un sérieux problème de santé publique: les habitants devraient être évacués pour permettre une décontamination de l’ensemble des installations, voire même leur remplacement. Il y a donc là un changement de nature de la gestion du risque de contamination radioactive accidentelle, dont les futurs usagers doivent être informés.

Il n’est pas sûr qu’ils apprécient beaucoup la cohabitation longue durée avec des radiateurs alimentés par une eau susceptible de véhiculer une contamination radioactive, même si la probabilité d’un tel accident est très faible.

Repost 0
4 juin 2014 3 04 /06 /juin /2014 10:35

4 Juin 2014

Les énergies renouvelables, affaire du siècle s’il en est, sont désormais inscrites au programme des écoles maternelles et tout un chacun est prié de s’y intéresser de près, voire même de participer à leur promotion.

Le solaire et l’éolien sont bien sûr les vedettes de ce nouveau show, pour ne pas dire show business, car quoi de plus renouvelable, gratuit et non polluant, que l’énergie solaire de laquelle découle l’énergie éolienne, les deux étant intimement liés par une relation de cause à effet dans la plus pure obédience thermodynamicienne, la rotation du Globe terrestre accomplissant la tâche habituellement dévolue au fouet du cuisiner qui prépare une bonne mayonnaise.

Le résultat de ce « chamboule-tout » à grande échelle est une agitation de l’atmosphère à la fois ordonnée et désordonnée selon l’échelle, qui se traduit par un régime de vents et un ensoleillement capricieux fortement dépendants de la couche nuageuse et/ou des gradients thermiques.

Tout cela pour rappeler que les énergies solaire et éolienne sont par nature fortement intermittentes, parfois même sporadiques.

Ce phénomène est évidemment connu de tous, mais ses conséquences n’en ont pas toujours été mesurées à leur juste valeur. Certains vont même jusqu’à glisser le problème sous le tapis en affirmant que les baisses de vent ou de soleil dans une région sont compensées par des hausses ailleurs. Ce qui traduit une méconnaissance des difficultés soulevées par la gestion d’une réseau de distribution.

La réalité est tout autre: A dire vrai, le seul véritable problème des énergies renouvelables est la gestion de cette intermittence, et particulièrement pour l’éolien qui doit supporter des fluctuations difficilement prévisibles.

Ceux qui pourraient encore en douter pourront consulter le document suivant:

« Eon Netz Wind report 2004 »

Sur < aweo.org/windEon2004.html>

Dont l’analyse est très instructive sur l’ensemble du sujet. Il se confirme notamment que l’exploitation d’un réseau d’énergies renouvelables ne peut se concevoir sans une réserve de production indépendante du vent et/ou de l’ensoleillement prête à intervenir en cas de besoin, et sans une capacité importante de stockage de l’électricité.

Et malgré cela il est indispensable de disposer d’un bon outil de prévision des conditions météo afin d’anticiper au mieux les sautes d’humeur des vents et de l’ensoleillement.

Il apparaît ainsi que les prévisions météo revêtent désormais une importance considérable dans le domaine énergétique.

Il ne suffit plus de prévoir le temps qu’il fera durant les prochains jours, avec une marge d’incertitude confortable, mais bien d’anticiper la vitesse du vent, sa direction, en un endroit déterminé, à une altitude déterminée, et à un instant donné. De même pour l’ensoleillement.

Les fluctuations de la production d’une ferme éolienne ou solaire sont considérables, et de fréquence variable:

De courte durée, en terme de minutes.

De durée moyenne, en terme d’heures.

De longue durée, en termes de jours.

De très longue durée en terme de saison.

Chaque type de fluctuation doit être pris en compte et traité différemment.

D’une part le maillage doit être considérablement affiné puisque les prévisions doivent pouvoir concerner une installation de production déterminée.

D’autre part les données météo doivent pouvoir être disponibles en temps réel puisque le temps de réaction des installations éoliennes et solaires est extrêmement court.

Enfin ces données doivent pouvoir être valorisées afin de produire des prévisions indispensables à la régulation du réseau, ce qui nécessite l’utilisation de modèles prévisionnels informatiques couplés à une grande puissance de calcul, ainsi que la disposition en temps réel de la puissance disponible de chaque installation.

Pour que ces prévisions soient efficacement utilisées, le centre de calcul météo et les centres de gestion du réseau doivent être connectés en temps réel également. La commutation entre les nombreux nœuds de production nécessite par ailleurs une adaptation pour introduire la souplesse nécessaire.

Aujourd’hui il s’agit d’adapter la production à la demande, avec une constante de temps longue et avec une production sans fluctuations.

Demain il faudra en plus tenir compte des fluctuations de production, qui devront être prévues avec une précision suffisante pour éviter l’écroulement du réseau.

Toute cette organisation constitue la face cachée des énergies renouvelables, un travail important qui doit être accompli pour rendre possible le plein développement des installations de production éolienne et solaire.

En France, RTE est ( de par la Loi) responsable de l’équilibre du réseau entre l’offre et la demande.

Depuis 2009 il a été mis en place le dispositif IPES ( Insertion de la Production Eolienne et photovoltaïque sur le Système), dont les tâches sont les suivantes:

- Suivi en temps réel (la minute) des productions éolienne et grand photovoltaïque pour les parcs intégrés au système IPES.

- En liaison avec ERDF, simulation des flux et prévisions de consommation.

- En liaison avec METEO France, recueil des données sur la vitesse du vent ( modèle ARPEGE).

- Etablissement des prévisions de production ( modèle PREOLE).

- Programmation des alarmes en cas de franchissement de certains niveaux de production.

- Programmation de l’intervention des moyens de production thermique en relève de l’intermittence.

- Accéder aux données descriptives des parcs pour anticiper les variations technologiques de production.

Etc…

Ce modèle, développé par AREVA T&D sur appel d’offres, est évolutif en fonction de l’expérience accumulée et de la croissance des productions éolienne et solaire.

Sans être d’un grand intérêt médiatique, ce travail n’en constitue pas moins l’étape clé dans le développement des énergies renouvelables qui ne sauraient être efficaces sans un environnement technologique de réseau reconfiguré pour ce nouvel usage.

Repost 0
29 mai 2014 4 29 /05 /mai /2014 11:18

29 Mai 2014

Depuis plus d’un siècle maintenant la voiture électrique tente de se faire une place dans le monde du véhicule de grande diffusion.

Sans succès jusqu’à présent, pour deux raisons principales:

Une autonomie très insuffisante malgré des batteries très lourdes, et l’absence d’un réseau de rechargement rapide.

Il faut dire que l’abondance du carburant pétrolier à faible coût a dissuadé les constructeurs de chercher à perfectionner la solution électrique.

L’arrivée sur le marché des batteries au Lithium, accompagnée d’éloges flatteurs dans la presse spécialisée, a pu faire croire que le problème était résolu, au moins pour ce qui concerne le poids. Hélas, plus d’une décennie après les débuts de la commercialisation du produit, il faut se rendre à l’évidence, la batterie Lithium-ion ne remplit pas ses promesses médiatiques, du moins pour l’automobile.

Par exemple la batterie qui équipe la Renault ZOE pèse 300 kg pour une capacité de 24 kWh, soit 80 Wh/kg, à peine 2,5 fois les performances de la classique vieille batterie au plomb de grand père, pour un prix comparativement astronomique, et tout çà pour une autonomie pratique de 150 kilomètres.

Ces maigres possibilités sont très éloignées de l’autonomie de 500 à 600 km à laquelle sont habitués les usagers de véhicules à essence, et beaucoup plus avec du gazole.

Malgré ce handicap quasiment rédhibitoire, certains constructeurs ont tenté de créer un marché du tout électrique, avec le succès que l’on sait.

Eu égard à la disponibilité totale de l’électricité, le problème de la recharge de batterie a pu être occulté un temps, le temps de s’apercevoir que des postes de recharge rapide sont indispensables et qu’ils n’existent pas ! Et en supposant qu’ils existent un jour, l’autonomie n’en resterait pas moins limitée à 150 km avec les batteries actuelles.

Il a donc fallu rajouter un moteur thermique dans les voiture dites « hybrides » afin de prendre la relève de la batterie défaillante. Ce moteur, baptisé « prolongateur d’autonomie », réalise en fait l’essentiel du travail et la propulsion électrique n’intervient que sporadiquement mais suffisamment pour figurer dans les dépliants publicitaires.

Comme tout hybride qui se respecte, la famille comporte plusieurs variétés, HEV, PHEV, micro-hybrides, semi-hybrides, full-hybrides, hybrides rechargeables, parmi lesquels l’usager peine à comprendre exactement ce qu’on veut lui vendre.

( Mais n’est-ce pas la base du commerce ?)

L’électricité se trouve alors réduite à un rôle d’assistance occasionnelle d’une propulsion thermique classique. Cette assistance intervient en principe en ville où les émissions de CO2 et de NOx sont (ou seront) prohibées un jour ou l’autre. Le reste du temps le moteur thermique continue d’émettre CO2 et Nox, pour permettre à l’engin de parcourir quelques centaines de kilomètres de plus.

Nous sommes donc très loin de l’objectif initial, qui était quand même de supprimer les émissions de CO2 et de Nox, faut-il le rappeler !

L’Hydrogène va peut-être nous permettre d’y revenir.

Les capacités énergétiques de l’Hydrogène sont connues depuis l’origine, mais son existence à l’état naturel était ignorée ( elle n’est désormais plus contestée, mais son « exploitatabilité » n’a pas encore été démontrée) et il fallait le produire à partir des énergies fossiles, ce qui ne présente aucun intérêt du point de vue des usages énergétiques en raison du coût élevé et de la pollution. Il a donc été utilisé essentiellement dans l’industrie chimique.

Il se consomme mondialement des quantités importantes de ce gaz produit à 95 % à partir des énergies fossiles, et à 5% par électrolyse de l’eau pour obtenir un produit très pur indispensable dans certains processus.

L’engouement pour les énergies renouvelables a mis en avant la possibilité d’obtenir par électrolyse de l’Hydrogène « vert » sans passer par les énergies fossiles.

Le développement de la pile à combustible a par ailleurs démontré la possibilité de refabriquer de l’électricité à partir de cet Hydrogène « vert », qui devient ainsi un vecteur d’énergie et une source indirecte d’énergie verte.

L’éolien et le photovoltaïque produisent une électricité intermittente affectée par de grandes fluctuations de courtes et longues durées difficilement prévisibles. La puissance installée doit donc être très supérieure à la puissance moyenne nécessaire pour obtenir l’énergie annuelle requise.

Actuellement l’électricité est produite à 80% par des centrales thermiques, qu’elles fonctionnent au fuel, au gaz naturel, au charbon, ou au nucléaire.

Pour obtenir une production annuelle de 100 TWh avec une installation thermique, dont le facteur de charge est de 80 %, il faut une puissance nominale installée de 14 GWe.

Pour obtenir la même production annuelle avec de l’éolien et/ou du photovoltaïque, dont le facteur de charge est de l’ordre de 30% au mieux, il faudra théoriquement une puissance nominale installée de 37 Gwe, soit 2,5 fois plus !

Heureusement, dans la pratique les fluctuations de production des diverses installations ne sont pas synchrones et il en résulte un certain lissage de l’intermittence qui réduit cet écart, qui demeure cependant très significatif et particulièrement dépendant de la météorologie journalière, saisonnière, et annuelle.

Lorsque l’on fonctionne aux énergies renouvelables, Il est donc indispensable de disposer de très grandes capacités de stockage permettant d’assurer une continuité des fournitures électriques.

Les centrales hydrauliques couplées à des retenues importantes constituent un moyen de stockage efficace, déjà partiellement utilisé aujourd’hui grâce au pompage-turbinage.

Mais on comprend bien que si ces moyens sont utilisés pour la production, ils ne sont plus disponibles pour le stockage, et vice-versa ! Or, en mode de production décarbonée, on aura besoin de tous les barrages hydrauliques pour produire, ils ne seront donc plus disponibles pour stocker.

C’est évident, mais il n’était pas inutile de le rappeler…

En France la place manque pour construire d’autres barrages de grande capacité, il faut donc trouver autre chose.

Parmi les divers procédés de stockage étudiés, l’Hydrogène paraît aujourd’hui le mieux placé pour répondre au problème.

Il peut être produit facilement par électrolyse de l’eau à partir d’électricité verte et avec un rendement convenable .

Il est stockable selon des procédés déjà maîtrisés aujourd’hui.

L’électricité peut être restituée grâce à des piles à Hydrogène, déjà disponibles sur le marché.

Il est également un vecteur d’énergie puisqu’il peut être transporté dans des bouteilles sous pression et/ou distribué dans un réseau qui peut être le réseau du gaz naturel ( des essais sont en cours), ou le réseau spécifique européen existant (1 500 kms aujourd’hui).

A poids égal, il contient trois fois plus d’énergie que les carburants pétroliers, ce qui en fait un candidat privilégié pour les transports.

Dès lors qu’une filière d’Hydrogène vert pourra exister pour le stockage de l’électricité, pourquoi ne pas l’utiliser aussi pour la propulsion de nos bagnoles ?

Théoriquement tout cela est fort intéressant.

Les constructeurs s’activent donc à intégrer cette solution dans des véhicules de démonstration, et même un peu plus.

Par exemple la Hyundai ix 35 FCEV , dont quelques exemplaires circulent, est équipée d’un moteur électrique de 100 kW alimenté par une batterie Lithium Polymère de 24 kWh, dont la charge est assurée par une pile à Hydrogène elle-même alimentée par une réserve de 144 L de ce gaz sous une pression de 700 kg. Les 5,64 kg d’Hydrogène permettent d’accomplir près de 600 km, et donc d’atteindre l’objectif d’autonomie sans émettre de gaz à effet de serre ou de Nox, ce qui est impossible avec une hybride à prolongateur d’autonomie thermique.

Cette présérie (quelques centaines de véhicules) apporte la démonstration que seule l’Hydrogène permet d’offrir une autonomie de 600 km en mode zéro émission, à condition bien sûr que l’électricité qui a servi à produire cet Hydrogène soit elle-même issue de sources vertes.

D’autres constructeurs proposent des modèles à Hydrogène:

Honda, Toyota, etc… Renault s’est essayé à l’exercice avec la Scenic ZEV - H2, qui préfigure un hypothétique modèle de série en 2020 ?

Certaines villes et collectivités territoriales initient des expériences en vraie grandeur. L’Allemagne possède un embryon de parc de véhicules à Hydrogène, de même que les USA.

Reste maintenant à faire de cet OVNI un objet grand public car de nombreux problèmes subsistent:

Introduire dans une voiture familiale un réservoir d’Hydrogène à 700 kg de pression n’est pas une opération anodine, ce gaz est très inflammable, très sujet aux fuites à cause de la petitesse de la molécule, et malgré les assurances des constructeurs sur la solidité des bouteilles, on peut s’interroger sur le comportement en cas d’accident important et/ou d’incendie.

En cas d’incendie le réservoir à 700 kg de pression va chauffer et exploser lorsque la limite de résistance sera atteinte; si une soupape de sécurité libère l’Hydrogène avant que la limite de pression ne soit atteinte, l’incendie sera activé par ce flot de gaz hautement combustible.

On a donc le choix d’être pulvérisé par l’explosion, ou cuit à point par le feu d’Hydrogène. Perspectives peu engageantes …

Ne perdons pas de vue que les explosions d’enceintes de confinement de réacteurs nucléaires sont dues au dégagement d’Hydrogène entraîné par l’emballement thermique du cœur qui provoque un craquage de l’eau de refroidissement.

Le gros danger de l’Hydrogène est le confinement, et quoi de plus confiné qu’un parking en sous-sol ?

Il ne faudra donc pas négliger ces gros problèmes de sécurité, et d’importants aménagements de la législation seront nécessaires avant d’autoriser ce procédé.

Il faut cependant noter qu’il existe un autre procédé de stockage de l’Hydrogène, ce sont les Hydrures métalliques qui permettent un fonctionnement à basse pression. Mais, comme tout nouveau procédé, une longue période de maturation sera nécessaire pour en établir la validité.

Au terme des 600 km il faudra bien refaire le plein.

Pas plus que pour recharger rapidement des batteries il n’existe de réseau de stations services permettant de fournir de l’Hydrogène à 700 kg de pression. Etablir un tel réseau n’est pas une mince affaire, technologiquement, juridiquement et financièrement. En France de telles installations sont classées SEVESO, la loi devra donc être révisée, et qui paiera pour de telles installations ?

D’autre part les performances actuelles des piles à Hydrogène ne permettent pas de fournir les pics de courant demandés lors des accélérations, elles doivent donc être soutenues par une batterie au Lithium, ce qui augmente le poids et le coût.

Enfin, l’extraordinaire battage autour des énergies vertes est contrebalancé par la persistance des énergies fossiles, qui restent disponibles à la pompe sans aucune espèce de restriction, ce qui rend problématique le succès à court terme d’un véhicule électrique pour lequel les structures d’accueil sont encore inexistantes.

Et pourquoi investir lourdement dans des nouvelles structures d’accueil alors que le pétrole et le gaz naturel continuent de couler à flot ?

Il est donc probable que la filière énergétique Hydrogène restera une option confidentielle, comme le tout électrique, en attendant un hypothétique évènement géopolitique qui rendrait son usage incontournable.

On peut aussi bien sûr croire au Père Noël et attendre un sursaut de sagesse des gouvernements qui décideraient à court terme une transition énergétique qui ferait la part belle à l’éolien, au solaire, et à ce drôle d’Hydrogène vert, nouvel avatar de la pureté écologique.

Hélas il est plus facile de trouver des états disposés à exploiter les gaz de schiste, à rouvrir des mines de Charbon, ou à construire des centrales nucléaires.

Selon l’AIEA , il y avait en 2012 dans le monde 436 réacteurs nucléaires en fonctionnement, 60 en construction, 155 planifiés et 338 envisagés.

Il est prévu par ailleurs que le Charbon et les produits similaires deviendront la première source mondiale d’énergie en 2020.

Apparemment le CO2 et le risque de catastrophe nucléaire n’effraient que les écologistes, dont la force de frappe médiatique est impuissante à infléchir la politique énergétique mondiale.

Face à une réalité si pesante, dont on ne peut que prendre acte, on est en droit de conclure que la transition énergétique n’est pas la première urgence pour la plupart des états.

Alors certes, il y aura de l’éolien, du solaire, de l’Hydrogène, et de la voiture électrique, mais qui longtemps encore seront cantonnés dans le rôle de faire valoir, une sorte de ticket modérateur valant quitus pour continuer dans le pétrole, le Gaz naturel, le charbon et le nucléaire, au moins jusqu’en 2050.

Alors, dans ce paysage énergétique tourmenté, certains prêtent un oreille aux rumeurs d’arrivée d’un chevalier blanc dénommé Hydrogène naturel.

Ce produit, auquel assez curieusement personne ne s’était intéressé jusqu’à présent, fait maintenant l’objet de recherches intensives, sous l’impulsion de nos amis russes, faut-il le préciser. Certes il avait bien été débusqué au fond des océans, le long des dorsales océaniques, mais son existence ailleurs était énergiquement nié par les experts géologues, tout comme le fameux pétrole abiotique.

Et voilà qu’il a suffit de regarder sommairement pour en trouver partout sous forme d’émanations naturelles souvent importantes.

(Où il se confirme que les obstacles au progrès sont souvent ceux que l’Homme s’impose à lui-même).

Tout ce que le monde compte d’énergéticiens s’active actuellement pour évaluer l’importance de la ressource et les moyens d’y accéder. IFPEN a engagé des moyens importants en 2013 pour évaluer l’exploitabilité de ces sources.

On n’ose même pas imaginer l’importance de la révolution énergétique Qui ferait suite à une éventuelle confirmation du Jack-pot:

L’Hydrogène, aujourd’hui vecteur énergétique, deviendrait source d’énergie décarbonées renouvelable( Géoressource verte).

La géopolitique serait bouleversée par une redistribution des centres de production.

Les stratégies de transition énergétique seraient à reconsidérer, les rôles respectifs de l’éolien et du solaire pourraient devenir des seconds rôles.

Cette perspective révolutionnaire est une éventualité à prendre en compte, sans toutefois tomber dans un enthousiasme excessif. Une décennie au moins sera nécessaire pour établir l’intérêt de ce qui n’est aujourd’hui qu’un indice important.

En attendant on pourra toujours fabriquer notre Hydrogène vert avec de l’éolien et du solaire…

Repost 0
20 mai 2014 2 20 /05 /mai /2014 18:59

20 Mai 2014

L’éolien est donc un atout essentiel d’une transition énergétique décarbonée et dénucléarisée.

Ses vertus sont vantées dans les publications vertes, lesquelles ne rechignent pas à forcer sur le dithyrambe, parfois de manière excessive.

Puisque « sans la liberté de blâmer il n’est point d’éloge flatteur » , tâchons de voir de plus près ce qu’il en est exactement.

Jusqu’à présent le parc éolien français est exclusivement terrestre.

(L’entrée dans l’offshore est pour bientôt, puisque des contrats sont signés pour quelques parcs sur la côte atlantique, dont la production devrait démarrer vers 2018).

Pour l’année 2013, la production éolienne (donc terrestre) a atteint 15,9 TWh, ce qui représente environ 3% de la consommation finale d’électricité.

C’est à la fois peu et beaucoup.

C’est peu si l’on considère le volume de production encore marginal, sans réel impact sur l’activité de la branche électricité.

C’est beaucoup si l’on s’attache aux éléments de savoir faire acquis, et à l’expérience accumulée en matière de gestion de projets. Encore faut-il préciser qu’une bonne partie de cette activité éolienne a été suscitée par l’effet d’aubaine liée à un tarif de rachat substantiel. Mais la fin justifie les moyens…

Cette production a été obtenue grâce à un parc global assez disparate de 4285 machines d’une puissance moyenne de 1,9 MW. On parle donc de petites et moyennes éoliennes.

Au 31 Décembre 2013 La puissance installée raccordée au réseau était de 8 143 MW. Le facteur de charge a été de 23 % en moyenne sur l’année, avec des fluctuations en moyennes mensuelles entre 15% et 30% avec des pointes à 40% en janvier. Les fluctuations sont évidemment beaucoup plus importantes sur des échelles de temps plus réduites.

C’est ce que l’on appelle l’intermittence.

( Tous ces chiffres sont extraits du « Panorama des Energies renouvelables 2013 » publié par RTE ).

Ces résultats sont classiques, en accord avec ce qu’on peut attendre d’une production soumise aux caprices du vent.

Le retour d’expérience nous enseigne que l’on n’ira guère au-delà de ces puissances en terrestre, à cause des nuisances et du mauvais rendement.

A titre de comparaison, pour remplacer la production d’électricité nucléaire par ce type de machines, il faudrait un parc global de plus de 100 000 éoliennes ! Hypothèse évidemment absurde. D’autant plus que l’on aurait à supporter l’intermittence, donc à disposer des installations de stockage considérables.

Si ces chiffres peuvent faire grincer quelques dents, il était quand même important de les rappeler.

L’avenir n’est donc pas dans l’éolien terrestre, qui conserve malgré tout un intérêt local et doit être réservé aux zones bien ventées et/ou isolées.

Les projets d’ampleur portent sur l’éolien offshore.

Les arguments en faveur de l’offshore sont d’une part la force et la régularité des vents du large, et d’autre part la possibilité de monter des machines très puissantes, donc très grandes, sans risque de créer des nuisances sonores. Certains ajoutent que l’éloignement facilitera l’acceptation par le public, ce qui reste à démontrer dans des zones de grand intérêt touristique et d’exploitation piscicole. L’acceptation par les professionnels de la pêche côtière sera à la mesure du montant des indemnités et autres compensations qui ne manqueront pas d’être versées.

Va donc pour l’offshore, de toutes façons nous n’avons pas le choix !

Sur le marché mondial ( Un constructeur ne peut exister que s’il est présent sur le marché mondial, faut-il le rappeler) la concurrence est rude: Les cinq plus grands sont:

Général Electric ( US )

Vestas ( Denmark)

Siemens ( Allemagne)

Enercon ( Allemagne)

Gamesa ( Espagne)

Qui se partagent la moitié du marché mondial.

L’Inde et la Chine ne sont pas en reste, et se partagent déjà 25 % du marché, sans intention d’en rester là.

Les grandes manœuvres sont donc en cours, desquelles sortiront les trois ou quatre leaders mondiaux du secteur. Entre eux et d’autres acteurs moins importants se joue une partie de tric-trac dont nous avons quelques échos à l’occasion de « l’affaire » ALSTOM , dont l’activité énergie est convoitée par Général Electric. On peut aussi signaler l’accord de « joint venture » entre AREVA et GAMESA pour le développement d’une machine de 8 MW.

On notera au passage qu’AREVA est déjà présent sur le marché de l’éolien offshore ( AREVA WIND), mais à l’étranger: Fin 2014 cette entreprise aura installé plus de 120 éoliennes offshore du type M 5000 de 5 MW sur les côtes allemandes, à partir de l’usine AREVA de Bremerhaven. Nul n’est prophète en son pays…

Cette entreprise vient heureusement d’être sélectionnée en France pour le second appel d’offres atlantique, l’honneur est sauf …

N’oublions pas ALSTOM , dont la nouvelle machine « Héliade 150 » de 6 MW vient d’obtenir sa certification, mais qui risque hélas de changer de mains. A suivre dans votre journal habituel…

Au plan technique, les machines de demain sont déjà programmées pour 8 MW.

Un seul de ces monstres pourra produire 25 GWh par an grâce à un facteur de charge de 35%. Il en faudra tout de même plus de 400 pour égaler la production annuelle d’un seul réacteur EPR de 1 500 MW type Flamanville.

Ces super éoliennes coûtent évidemment très cher, on parle de 3 millions d’euros le MW pour les machines actuelles de 5 à 6 MW. Ce coût sera probablement plus près de 5 millions pour les machines géantes de 8 MW. ( Plus hautes que la tour Montparnasse !)

A ce niveau, notre parc de 400 éoliennes coûtera près de 16 Milliards d’euros ! C’est-à-dire largement plus que le prix du réacteur de Flamanville, jugé pourtant exorbitant par ses détracteurs. Et encore nous n’avons pas parlé des problèmes de compensation de l’intermittence qui, bien que moins important qu’en terrestre, n’en demeurent pas moins présents et doivent être mitigés. Ni des dépenses de restructuration du réseau de distribution rendues nécessaires par la redistribution des sites de production.

L’éolien offshore est donc très très cher.

Ce qui n’enlève rien à ses mérites, qui rendent cette technologie incontournable. Mais ce problème de coût ne doit pas être escamoté sous peine de fausser les débats. C’est un point important qu’il était nécessaire de rappeler pour contrebalancer les déclarations fantaisistes de certaines publications orientées, selon lesquelles l’éolien produirait une électricité bon marché.

Le problème du stockage de l’électricité, que nous avons déjà évoqué dans un précédent article, est un des points clés du développement de l’éolien et/ou du solaire. S’il est négligé, il s’ensuivra un gros risque d’effondrement du réseau de distribution, incapable de s’adapter aux fluctuations rapides de la production. L’éolien et le solaire seraient alors cantonnés dans un rôle marginal, ce qu’ils sont aujourd’hui en France.

La maîtrise du marché des énergies renouvelables suppose donc de disposer de la compétence dans les trois secteurs essentiels:

- la production de l’électricité.

- le stockage.

- La gestion du réseau de distribution.

C’est ce que s’efforcent d’obtenir les groupes industriels qui prétendent au leadership dans ce domaine.

Dans ce sens, AREVA et le CEA développent actuellement un système de stockage sous forme d’Hydrogène obtenu par électrolyse, l’électricité étant restituée grâce à un pile à combustible ( Plateforme MYRTE installée en Corse ). Il s’agit d’un embryon de filière Hydrogène, laquelle paraît un excellent candidat comme vecteur d’énergie permettant le stockage.

Une autre ambigüité doit être relevée à propos de l’éolien. Il s’agit d’un argument utilisé dans la Presse généraliste pour donner une image de l’efficacité d’un parc éolien. On cite habituellement le nombre de foyers pouvant être alimentés en électricité par tel ou tel parc. Il est facile de comprendre qu’une telle donnée n’a de sens que si l’on précise la consommation référence moyenne des foyers dont on parle, ce qui n’est jamais le cas.

Les secteurs Habitat et Tertiaire consomment environ 68 % de l’électricité, soit environ 340 TWh. Il y a 35 millions de foyers, dont les occupants consomment de l’électricité, non seulement dans leurs logements, mais aussi à l’extérieur en utilisant les services du tertiaire. Nous parlons alors de consommation élargie.

La consommation moyenne élargie d’un foyer est donc de 9 700 KWh par an, et non pas 3500 KWh comme souvent indiqué dans nombre de publications ( On trouve même parfois 1 500 KWh, chiffre parfaitement fantaisiste).

Il est à signaler également qu’aucune prévision de consommation ne tient compte de la voiture électrique, alors qu’elle sera un passage obligé lorsque les 29 millions de mètres cubes de carburants pétroliers consommés chaque année par nos bagnoles ne seront plus disponibles.

Il est donc nécessaire de faire atterrir le problème de l’éolien, et des énergies durables en général, du domaine du rêve dans celui de la réalité. C’est à cette seule condition que l’on pourra mesurer l’importance des efforts à accomplir, et prendre les bonnes décisions.

Repost 0
17 mai 2014 6 17 /05 /mai /2014 04:59

17 Mai 2014

Nos besoins énergétiques sont partagés entre d’une part de la chaleur, et d’autre part de l’électricité.

La chaleur basse température ( inférieure à # 100 °C) est nécessaire pour le chauffage des locaux divers, depuis les logements jusqu’aux serres en passant par les bâtiments administratifs, commerciaux, ou industriels, les élevages de volailles, de porcs, les véhicules de transport de personnes, les écoles, etc, etc…

La chaleur à haute température intervient dans les processus de cuisson des aliments, dans les fours industriels, dans les procédés de travail des métaux, des plastiques, dans la métallurgie et la chimie en général. Elle intervient également dans la production de force motrice dans des turbines à gaz ou à combustion interne ( tout types de moteurs thermiques).

L’électricité n’est indispensable que pour les applications dites « spécifiques » comme: L’éclairage ( dès lors que le bec de gaz est relégué au musée).

Les transports ferroviaires ( dès lors que la loco à vapeur est abandonnée).

Les tramways ( tirés autrefois pas des chevaux ).

Les processus pour obtenir de la chaleur à très haute température ( Fours électriques).

Les télécommunications, Radiocommunications, Satellites, Télévision, etc..

Informatique, bureautique, et numérique en général.

Robotique.

Production l’Aluminium par électrolyse.

Les applications frigorifiques.

Machines à commande numérique.

Machines-outils.

Pompes à chaleur.

Actionneurs électromagnétiques.

Commandes motorisées diverses à moteurs électriques.

Chaînes de production automatisées.

Moteurs d’entrainement de pompes hydrauliques ou pneumatiques.

Laminoirs.

Imprimeries.

Automatismes divers.

Appareils à processus programmables.

Dispositifs de sécurité divers. Imagerie médicale, Etc, etc…

De nos jours, la France consomme environ 2 000 TWh annuellement pour satisfaire toute la demande de chaleur et d’électricité. On parle alors de consommation d’énergie « finale ».

Le quart de cette énergie est utilisé sous forme d’électricité. Les trois quart restant le sont sous forme de chaleur comme décrit ci-dessus.

Aujourd’hui pour l’essentiel, cette énergie finale est obtenue par les procédés suivants:

La « chaleur » est produite par la combustion ( Gaz, fuel, charbon, bois ), et un peu ( très peu) par la géothermie et le solaire thermique ( Panneaux solaires thermiques et centrales solaires à concentration, pompes à chaleur).

L’électricité, qui est un « vecteur » d’énergie, est obtenue grâce à des alternateurs entraînés par des turbines, lesquelles sont alimentées de plusieurs façons:

Avec de la vapeur d’eau à haute température et haute pression à partir soit de la combustion d’énergies fossiles, soit à partir de la fission de l’atome d’Uranium.

Ou avec l’énergie gravitationnelle d’une chute d’eau, c’est l’électricité hydraulique, ou de la marée dans les usines marémotrices.

Les turbines sont évidemment spécifiques de chaque mode.

Depuis une ou deux décennies sont venues s’ajouter d’autres sources d’énergie, dites « nouvelles »:

Pour la chaleur: la méthanisation de la biomasse (Biogaz), et les biocarburants obtenus à partir de la distillation de végétaux.

Pour l’électricité: L’éolien et le solaire photovoltaïque.

Ces nouvelles sources n’ont de nouveau que leur nom, elles sont connues et utilisées depuis longtemps, mais à un niveau faible eu égard à l’existence des sources fossiles en quantités illimitées et à un coût relativement réduit.

On remarquera qu’il est possible de passer de la chaleur à l’électricité (Centrales à fuel, à gaz ou au charbon, groupes électrogènes), et inversement de l’électricité à la chaleur grâce à l’effet Joule, mais cette dernière opération n’est pas recommandée pour les faibles températures à cause d’un très mauvais rendement global.

( On l’utilise pourtant quand même dans les radiateurs électriques, les grille-pains, les fours ménagers, les cumulus, les lave-linges, les lave-vaisselles, et dans l’éclairage avant les lampes basse consommation).

Par contre pour obtenir des températures très élevées l’électricité reste un bon vecteur, par exemple pour la soudure sous argon, ou d’autres processus spéciaux à l’arc électrique.

La transition énergétique consiste dans son principe en un abandon progressif (volontaire ou contraint) des sources fossiles et/ou non renouvelables, au profit des sources nouvelles rebaptisées renouvelables et non polluantes, ou encore « énergie verte » .

Sources nouvelles déjà parfaitement connues et dont la technologie est maîtrisée depuis longtemps, faut-il le rappeler, mais qui sont restées de côté pour cause de pétrole, de gaz naturel et de charbon « trop » bon marché.

Les outils technologiques de la transition sont donc connus, ils existent et sont déjà utilisés à petite échelle.

Mais alors, où est le problème ?

Pour ce qui concerne le secteur de la chaleur, il s’agit de remplacer le trio FGNC (Fuel- Gaz Naturel- Charbon), par le bois-combustible, la géothermie, le solaire thermique, le biogaz et les biocarburants (Biomasse), qui sont déjà utilisés mais dont la production devrait être considérablement augmentée.

Bien évidemment cette mutation du secteur chaleur ne se fera pas sans rencontrer d’obstacles à la fois financiers et d’acceptation, mais rien ne semble s’y opposer dans le principe.

Les projections effectuées sur les possibilités de remplacer le trio FGNC par les renouvelables citées montrent que cette opération devra s’accompagner d’un programme drastique d’amélioration de l’efficacité énergétique des processus, et de dépenses d’investissement considérables dans le secteur de la chaleur.

Par exemple la rénovation thermique des bâtiments, pour atteindre le niveau exigé par la norme pour 2020-2030 ( Bâtiments à énergie positive), coûtera plus de 1 000 Milliards d’euros, uniquement en France.

Auxquels viendront s’ajouter le coût des centrales solaires, des réseaux de distribution de chaleur, des modifications des installations d’utilisation de cette chaleur, et bien entendu du stockage de celle-ci.

Un effort aussi important sera nécessaire dans le secteur industriel pour obtenir des résultats comparables dans l’efficacité énergétique des équipements, des processus et des produits finaux.

Pour le secteur de la chaleur, la stratégie technologique est donc déjà identifiée, le seul problème est de trouver l’argent.

Pour ce qui concerne le secteur de l’électricité, le problème se complique de la nécessité absolue de décider du sort du nucléaire avant tout autre décision.

Ce problème touche particulièrement la France, où l’électricité est à 75% d’origine nucléaire.

Si la décision était prise de conserver cette technologie, alors l’éolien et le solaire photovoltaïque pourraient continuer à ne jouer qu’un rôle marginal, avec des investissements limités.

On pourrait même rouler en voiture électrique sans complexe, et continuer à chauffer notre bain à l’électricité !

Un décision contraire se traduirait pas la nécessité d’un vaste plan de développement de l’éolien offshore et du solaire à concentration et/ou photovoltaïque, complété par la construction d’installations de stockage de l’électricité. Des centrales à biogaz seraient utilisées en compensation de l’intermittence, et il serait probablement nécessaire de développer la filière Hydrogène comme vecteur d’énergie.

L’arrêt du nucléaire ne signifie pas l’arrêt des dépenses du nucléaire, puisque la procédure de démantèlement devrait être entreprise dans la foulée, et personne ne sait combien coûte un démantèlement complet avec traitement des déchets, mais les experts conviennent que la note serait effrayante.

Dans un cas comme dans l’autre les dépenses correspondantes seront considérables, on peut parler là aussi de centaines de Milliards par an qui viendront s’ajouter à ceux évoqués plus haut pour le « plan chaleur ».

Inutile de rappeler que cet argent n’existe pas, même en rêve.

Que l’on continue dans le nucléaire, ou que l’on décide d’en sortir, la facture sera de toute façon astronomique.

Le piège nucléaire s’est bien refermé sur la France.

A ce problème spécifiquement français vient s’ajouter celui d’une tarification irréaliste de l'électricité:

Pour des raisons diverses notre tarif public de l’électricité est parmi les plus faibles en Europe. Certains expliquent cela par un prix de revient très bas de la production nucléaire, mais personne ne connaît le vrai prix du nucléaire !

( Le vrai prix doit inclure non seulement le démantèlement « au niveau de l’herbe » et le traitement et l’enfouissement des déchets, mais aussi le coût des manœuvres politiques, diplomatiques, voire militaires, déployées pour obtenir les autorisations d’exploitation du sous-sol. Certains y ajoutent même les coûts prévisionnels d’une catastrophe nucléaire qu’ils estiment inéluctable ).

En fait, le tarif domestique de l’électricité en France reflète un choix historique gouvernemental d’une politique sociale de l’énergie, impossible à remettre en question ex-abrupto.

Selon Eurostat le kWh était à 0,14 euro en 2012 en France alors qu’il était à 0,26 euros chez nos voisins allemands, pour un consommateur domestique moyen.

( Voir le Rapport N° 2013/05 de Novembre 2013, de la Direction Générale du Trésor).

L’alignement du tarif français sur celui de nos voisins permettrait de dégager plus de 50 Milliards par an, de quoi envisager sereinement la transition énergétique.

Mais une telle augmentation des tarifs est inenvisageable dans la situation actuelle, pas plus que l’alignement des taxes du gazole sur celles du super.

L’artifice de la CSPE , qui apparaît au bas des factures d’électricité et permet d’afficher un tarif du kWh à prix constant, est une grosse ficelle qui ne pourra bien longtemps duper le consommateur. Ce tour de bonneteau fiscal n’est qu’un expédient dont les limites seront vite atteintes lorsqu’il s’agira de rentrer dans le dur du développement des énergies durables.

La météo économique est par trop défavorable pour se permettre de hisser beaucoup de toile sans risquer un ouragan social qui emporterait la mâture et peut-être la passerelle de commandement !

Il faudra nous contenter de garder un tourmentin pour tâcher d’étaler la crise et garder la cape en attendant une embellie économique qui permettrait de dégager des moyens pour entreprendre ces travaux pharaoniques.

Ne jetons pas l’anathème sur ce Gouvernement qui, pas plus que les autres, ne possède la pierre philosophale capable de changer le plomb en or, et souhaitons que le pétrole et le gaz naturel continuent d’être disponibles longtemps encore à un prix convenant à nos finances amaigries.

Il est donc à craindre que les mâchoires du piège nucléaire ne s’ouvriront pas de sitôt. Il est probable que durant la prochaine décennie on se contentera de repeindre la vitrine du restaurant sans changer la cuisine, en espérant que les clients (nos créanciers) ne désertent pas la salle, et que le guide Michelin (les agences de notation) ne nous privent pas de nos étoiles. Il nous reste à faire confiance au nouveau cuisinier récemment embauché pour trouver de nouvelles recettes, tant il est vrai que c’est la sauce qui fait passer le poisson…

Repost 0
7 mai 2014 3 07 /05 /mai /2014 12:19

7 Mai 2014

Dans la rubrique « faits de société » on ne compte plus les aménagements règlementaires établis pour faciliter la vie du citoyen, ou pour renforcer sa sécurité, et dont il semble qu’ils aient été dévoyés de leur destination première pour lui soutirer un maximum d’euros en toute bonne conscience.

Il n’en est rien bien entendu, seuls les usagers de mauvaise foi et/ou ayant eu maille à partir avec les autorités véhiculent ce genre d’accusation sans fondement...

Le code de la route est LE règlement auquel tout citoyen(ne) est confronté journellement au cours de son existence. Son utilité n’est mise en doute par personne, on imagine sans peine la jungle routière qu’il faudrait affronter si n’importe qui pouvait faire n’importe quoi.

Mais une loi ne vaut rien sans les moyens de la faire respecter.

Autrefois, le respect du code routier était assuré par des personnels de la Gendarmerie ou de la Police municipale. Leur qualité d’officiers assermentés leur conférait une autorité souveraine pour constater les infractions et leur donner les suites prévues par le législateur. Heureux temps où l’on pouvait négocier et parfois en sortir indemne avec un peu de diplomatie.

Mais les temps ont changé.

Au fil des ans le parc de véhicules a explosé, les articles du code également.

Aujourd’hui 35 millions de voitures particulières sillonnent nos routes, et parcourent plus de 400 Milliards de kilomètres chaque année ! Cette augmentation du trafic a rendu inefficaces les moyens « bon-enfant » du temps jadis; il en est résulté une insécurité inacceptable et une accidentologie indécente. Un « bilan » annuel de 10 000 morts et 250 000 blessés était devenu la norme.

Faute de pouvoir disposer un gendarme à chaque carrefour il a été procédé à un aggiornamento du code pour y ajouter des limitations de vitesses drastiques, le permis à points, le contrôle d’alcoolémie, le contrôle technique, ainsi qu’une multitude de nouveaux panneaux de signalisation et de marquage au sol, et certains aménagements de chaussée comme les chicanes, dos d’ânes, vibreurs et autres coussins berlinois.

La liste n’est pas exhaustive.

Les contrôles routiers se sont également modernisés grâce aux radars de vitesse fixes et mobiles, aux éthylotests, aux véhicules d’interception rapides, aux fichiers interconnectés, et aux moyens de communication sophistiqués.

Cet ensemble constitue un outil dissuasif grâce auquel l’hécatombe routière a pu être considérablement réduite.

L’amélioration de la sécurité active et passive des véhicules, ainsi que le développement d’un important réseau autoroutier ont contribué pour beaucoup à ce progrès.

Toutes ces dispositions ne sont efficaces que s’il est possible de s’assurer de leur respect par les usagers.

Les pénalités financières ( vous avez « droit » à une amende…) ayant fait la preuve de leur inefficacité, il a été décidé de frapper les coupables dans ce qui leur tient le plus à cœur, le permis.

La plus importante réforme du code routier fut donc l’instauration du permis à points.

Comme au Catéchisme, le conducteur doit désormais connaître la liste des péchés véniels, et surtout celle des péchés mortels qui lui vaudront un retrait de permis, voire même la prison. Il peut aussi bénéficier d’indulgences qui raccourciront le temps de purgatoire grâce à des stages payants qui permettent de regagner la blancheur originelle. On parle même de trafic d’indulgences, de sombres histoires de substitution de conducteur, ou de vente frauduleuse de points de permis.

L’autorité publique a ainsi prévu une liste des manquements au code de la route, avec les pénitences associées lorsque la faute est avérée.

La faute peut être soit constatée par un agent de la force publique, soit immortalisée sur une photo prise par un dispositif qui se déclenche au bon moment. Le pénitent a en principe la possibilité de plaider sa cause devant un tribunal, qui accorde rarement l’absolution.

Cette rigueur excessive ne peut alors être contrée que par la mise en évidence d’un vice de forme, ou par une fausse déclaration sur l’identité du conducteur par exemple. Certains n’hésitent pas à user de fausses plaques minéralogiques pour détourner la sentence sur quelque innocent qui aura le plus grand mal à prouver sa bonne foi.

L’usager conducteur doit donc déployer beaucoup de finesse, voire de ruse, pour éviter les modernes paparazzi de la route.

Le système de points, associé à un barème de punitions applicables pour des fautes autrefois sanctionnées par une simple amende, entraîne le risque de perdre rapidement son permis et par la même occasion la possibilité d’exercer son activité professionnelle dans certains cas, ce qui peut signifier une déchéance sociale.

Cette fois on ne plaisante plus.

Dés lors que l’infraction est qualifiée de délit, la déclaration d’un agent de la force publique, fut-il assermenté, ne suffit plus à établir la matérialité des faits, il faut une preuve irréfutable.

C’est ainsi que la photo est devenue la preuve par excellence, à travers la vidéosurveillance d’une part, et les radars routiers incorruptibles, même s’ils sont souvent contestés dans l’usage qui en est fait.

Qui n’a jamais pesté contre le radar embusqué sur l’autoroute au bas d’une longue descente en ligne droite et qui vous taxe à 136 km/h ?

L’automobiliste traqué croyait avoir tout vu en matière de répression. Hélas il se trompait.

Dans la bible routière il existe un verset dont l’exégèse prête à controverse: c’est celui qui traite du franchissement d’un carrefour muni de feux tricolores.

Si la signification des feux rouge et vert ne prête pas à confusion, le troisième feu, jaune fixe (indûment appelé feu orange), est le petit morceau de fromage grâce auquel se déclenche le ressort du piège.

Ce feu est censé prévenir les usagers de l’imminence de l’allumage du feu Rouge interdisant le passage. C’est un feu devant lequel il faut s’arrêter, contrairement à ce que certains peuvent penser, ou croire. L’article R 412-31 du code est formel sur ce sujet:

« Tout conducteur doit marquer l'arrêt devant un feu de signalisation jaune fixe, sauf dans le cas où, lors de l'allumage dudit feu, le conducteur ne peut plus arrêter son véhicule dans des conditions de sécurité suffisantes. Le fait, pour tout conducteur, de contrevenir aux dispositions du présent article est puni de l'amende prévue pour les contraventions de la deuxième classe ».

Pour faire simple, disons que les deux feux, Rouge et Jaune, imposent l’arrêt de la circulation. La seule différence est que le Rouge coûte 4 points et une amende de troisième classe, alors que le Jaune ne coûte qu’une amende de deuxième classe sans retrait de points.

Le flou apparaît au niveau de l’appréciation de la validité des explications que vous donnerez au représentant de l’ordre qui vous aura intercepté, pour justifier votre passage au Jaune.

Aucune voiture au monde, même roulant à 35 km/h, ne peut s’arrêter en moins de 12 m. Si le feu passe au Jaune alors que la voiture est à moins de 10 m du poteau, elle franchira mathématiquement le feu.

Le code de la route ne prévoit pas cette situation, qui place le conducteur bien malgré lui en situation d’infraction, alors qu’il a voulu faire preuve de prudence en freinant.

Le bon sens voudrait alors qu’il s’abstienne de freiner et qu’il traverse le carrefour, ce que font 99 % des automobilistes dans ce cas, au risque évident de «griller » le feu rouge s’ils ont mal apprécié la distance et le temps.

La séquence du passage vert-rouge, cadencée par le feu jaune, définit une durée pendant laquelle l’automobiliste se trouve suspendu entre le bien et le mal, dans une sorte de purgatoire dont il ne connaît pas très bien le mode d’emploi, ni l’issue.

(Un peu comme le chat de Schrödinger, qui est à la fois vivant et mort tant que l’on n’a pas ouvert la boîte).

Qui connaît la durée d’une séquence de feu jaune ? Officiellement elle est de 3 secondes en zone urbaine et 5 secondes hors zone urbaine. Avez-vous déjà vérifié ?

Jusqu’à il y a peu les infractions étaient soit impunies parce qu’il n’y a pas un agent à chaque carrefour, surtout la nuit, soit parfois négociables avec l’éventuel agent en faisant preuve de diplomatie ( Je parle du feu Jaune, pas du Rouge, qui lui n’est jamais négociable!).

Certains agents, qui ont reçu autrefois quelques notions de physique et de mécanique, peuvent comprendre cette histoire de distance de freinage, de décélération, de coefficient de frottement, de route mouillée ou pas, de temps de réaction, qui définissent les distances d’arrêt. Ceux qui ne comprennent pas peuvent se référer aux annexes du code, qui donnent les distances d’arrêts en fonction de la vitesse et de l’état de la chaussée.

Mais il restera toujours une incertitude sur la distance à laquelle se trouvait le véhicule lorsque le feu est passé au jaune. Tout se joue alors entre la bonne ou la mauvaise foi de l’automobiliste et celle de l’agent, le sort du premier dépendant de la capacité de négociation et de l’humeur du second.

Parfois un deus ex machina, en la personne d’un témoin, peut dénouer le drame comme dans la plus pure tradition du théâtre antique, mais il vaut mieux ne pas trop y compter.

Nous sortons là du domaine du code de la route pour entrer dans celui de la diplomatie, qui n’est pas encore enseignée dans les auto-écoles, quoique certaines prodiguent des conseils propres à adoucir la rugosité des pandores.

La négociation d’un feu jaune est donc un exercice des plus délicats, puisqu’il faut tout à la fois s’assurer de la vitesse de son véhicule, de la distance entre l’avant du véhicule et le poteau de signalisation au moment du passage au jaune, de l’existence ou non d’un SAS de cyclistes, de l’état de la chaussée, de la charge de la voiture, de la valeur correspondante de la distance d’arrêt, de la présence ou non d’un véhicule suiveur un peu trop collant, de la largeur du carrefour, avant de décider si on peut s’arrêter avant le poteau, ou s’il vaut mieux continuer et franchir le croisement.

Une gymnastique intellectuelle qui, on en conviendra, n’est pas à la portée d’un conducteur moyen, surtout sur un parcours inhabituel.

Aussi très généralement le conducteur préfèrera recourir à la science des probabilités, toujours comme en physique quantique: Il tâchera d’évaluer la probabilité de présence d’un agent de la force publique à CE carrefour particulier qu’il s’apprête à franchir. Et surtout il devra décider s’il vaut mieux perdre quelques dizaines d’euros en franchissant le feu jaune (amende de deuxième classe sans perte de point), plutôt que prendre le risque de se faire défoncer l’arrière de sa voiture en s’arrêtant trop brutalement s’il est suivi par un autre véhicule, voire même d’envoyer à l’hôpital un motard un peu trop «collant» .

Et ceci à chaque carrefour.

De cette incertitude métaphysique il ressort que l’automobiliste est fréquemment amené, parfois malgré lui, à « flirter » avec le feu rouge, voire même à le « griller » quelque peu, faute d’avoir hésité à freiner de crainte de s’arrêter au milieu du carrefour ou de causer un carambolage.

Autrefois, il y a bien longtemps déjà, pour limiter les risques engendrés par ces comportements hasardeux, l’autorité publique avait décidé de régler « manu militari » le croisement des flots de véhicules, en plaçant sur un piédestal au centre du carrefour un agent chargé de faire le ménage et de fluidifier la circulation, ce dont il s’acquittait grâce à une paire de gants blancs et une pantomime bien réglée.

S’il n’évitait pas tous les accidents, au moins il était là pour les constater et pour dissuader les plus audacieux.

Mais le nombre de voitures et le nombre de carrefours ayant explosé, et la main d’œuvre étant devenue hors de prix, l’agent a été remplacé par les feux.

La disparition de l’agent ayant entraîné un relâchement certain des comportements, les carrefours avec feux sont devenus des lieux où l’on risque sa vie si l’on accorde trop de confiance au feu vert, surtout la nuit.

(L’auteur peut en témoigner, qui désormais marque l’arrêt même si le feu est vert).

Rappelons qu’en cas d’accident à un carrefour avec feux tricolores, c’est la règle de la priorité à droite qui s’applique en l’absence de témoins pouvant confirmer la bonne foi de l’un ou l’autre conducteur.

Et c’est là qu’interviennent les fameux radars de feux.

L’idée de relever automatiquement les infractions type « feu rouge grillé » n’est pas nouvelle car cette possibilité, outre qu’elle réduirait le nombre d’accidents, induirait des rentrées fiscales conséquentes.

De tels systèmes sont progressivement installés depuis 2009 sur certains carrefours, en principe les plus accidentogènes.

Voici succinctement comment fonctionne le piège:

Un radar ( CA-FR, Contrôle Automatisé de Franchissement de Feu) est disposé plusieurs mètres avant les feux, à quelques mètres de hauteur, pour pouvoir prendre des clichés de l’ARRIERE des véhicules.

Leur fonctionnement est automatique.

Le matériel est constitué du radar, de la caméra, du flash, de deux boucles de détection, et du Hardware permettant de gérer l’ensemble selon le logiciel utilisé. Une communication existe, qui permet d’échanger avec la centrale de réglage des feux, avec le service de contrôle et de maintenance du système, avec le service de contrôle de la circulation, et avec le service central de traitement des contraventions.

Le mode de fonctionnement peut être différent selon le logiciel utilisé. Nous décrivons ici le mode le plus courant:

Le piège s’active lorsque s’allume le feu rouge.

Aucune photo n’est possible lorsque le feu est Jaune (c’est du moins ce qui nous a été affirmé, mais un doute subsiste selon certains usagers malchanceux).

Deux boucles de détection enfouies dans le sol sont disposées l’une au niveau de la ligne pointillée du feu, l’autre deux à trois mètres plus loin.

ATTENTION, si le carrefour comporte un SAS pour cyclistes, la première boucle sera au niveau de la ligne d’arrêt du SAS et non pas de la ligne pointillée du feu !! ( premier piège).

Lorsque l’avant d’un véhicule franchit la première boucle, une première photo est prise (si le feu est rouge évidemment).

S’il ne franchit pas la deuxième boucle il ne se passe rien, pas d’infraction.

S’il franchit la deuxième boucle, une deuxième photo est prise, constatant l’infraction ( deuxième piège).

Pour que l’infraction « non respect du feu Rouge » soit constituée il doit donc y avoir les deux photos.

Mais attention encore, la première photo suffit à établir le non respect du SAS de cyclistes, mais l’amende n’est pas la même !

Ces photos sont transmises au service chargé du traitement, qui juge s’il y a lieu de verbaliser. Les critères d’appréciation sont évidemment inconnus (troisième piège).

En cas de contestation, les deux photos doivent être produites. On aura noté que, les photos étant prises de l’arrière, il sera impossible d’identifier le conducteur.

Les petits malins se réjouissent déjà.

Pour un conducteur, le fait de n’avoir pas été flashé ne signifie pas forcément qu’il n’a commis aucune infraction, car la caméra est équipé d’un capteur full-frame performant qui peu prendre des bonnes photos sans flash si le temps le permet ! (Il s’agit bien sûr d’une caméra numérique et l’on sait de quoi elles sont capables avec un bon logiciel de traitement de bruit!).

Le système paraît simple, mais il devra gérer plusieurs situations litigieuses:

On peut se demander par exemple ce qu’il advient d’un automobiliste arrivant à 50 km/h et qui, voyant le feu passer au jaune, décide de continuer et franchit le carrefour sans encombre car en trois secondes il aura parcouru plus de quarante mètres, largement de quoi passer la zone de détection avant l’allumage du feu rouge.

Et que dire de cet autre automobiliste, plus scrupuleux, qui décidera au contraire de freiner en urgence à l’allumage du feu Jaune, et qui s’arrêtera en plein sur la zone de détection parce qu’il a mal apprécié sa distance d’arrêt ?

Ou bien sûr du véhicule arrêté sur la boucle par un carrefour soudainement encombré.

On nous a affirmé que l’appareil ne s’occupait pas du feu Jaune, mais on peut en douter car c’est une simple question de logiciel, lequel est facilement configurable par une entrée USB.

Et puis n’oublions pas que le signal de témoin d’allumage du feu Rouge est un pulse envoyé par la centrale de gestion des feux, lequel pulse peut ne pas être rigoureusement en phase avec l’allumage effectif du feu. Il peut y avoir un décalage d’une fraction de seconde, c’est suffisant pour perdre quatre points…

Ce nouveau dispositif risque fort d’encourager les comportements extrêmes qui se traduiront au mieux par beaucoup de tôles froissées et au pire par des blessés. On pense notamment à un deux roues surpris derrière un conducteur tentant un arrêt d’urgence pour éviter d’être flashé, alors que normalement les deux seraient passés sans encombre.

Ou bien au conducteur accélérant à l’allumage du feu Jaune pour franchir le carrefour avant le rouge et ainsi échapper aux boucles de détection.

Le radar feu rouge est la concrétisation d’une intention incontestablement louable, mais il aurait été bon d’en faire une expérimentation limitée avant d’en généraliser l’usage. Ce qui avait d’ailleurs été proposé en 2011 par la Mission Parlementaire, mais refusé.

Environ 700 radars feu rouge sont opérationnels en France aujourd’hui.

1 350 000 messages d’infractions ont été relevés en 2 011 et analysés, 624000 ont été confirmés ( près de la moitié) et ont donné lieu à amendes et retraits de points, soit une moyenne de 2,5 infractions confirmées par jour et par appareil, ce qui est relativement peu. Cette opération aurait rapporté 80 millions d’euros à l’Etat en 2011.

L’histoire ne dit pas combien elle a coûté, des chiffres circulent sur le coût d’un radar feu rouge: environ 100 000 euros, ce qui paraît énorme au vu de la petite boîte et de son contenu, mais peut se comprendre pour un matériel vendu en petites séries car il faut payer les frais d’étude, les investissements de production, les homologations, etc….

Si nous retenons ce montant, l’investissement est de 70 millions pour les 700 machines, auxquelles il faut ajouter les travaux de voierie pour l’installation, y compris le câblage du raccordement au réseau de communication, ce qui pourrait porter la note à 100 millions. (Le réseau de communication existe déjà: Intranet ).

Le fonctionnement du système, bien qu’automatisé, requiert du personnel pour analyser les 1 350 000 dossiers, soit 5 400 dossiers par jour ouvrable.

Ces dossiers sont examinés par des officiers de Police, dont le salaire annuel chargé peut être estimé à 50 000 euros. Il faut une centaine d’opérateurs disponibles, à raison de 50 dossiers par jour, qui coûteront annuellement environ 5 millions en salaires chargés.

Le coût comptable annuel, avec amortissement du matériel sur 5 ans, sera donc de l’ordre de 30 millions en incluant 5 millions pour la maintenance.

Pour un rapport annuel de 80 millions, c’est ce qu’on peut appeler une affaire qui marche.

A condition toutefois que les recours aux tribunaux pour régler les affaires litigieuses n’entraîne pas de dépenses supérieures aux recettes.

Sous réserve de confirmation des ordres de grandeur ci-dessus qui ne sont que des évaluations faute de données précises, on peut penser que les radars feu rouge vont faire beaucoup de petits qui viendront égayer nos carrefours.

Ce ne sont pas les marchands de stages de rattrapage qui s’en plaindront… Ni les carrossiers ou les services d’urgences, qui ne manqueront pas d’accueillir les clients victimes de carambolages causés par des freinages intempestifs.

Les auto-écoles vont devoir ajouter au cursus une formation à la gestion des feux tricolores, et en toute rigueur une épreuve ad-hoc devrait être prévue lors de l’examen.

Le plus extraordinaire est qu’il existe encore des psychologues pour s’interroger sur les raisons du stress généralisé qui frappe notre société…

Nous vivons une époque moderne…

Repost 0
2 mai 2014 5 02 /05 /mai /2014 09:48

2 Mai 2014

Aujourd’hui l’énergie est disponible sans limitation de quantité et pour un coût relativement raisonnable.

Une voiture peut rouler de Brest à Vladivostok pour une dépense en carburant égale au budget annuel moyen qu’un ménage français consacre aux services d’information et communications, selon INSEE.

On peut se procurer partout et sans aucune espèce de difficulté du fuel domestique, du gazole, du supercarburant, du gaz naturel, de l’électricité, du GPL, du bois de chauffe, du charbon, et même de l’Hydrogène.

Dans ce contexte, imaginer un monde de restriction et/ou de quotas énergétiques assortis de pénalités appliquées aux émissions de CO2 et autres gaz à effet de serre, et/ou aux émissions de nanoparticules et autres polluants, est un exercice intellectuel rendu très difficile, à la limite de la fiction tragique digne d’un film catastrophe de série B.

Et pourtant cet exercice est nécessaire car, si l’on en croit les augures du GIEC et les prévisionnistes du « peak oil », nous devons nous attendre à des lendemains très difficiles, même si la date de l’échéance reste incertaine.

Certes, demain est un autre jour, et tant que l’orchestre joue, pourquoi ne pas continuer à danser ? Il sera bien temps le moment venu de prendre des dispositions.

Encore une minute Monsieur le bourreau.

Mais prenons garde à ne pas dépasser la date limite sinon, comme pour Cendrillon, le carrosse pourrait se transformer en citrouille.

Tenter de jouer les trouble-fêtes au milieu de cette insouciance est aussi un exercice difficile, mais il faut bien se résoudre à jouer les docteurs tant pis si cela peut nous éviter d’avoir affaire un jour au père fouettard.

Dans un scénario dépourvu d’énergies fossiles et de Nucléaire, les énergies vertes tenteront de subvenir à nos besoins, qui sont immenses.

Pour alimenter un pays en énergie il faut remplir quatre conditions:

La première est d’avoir accès à des sources énergétiques.

La seconde est d’avoir un ou des vecteurs d’énergie.

La troisième est d’avoir un réseau de distribution.

La quatrième est de pouvoir stocker cette énergie.

Nous avons vu dans un article précédent comment ces quatre conditions sont remplies avec le mix énergétique actuel:

Les sources d’énergie sont à 80% les fossiles et le minerai d’Uranium, importés en totalité.

Les vecteurs d’énergie sont les carburants liquides issus du raffinage, le combustible nucléaire préparé à partir du minerai d’Uranium, l’électricité fournie par des centrales, et directement le Gaz naturel dans des tuyaux.

Les réseaux de distribution sont spécifiques de l’électricité, du gaz, et des carburants liquides.

Nous avons montré que les centrales nucléaires permettent le stockage de l’électricité sous forme de combustible solide préparé à partir du yellow cake. Les carburants et le gaz sont stockés dans des sites spécifiques.

Dans un monde « vert » sans fossiles et sans nucléaire, voyons comment seront remplies les quatre conditions:

Nous aurons deux sources d’énergie primaire: Le rayonnement Solaire et pour une très faible part la radioactivité résiduelle des couches profondes de la croute terrestre, et l’énergie potentielle gravitationnelle (pesanteur).

Ces sources primaires, la première étant largement majoritaire, se dérivent en sources secondaires qui sont les vents, le cycle des eaux terrestres, les chutes d’eau, les courants marins, les marées, la houle, la Géothermie de surface, la Géothermie profonde, et la vie avec le cycle de la biomasse.

Ces sources secondaires sont exploitables grâce à des procédés technologiques divers connus:

Eoliennes, panneaux photovoltaïques, panneaux solaires thermiques, dispositifs thermiques à concentration solaire, barrages de haute chute, barrages au fil de l’eau, Hydroliennes, Pompes à chaleur, installations de méthanisation et de distillation de la biomasse.

Les vecteurs d’énergie seront l’électricité, la chaleur, les biogaz, les biocarburants.

Les biogaz et les biocarburants peuvent se stocker comme aujourd’hui le gaz naturel et les carburants pétroliers.

Mais ces deux vecteurs ne fourniront qu’une partie des besoins énergétiques, le reste incombera à l’électricité.

Avec deux inconvénients majeurs: La production d’électricité verte est intermittente et l’électricité ne se stocke pas (le combustible nucléaire ne sera plus là pour assurer cette fonction, faut-il le rappeler ).

Il est donc impératif de trouver un autre vecteur d’énergie qui puisse satisfaire la fonction de stockage.

C’est ici qu’intervient l’Hydrogène.

L’idée d’utiliser l’Hydrogène comme vecteur énergétique n’est pas nouvelle.

Ce gaz a été découvert en 1 766 par Cavendish.

Le mélange combustible appelé « Gaz Hydrogène » a été inventé en 1 785 et largement utilisé sous le nom de « Gaz d’éclairage » ou « Gaz de ville » pendant tout le XIXè siècle et la moitié du XXè.

Certains immeubles classés ont conservé leur plaque gravée mentionnant « Gaz à tous les étages », signe ostensible du standing bourgeois de leurs occupants.

Fabriqué par pyrolyse à partir de houille ou de coke, ce mélange gazeux contenait 50% d’Hydrogène, 32% de Méthane et 8% d’oxyde de Carbone et pas mal de résidus, dont le sulfure d’Hydrogène.

La présence d’oxyde de Carbone fut à l’origine de nombreux décès, et la technologie de l’époque ne permettait pas d’assurer une bonne étanchéité des canalisations, à l’origine de nombreuses fuites et odeurs pestilentielles dues aux résidus de produits soufrés, et d’explosions ou d’incendies meurtriers.

Il sera utilisé jusqu’au milieu du XXè siècle avant d’être supplanté par le Gaz Naturel (Gaz de Lacq en France).

Le premier moteur à combustion, inventé en 1804 par Isaac de Rivaz, fonctionnait à l’Hydrogène.

L’électrolyse de l’eau est connue depuis 1 800, et la première pile à Hydrogène a été inventée par William Grove en 1839 et utilisée industriellement par ATT jusqu’en 1860.

Lorsque Jules Verne prédisait en 1 874 que l’Homme futur puiserait dans l’eau une énergie illimitée, il ne faisait donc qu’extrapoler une technologie déjà bien au point. Mais ne brisons pas l’auréole du célèbre « inventeur » qui nous a tous fait rêver.

L’Hydrogène a donc déjà connu son heure de gloire, mais l’arrivée du pétrole abondant et du Gaz Naturel bon marché a évidemment balayé ces tentatives d’industrialisation.

Les applications industrielles de l’Hydrogène ont continué à se développer pour les besoins spécifiques de la chimie et de la pétrochimie, et surtout pour fabriquer l’Ammoniac NH3.

De nos jours il se consomme en Europe environ 9 millions de tonnes d’Hydrogène par an, distribués en bouteilles sous pression, ou à l’état liquide réfrigéré, ou à travers un réseau de distribution sous pression (100bar) par pipelines, qui couvre une grande partie de l’Europe avec 1500 kms de tuyaux.

Ce gaz n’existe pas à l’état naturel.

Il faut cependant signaler que des émissions d’Hydrogène naturel ont été constatées, y compris terrestres, et que des recherches sont en cours pour en déterminer l’importance et évaluer leur capacité de production. Voir notamment: <http://www.ifpenergiesnouvelles.fr/actualites/communiques-de-presse/l-hydrogene-naturel-une-contribution-au-mix-energetique-ifpen-etudie-le-potentiel-des-sources-d-hydrogene-naturel-a-terre>

Si ce nouveau filon est confirmé, l’Hydrogène deviendra non plus simplement un vecteur d’énergie, mais une source d’énergie non carbonée et inépuisable.

En attendant de toucher cet éventuel Jackpot, aujourd’hui l’Hydrogène doit être fabriqué en l’extrayant de molécules dans lesquelles il est lié à d’autres atomes.

Les plus courantes sont bien entendu l’eau, puis les Hydrocarbures.

Il existe deux procédés principaux:

Le vaporeformage d’Hydrocarbures, gros consommateur d’énergie et émetteur de CO2. C’est le procédé majoritairement utilisé ( > 95%).

Et l’électrolyse de l’eau, non polluante et fournissant un Hydrogène très pur.

D’autres procédés comme le craquage de l’eau existent également. ( La molécule d’eau violemment secouée à partir de 800 °C se dissocie spontanément par cassure des liaisons O-H . le procédé consomme beaucoup d’énergie).

La filière Hydrogène a pu être envisagée comme une opportunité en tant que vecteur d’énergie dans la mesure où l’électrolyse de l’eau peut être réalisée grâce à l’électricité verte lorsque l’offre excède la demande.

Cette électricité, ne pouvant être stockée, est donc valorisée sous forme d’Hydrogène. Sa combustion avec l’Oxygène ne dégage que de l’eau. Il peut être retransformé en électricité grâce à la pile à combustible, et il est stockable comme le gaz naturel aujourd’hui.

Toutes ces qualités en font le candidat privilégié des futurs vecteurs d’énergie.

Mais ce gaz est également capricieux et pas commode à utiliser:

- Ses molécules sont très petites, les plus petites existantes, ce qui lui confère la propriété de s’insinuer partout et donc de fuir très facilement. Sa manipulation nécessite des joints et des vannes spéciales. Il passe même à travers certains métaux par un phénomène de migration lente.

- En présence d’Oxygène il s’enflamme très facilement, et pour des concentrations de 4% à 75%. Il ne peut être utilisé qu’avec des règles de sécurité strictes. (Le célèbre accident du dirigeable « Hindenburg » nous en a administré une preuve qui a frappé les esprits pour longtemps).

- Il est très léger, donc il devra être fortement comprimé pour en obtenir une certaine masse.

Et c’est là que le bât blesse.

Le chimiste nous enseigne que 2g de di-Hydrogène (1 mol) gazeux occupent un volume de 22,4 L à température et pression normales.

Pour en avoir 1 kg il nous en faut donc 11 200 L.

Notre chimiste nous apprend que nous avons là une réserve d’énergie de 33,3 kWh ( Il parle de PCI, Pouvoir Calorifique Inférieur massique).

On se souvient qu’au début du XXè siècle le tiers des voitures fonctionnaient déjà à l’électricité, avec des batteries au plomb lourdes et peu performantes. Les actuelles batteries Lithium-ion sont plus légères, mais encore très lourdes. Une telle batterie, de 33 kWh, pèse environ 300 kg avec les accessoires.

Un seul kilo d’Hydrogène peut donc remplacer plusieurs centaines de kilos de batteries !

Sauf que 11 200 L ce n’est pas transportable dans une voiture !

Il faut donc réduire considérablement le volume de notre kilo d’Hydrogène. On peut le comprimer. à 10 kg de pression le volume tombe à 1 120 L à 100 kg il tombe à 112 l, c’est encore trop.

Mais à 700 kg il n’est plus que de 16 L, toujours à température ambiante.

L’ingénieur nous dit que 700 kg de pression, il sait faire, mais la bonbonne devra être en bon acier assez épais donc très lourde. Ou alors en matériau composite avec fibres de carbone tissées, compliqué et cher, mais faisable ( En fait c’est déjà fait ).

Pour l’automobile, l’objet doit résister au crash test et tenir le cahier des charges ce qui est toujours faisable mais le prix monte.

Il demeure cependant un doute sur le comportement d’une bonbonne d’Hydrogène prise dans un incendie qui porterait la pression au-delà de la limite d’éclatement.

Et on connaît les restrictions qui frappent les véhicules fonctionnant au GPL.

Et qu’en est-il du poids ?

Le poids du réservoir en matériau composite, susceptible de stocker 1 kg d’Hydrogène à une pression de 700 kg, peut être évalué à 30 kg.

Cet Hydrogène est transformé en électricité par une pile à combustible d’un poids sensiblement équivalent.

Une batterie Lithium-ion de quelques kWh est généralement utilisée en tampon pour fournir les pointes de courant des accélérations, et récupérer l’énergie du freinage.

Le tout pesant une centaine de kg, à comparer avec les 300 kg de la batterie Lithium-ion de 30 kWh qui équipe par exemple la Renault ZOE pour fournir le même service.

La surprise est de taille ! 100 kg au lieu de 300 kg .

C’est le jackpot qui fait dire à certains que l’Hydrogène est l’avenir de l’automobile.

De nombreux véhicules équipés de piles à Hydrogène circulent déjà en Europe à titre expérimental.

Une pile à Hydrogène de type PEMFC (Proton Exchange Membrane Fuel cell) a été développée en 2006 par le CEA (GENEPAC) et présentée en 2009 en partenariat avec PSA, sur une Peugeot 307 « épure » avec des performances de haut niveau:

1,4 kWh / kg

2,1 kWh /L

Le prototype PSA comportait une pile de 20 kW et un réservoir de 4 kg d’Hydrogène à 700 bar associés à un moteur électrique de 15 kW, pour une autonomie de 500 kms.

On peut également alimenter un moteur à combustion interne avec de l’Hydrogène, pour bénéficier de l’absence d’émissions de CO2. Mais le rendement est inférieur à celui d’une pile à combustible couplée à un moteur électrique. Le cycle à quatre temps ne lui convient pas bien, il préfère la turbine.

Il se confirme donc que l’Hydrogène est un excellent vecteur énergétique, en plus de son intérêt pour le stockage de l’électricité.

La nécessité d’embarquer des réservoirs chargés à 700 kg de pression reste cependant un inconvénient sérieux.

L’autre méthode de stockage, en phase liquide, n’est acceptable que pour des installations fixes car elle requiert un refroidissement à - 250 °C !

Ces dernières années ont vu l’émergence d’une troisième solution qui permet de s’affranchir des problèmes de haute pression, de cryogénie, et de sécurité. Il s’agit du stockage par absorption sur matériaux solides.

La nécessité de comprimer fortement le gaz pour en réduire le volume vient de la nécessité de vaincre l’énergie de répulsion des molécules entre elles, augmentée par l’agitation thermique. Certains matériaux acceptent d’accueillir des molécules d’Hydrogène par le phénomène d’adsorption suivi d’un transit à l’intérieur des mailles cristallines (absorption). L’Hydrogène est assimilé et la structure du matériau est modifiée. Il est alors possible d’accueillir davantage de molécules H2 dans un même volume qu’avec une simple compression.

Parmi les matériaux étudiés à cette fin le Magnésium retient l’attention à cause de son poids réduit ( intéressant pour l’automobile) et de sa capacité d’absorption. De plus il est très abondant sur terre et peut être obtenu à coût réduit, et il est recyclable.

Chaque atome Mg peut s’associer à deux atomes d’Hydrogène H pour former l’Hydrure de Magnésium MgH2.

La capacité massique d’absorption est donc de 7,6% en théorie.

Pour stocker 1 kg d’Hydrogène il faut donc 16,6 kg de Magnésium, qui occuperont un volume de 9,8 L,

A peine le volume d’un réservoir de motocyclette.

Pour la même quantité d’énergie une batterie Lithium-ion pèse 300 kg.

L’intérêt supplémentaire du procédé est qu’il se déroule à basse pression (< 10 bar) et à basse température donc on échappe à la nécessité d’un réservoir blindé résistant à 700 kg de pression.

Mais les inconvénients du Magnésium sont connus: il est très inflammable et ne peut être utilisé sans précautions particulières.

Ce problème de sécurité est au cœur des travaux de recherche et développement et l’on se doute bien que tous les centres de recherches en électrochimie mobilisent de gros moyens en collaboration avec tous les constructeurs automobiles pour sécuriser cette filière énergétique.

On peut citer un exemple de réalisation par la Société McPhy Industries, qui a mis au point un procédé breveté avec le CNRS et qui fait appel aux nanotechnologies. Ce procédé permet de « passiver » le Magnésium par association avec d’autres composants sous forme de poudre compressée résistant à la flamme d’un chalumeau.

L’association d’un tel réservoir à l’Hydrure de magnésium et d’une pile à Hydrogène permet d’obtenir un poids très inférieur à la solution classique à batterie Lithium-ion, au point qu’il est possible d’augmenter la réserve énergétique pour donner à la voiture une autonomie de 700 kms impossible avec une batterie aujourd’hui

. Le problème du rechargement des cartouche vides se pose comme pour la recharge des batteries, et il ne doit pas être sous-estimé, non plus que le coût de ce nouveau carburant. Qui le distribuera, et quelles taxes devra-t-il supporter ?

Mais la possibilité d’obtenir une autonomie de plusieurs centaines de kms reste un atout primordial qui conserve à ce procédé toute son attractivité.

Tout au moins tant que la technologie des batteries ne permettra pas de dépasser une capacité massique de 100 Wh/kg.

L’épuisement des sources fossiles entraînera également l’épuisement de la ressource en carbone, lequel est très largement utilisé dans l’industrie notamment pour les plastiques.

Il faudra donc trouver une autre source, et c’est là que l’Hydrogène intervient encore, grâce à la possibilité de l’utiliser pour fabriquer des hydrocarbures en le combinant avec le Carbone du CO2 atmosphérique.

Voir notamment: <college-de-france.fr/site/marc-fontecave/course-2014-02-26-10h00.htm>

Le XXIIè siècle sera-t-il celui de l’Hydrogène ?

Repost 0
30 avril 2014 3 30 /04 /avril /2014 03:34

30 Avril 2014

La transition énergétique, dont les médias font leurs choux gras, est une arlésienne dont on parle beaucoup mais qui n’arrive jamais.

Il faut dire que l’affaire est des plus embrouillées et vouloir s’en saisir revient à tenter de tenir en main une savonnette mouillée.

L’approche du problème suscite la perplexité tant sont variés les aspects de la chose selon l’éclairage adopté. L’un nous explique qu’il est urgent de sortir du nucléaire, tandis que l’autre nous exhorte à réduire les émissions de CO2. Souvent le même d’ailleurs. Un troisième prêche pour l’interdiction des gaz de schiste tandis qu’un quatrième nous rappelle que la combustion du charbon émet deux fois plus de CO2 que le gaz naturel. L’économiste insiste sur la nécessité de réduire le déficit du commerce extérieur, le politique veut privilégier la recherche de l’indépendance énergétique, l’écologiste veut nous mettre à la diète. Quant au consommateur, il veut des énergies vertes mais refuse catégoriquement toute augmentation des tarifs. Le beurre et l’argent du beurre.

Une discussion entre les différentes parties prenantes évoque un concile de faux-culs plutôt qu’une assemblée de sages mettant en commun leurs savoirs pour sauver la Planète.

Au retour des grand’messes périodiques sur l’environnement et le climat, les chefs d’Etats s’empressent de retourner aux affaires courantes sans plus de souci de préservation de ceci ou de réduction de cela. Les objectifs indiqués pour 2020, 2050 et 2100 voire au-delà pour les plus audacieux se télescopent dans le plus grand désordre. Les uns voient l’urgence électorale de 2017, les autres pensent à leurs petits-enfants, et le financier se demande comment il va s’y prendre pour tirer le meilleur parti possible de cette cacophonie et rouler tout le monde.

L’honnête homme, si toutefois l’espèce n’est pas éteinte, peine à distinguer ne serait-ce que deux ou trois éléments cohérents qui lui permettraient de construire son opinion sur des bases saines au cas, fort improbable, où « On » lui demanderait son avis un jour. Parmi les éléments qui surnagent au-dessus du torrent d’exhortations, d’idées reçues, de fausses nouvelles, de menaces, de prêchi-prêcha et d’imprécations, on peut tenter de recenser quelques points significatifs qui peuvent contribuer à l’établissement d’un état des lieux relativement proche de la réalité, ou d’une réalité.

Tentons l’exercice:

Point No 1:

Les catastrophes climatiques imputées à l’excès du CO2 anthropique sont des prévisions. Bien qu’elles émanent de l’élite des scientifiques « intéressés » à la climatologie, elles n’en demeurent pas moins des prévisions, et qui plus est des prévisions fondées sur des résultats délivrés par des modèles informatiques dont la validation est impossible, et pour cause…

Toutes choses qui ne vont pas sans susciter une certaine méfiance qui explique peut-être le peu d’enthousiasme envers une transition énergétique dont l’impérieuse et urgente nécessité n’apparaît pas immédiatement.

Non pas que le changement climatique annoncé soit mis en doute, il faudrait pour cela les « anti prévisions » d’un « anti GIEC » qui n’existent ni l’un ni l’autre, mais l’idée s’est répandue que la catastrophe est désormais inéluctable et que « de toutes façons le mal est déjà fait », ce qui n’est pas tout à fait faux.

On en retire l’impression générale que si les énergies vertes bénéficient effectivement d’un préjugé favorable, il n’est peut-être pas absolument urgent de jeter immédiatement aux orties les énergies fossiles, qui ont encore le mérite d’être disponibles en quantité et à bas coût.

C’est du moins ce qui ressort de l’examen des comportements de la majorité des pays. On peut le regretter, mais hélas sans pouvoir y faire grand’chose.

Point No 2:

Aucune politique énergétique contraignante ne saurait être imposée au plan mondial sans une autorité planétaire reconnue et dotée des moyens de faire appliquer ses décisions. Inutile de préciser qu’une telle autorité n’existe pas, et qu’elle n’est souhaitée par personne pour des raisons évidentes de risques de dérive.

Le pouvoir et la vertu n’ont jamais fait de bons couples.

Faute d’une telle autorité planétaire effective, les organisations internationales tentent d’obtenir des pays adhérents le respect d’objectifs minimalistes proclamés, qui ne sont en fait que des vœux pieux dont l’application est généralement reportée à une date indéterminée, pour ne pas dire à la saint glin-glin.

Point No 3:

Ce laxisme consensuel, encouragé par la demande mondiale croissante et incontrôlable d’énergie, permet d’affirmer que les réserves d’énergies fossiles seront bel et bien consommées jusqu’à la dernière goutte et même au-delà si l’on songe aux hydrocarbures de roche mère, et à d’éventuelles sources abiotiques, et accompagnées bien sûr des émissions correspondantes de CO2.

Point No 4:

Si après cela il restait malgré tout encore une éventuelle volonté planétaire de limiter le taux de croissance du CO2 atmosphérique, le seul moyen envisageable serait alors de mettre en œuvre sans délai des procédés pour son élimination « in situ » .

Des études de procédés de capture et séquestration du Carbone (CSC) à la source ont été financés, mais sont demeurées au stade de l’expérimentation. On n’en parle quasiment plus dans les médias.

D’autres procédés ont été évoqués, comme la transformation du CO2 atmosphérique en hydrocarbures à Carbone recyclable grâce à l’Hydrogène produit par l’électrolyse de l’eau avec l’électricité des énergies vertes ( Oui, c’est un peu tordu mais parfaitement faisable). Ou encore sa transformation par carbonatation ou photosynthèse.

Tous ces procédés sont restés dans les cartons à cause du coût trop élevé dans le contexte actuel. Seules des mesures de taxation dissuasives sur les énergies fossiles pourraient entraîner leur mise en œuvre, lesquelles mesures devraient être décidées par ceux-là même qu’elles contraindraient. Cherchez l’erreur.

Il faut souligner quand même que par ailleurs des mesures positives ont été constatées, qui portent d’une part sur l’amélioration de l’efficacité énergétique des procédés, et d’autre part sur les économies d’énergie en général, ce qui aura pour effet d’étaler dans le temps les quantités de CO2 émises, sans pour autant les supprimer.

Point No 5:

Compte tenu de ce qui précède, on peut déduire que des efforts massifs vers les énergies propres et durables, qui ne seraient consentis que par une minorité de Pays, n’auraient qu’un effet insignifiant sur le taux de CO2 atmosphérique planétaire, puisque les autres pays ne changeraient rien à leurs habitudes.

Cet effort devrait alors être entrepris en fonction d’autres objectifs que la réduction du CO2. On pense par exemple à la recherche d’indépendance énergétique, à la création d’une activité industrielle nouvelle pour relancer une économie chancelante, à l’acquisition d’une compétence utile à l’exportation, etc…

Ce qui relève d’une autre stratégie que celle de la lutte contre le CO2, avec d’autres moyens et d’autres objectifs technologiques.

Ce que certains pays ont d’ailleurs compris depuis longtemps…

Point No 6:

L’observation de terrain confirme la dichotomie existant entre les bonnes résolutions proclamées au cours des réunions internationales et les comportements locaux de différents pays, motivés par la défense de leurs intérêts nationaux immédiats:

Le Charbon, produit le plus polluant de la Planète et le plus nocif pour l’effet de serre, voit sa consommation augmenter au point de devenir bientôt (vers 2017 selon les experts) la première énergie primaire devant le pétrole, avec des réserves estimées à 150 ans.

La Grande Bretagne envisage l’exploitation de gisements de charbon sous la mer du Nord, par le procédé de gazéification souterraine.

L’Allemagne n’a décidé de sortir du nucléaire que pour mieux replonger dans le charbon.

Et que dire du Japon…

Par ailleurs, la plupart des pays qui en ont la possibilité exploitent leurs réserves de gaz de schiste, augmentant ainsi la quantité de CO2 contre laquelle nous sommes appelés à lutter. Etc…

Face à une telle unanimité dans le mépris des préoccupations environnementales, on ne peut qu’être pessimiste quant aux chances de voir aboutir rapidement et à l’échelon mondial un changement de comportement des Etats en accord avec les recommandations du GIEC.

On peut également croiser les doigts en espérant que les prédictions catastrophiques de cette docte assemblée ne se réaliseront pas.

Point No 7:

Faute de mesures consensuelles contraignantes et économiquement dissuasives, la situation actuelle perdurera jusqu’à la survenue des premières manifestations de pénurie des énergies fossiles.

Cette pénurie impactera plus ou moins les pays selon qu’ils possèdent ou non sur leur territoire des réserves de l’un ou l’autre des produits fossiles.

Les politiques de mitigation seront donc spécifiques de chaque cas.

Tel sous-continent comme l’Amérique du Nord, qui possède à la fois du pétrole, du gaz, du charbon, et du nucléaire, et le reste, peut voir venir sereinement le moment d’investir massivement dans d’autres sources d’énergie.

A l’opposé, tel pays comme la France, qui ne possède aucune réserve de produits fossiles et dont l’activité nucléaire civile est menacée d’opprobre, sera directement frappé par la prochaine crise énergétique.

Si la cause de la crise est un début d’assèchement des réserves, c’est le pétrole qui sera touché en premier. Mais une telle crise peut survenir avant l’épuisement des sources, par l’accroissement de la demande des pays émergents qui ne pourrait pas être satisfaite par une production plafonnant à son niveau actuel, ce qui évidemment pèserait sur les cours . Cette crise peut être également être provoquée par des problèmes géopolitiques qui seraient suivis de perturbations des approvisionnements. On pense notamment au Gaz naturel.

Bien sûr tout cela est pris en compte par les autorités responsables, qui tentent de minimiser les risques en diversifiant les sources et en développant le transport maritime du GPL. Il n’en demeure pas moins que la vulnérabilité est grande dans le cas d’une dépendance totale, comme c’est le cas de la France, qui de plus ne peut éviter de consentir à certains compromis avec des pays à la gouvernance pas toujours respectable.

Dans un tel cas, il est impératif de se donner rapidement les moyens de recourir aux énergies renouvelables pour éviter de retomber dans une autre dépendance, technologique cette fois, lorsque le moment sera venu de produire.

Point No 8:

L’économie mondialisée nous a enseigné qu’il ne suffit pas d’être le meilleur dans la recherche de techniques et de produits nouveaux, il faut également être capables de les fabriquer à un coût compétitif et de les vendre sous peine d’en rester au stade des expérimentations brillantes mais stériles économiquement et fort coûteuses en frais d’études.

Personne n’a oublié le fiasco des panneaux photovoltaïques, technique dans laquelle la France était pourtant pionnière dans la recherche et le développement.

Et que penser de la vente probable à l’étranger de la branche énergie de ALSTOM, à la veille d’entreprendre la construction de notre premier parc éolien offshore pour lequel cette entreprise a été retenue avec EDF ?

Point No 9:

L’Union Européenne a été édifiée entre autres pour mener à bien des projets communs d’ampleur internationale, susceptibles de donner à la Communauté une dimension lui permettant de rivaliser sur le marché mondial avec les plus grandes entreprises. La transition énergétique exige une stratégie européenne pour pousser dans le même sens la charrette du progrès et se donner une chance de figurer sur la scène internationale.

Cela fut fait en son temps pour l’aviation et le spatial.

Rien de tel n’est fait aujourd’hui en matière d’énergie, ce qui laisse planer un doute sur l’importance accordée à la transition par les dirigeants de la Communauté, suscitant le scepticisme des citoyens qui se demandent à quelle sauce on veut les manger.

Point No 10:

Le cas particulier de la France, directement concernée par une crise énergétique comme nous l’avons rappelé, est révélateur de la confusion qui règne au sujet de la transition, y compris chez les dirigeants.

La nouvelle stratégie énergétique, promise pour fin 2012, n’est toujours pas connue ( du moins pas annoncée) deux ans après le renouvellement de l’équipe gouvernementale.

Ces atermoiements ne sont pas la meilleure façon d’obtenir l’adhésion des citoyens à une politique d’investissements qui leur coûtera nécessairement des efforts financiers dont ils aimeraient bien qu’ils soient efficaces pour la prochaine génération. Ce qui est loin d’être évident aujourd’hui.

Point No 11:

Les énergies vertes concernent au premier chef la production d’électricité. En France celle-ci dépend à 75% du Nucléaire.

Aucune stratégie de développement des nouvelles énergies ne peut être définie sans décision préalable de maintien ou de retrait du Nucléaire civil.

La probable annonce de fermeture de vingt réacteurs d’ici 2020 ou 2030 ne concerne en rien la politique nucléaire puisqu’il s’agit de réacteurs qui arriveront en fin de vie, et devront être fermés règlementairement à cette époque.

D’autre part, l’annonce de la réduction à 50% de la part du Nucléaire dans la production d’électricité française à telle date est dépourvue de sens si l’on ne précise pas quelle sera la production estimée à cette date.

La seule décision significative d’une stratégie concerne le programme EPR et la quatrième génération de réacteurs.

Faut-il rappeler que cette décision est toujours attendue…

Point No 12:

En guise de conclusion provisoire.

Des éléments de réflexion, il en existe donc, mais sont-ils de nature à dissiper la perplexité de notre honnête homme, on peut en douter. Les énergies fossiles sont clairement devenues le sang de notre société. Il semble que remplacer ce sang, même impur, par un ersatz de provenance incertaine et intermittente, ne soulève pas l’enthousiasme tant il est reconnu que toute transfusion comporte des risques parfois mortels. Il faut donc en prendre son parti, le recours à la transfusion sera retardé le plus possible. Il nous reste à espérer que l’opération sera décidée avant que le malade ne soit à l’article de la mort…

Repost 0