Overblog Suivre ce blog
Administration Créer mon blog
29 novembre 2013 5 29 /11 /novembre /2013 16:21

L’atmosphère en tant que revêtement de surface « intelligent ».

29 Novembre 2013

Nous avons évoqué dans un article précédent l’importance de l’Atmosphère dans la régulation de la température de la troposphère.

Du point de vue thermodynamique elle joue le rôle d’un revêtement de surface qui règle l’équilibre entre l’albédo et l’émissivité de la planète de manière à stabiliser la température autour de +15 °C.

L’eau sous ses trois formes et la présence de gaz à effet de serre sont les outils essentiels qui permettent de moduler la quantité d’énergie solaire renvoyée vers l’espace.

La vie se développe dans cet écosystème grâce à la présence d’oxygène; elle y a son rôle dans le processus de recherche d’équilibre, sans que l’on puisse savoir si elle est un phénomène contingent ou essentiel à la régulation, voire même sa raison d’être.

( Non n’avons pas qualité pour dire des choses pertinentes sur ces problèmes métaphysiques).

Comme tout système thermodynamique l’Atmosphère possède une énergie interne.

Cette énergie est formée des composantes thermodynamiques classiques de tout système gazeux:

Une composante principale appelée « Energie cinétique microscopique » qui résulte de l

’agitation des molécules (mouvement Brownien).

La Température est la mesure de cette agitation.

Une seconde composante importante appelée « Energie potentielle » qui regroupe l’énergie géopotentielle ( liée à la pesanteur), et les énergies potentielles intermoléculaires ( attraction -répulsion).

Une troisième composante très importante est composée de la « Chaleur latente » portée par la vapeur d’eau.

Enfin il faut ajouter l’énergie cinétique macroscopique liée aux mouvements des masses d’air ( Vents, tornades).

Il faudrait également citer l’énergie chimique, mais dans notre cas elle est très faible.

L’ensemble de ces énergies atteint le montant extraordinaire de

1,25 x 10 exp[24] joule.

Soit en clair:

1 000 000 000 000 000 000 000 000 Joule !

Ce qui représente dix millions de fois la puissance de la plus puissante bombe thermonucléaire .

Les quatre formes d’énergie sont réparties ainsi:

Ecm ( cinétique microscopique) : 70%

Eg ( géopotentielle ) : 27%

Ecl ( chaleur latente) : 2,5%

Ev ( cinétique macroscopique) : 0,05%

(Source: Oort, Peixoto et Al, 1983)

On notera la faible valeur de Ev, qui est l’énergie des masses d’air en mouvement, c’est-à-dire des ouragans et tornades.

On imagine sans peine l’effet d’un déséquilibre qui porterait cette valeur à seulement 0,1%. A nous les vents de 400 km/h !

On comprend alors que plus qu’une augmentation légère de température, il faut craindre un déséquilibre de Ev, dont la faible valeur relative laisse une grande vulnérabilité devant la formidable réserve de puissance contenue dans Ecm et Eg.

Les quatre composantes de l’énergie interne atmosphérique échangent continuellement de l’énergie entre elles et utilisent les océans comme réservoir tampon de chaleur et comme moyen de véhiculer de grosse quantités d’énergie d’un endroit à l’autre de la planète par l’intermédiaire des courants marins.

La rotation du globe et les inégalités spatio-temporelles de l’insolation créent un régime de vents qui brasse les masses d’air et contribuent à une certaine homogénéisation.

Le cycle évaporation- chaleur latente-précipitations module les couches nuageuses et donc directement l’albedo et l’émissivité.

Les gaz à effet de serre présents dans l’Atmosphère contribuent au mécanisme de régulation.

Les climatologues connaissent la plupart des facteurs qui sont susceptibles d’influencer le mécanisme de régulation. Mais les relations entre ces facteurs, la façon dont ils interviennent et leur importance relative ne sont pas exactement connues. Des modèles informatiques sont utilisés pour tenter de prévoir l’évolution du climat, et la confrontation de ces modèles avec la réalité permettra de les valider et de confirmer ou infirmer les hypothèses retenues.

L’emploi des énergies fossiles depuis les débuts de l’ère industrielle ne constitue qu’une phase du recyclage du carbone. En effet ces combustibles sont issus d’organismes autrefois vivants et dont le Carbone a été stocké pendant des millions d’années pour être restitué aujourd’hui à l’Atmosphère.

Ce type de recyclage, considéré comme vertueux dès lors qu’il s’agit de bois parce que le cycle est de courte durée ( 50 ans), est considéré comme nuisible avec les fossiles car le cycle est de plusieurs millions d’années, les émissions de CO2 sont alors considérées comme un apport nouveau à l’échelle des temps historiques.

L’augmentation anthropique du taux de CO2 dans un court laps de temps (Un siècle et demi) constitue une violation du cycle naturel de régulation thermodynamique de l’Atmosphère.

Le résultat direct est une modification de l’émissivité qui va dans le sens d’un accroissement de l’énergie interne.

Cette impulsion d’accroissement de l’énergie interne va se distribuer entre les quatre composantes Energie cinétique microscopique (Ecm), Chaleur latente ( Ecl), Energie géopotentielle ( Eg), et Energie cinétique macroscopique ( E v).

Il faut donc s’attendre à observer les perturbations résultantes:

La modification de Ecm se traduira par un variation de température, probablement une augmentation mais pas nécessairement.

L’effet sur Ecl sera une perturbation du régime des précipitations, des moussons et des formations nuageuses.

Eg, qui concerne les distributions des hautes et basses pressions, manifestera des déséquilibres créateurs de zones cycloniques.

Quant à Ev, qui porte le potentiel de vents, de tornades et d’ouragans, on sait les résultats d’un déséquilibre sur les évènements météo extrêmes.

La variation de température n’est donc peut-être pas une mesure fiable des variations climatiques. Il est possible que d’autres phénomènes atmosphériques soient plus représentatifs des changements du climat.

Repost 0
28 novembre 2013 4 28 /11 /novembre /2013 13:54

Réchauffement de l’atmosphère, une affaire entre albédo et émissivité.

28 Novembre 2013

Cette affaire de réchauffement climatique est décidément bien compliquée.

Les milliers de pages des rapports officiels sont à ce point absconses qu’il a fallu en extraire la quintessence pour exposer aux décideurs un tableau qui ne soit pas totalement inintelligible.

C’est le fameux « Résumé à l’usage des décideurs ».

Certes compréhensible du « décideur » moyen, mais peut-être un peu réducteur.

Aussi, afin de prendre du recul, ais-je demandé son avis à un mien cousin émigré dans le système de Sirius.

Comment voit-on le problème de là-bas ?

Son avis, bien que peu nuancé, m’a paru intéressant surtout pour sa simplicité, je vais tâcher de vous l’exposer en essayant de ne pas déformer sa pensée.

Pour notre ami lointain la Terre n’est qu’un petit système thermodynamique qui reçoit toute son énergie de son étoile.

( je lui ai fait remarquer que la Terre elle-même n’est pas totalement dépourvue d’énergie interne, mais il m’a tout de suite arrêté en me citant les chiffres de ce que nous appelons pompeusement le flux géothermique: seulement 0,065 W/m2, moins qu’un pet de lapin comparé à la puissance reçue de notre étoile).

Notre Soleil est vu de Sirius comme une sorte de chandelle qui nous envoie bon an mal an un flux énergétique d’environ 1 368 W/m2 relativement constant, c’est d’ailleurs pourquoi nous l’appelons « constante solaire ».

Arrivé sur le globe ce flux se réparti pour donner un « arrosage » moyen de 342 W/m2.

Ayant constaté que la température de surface du globe reste constante en moyenne, les savants de Sirius en ont déduit que le flux d’énergie qui vient de l’espace y retourne intégralement sous une forme ou sous une autre. Nous ne les contredirons pas.

La Terre étant visible dans leurs instruments, ils ont conclu qu’une partie du flux reçu est réfléchi et repart vers l’espace.

Le reste est donc absorbé.

Et c’est là qu’intervient un certain Stefan Boltzmann, qui nous a tout expliqué au sujet du rayonnement infrarouge des corps chauffés.

Bon sang mais c’est bien sûr, l’énergie du Soleil absorbée chauffe la Terre, qui à son tour rayonne vers l’espace, mais dans l’infrarouge.

La température s’établit à une valeur telle que l’énergie totale renvoyée vers l’espace est exactement égale à l’énergie reçue, ce qui garantit une température constante, c’est l’équilibre thermique.

Notre ami de Sirius nous a alors félicités pour notre chance d’avoir trouvé un « Deus ex machina » assez aimable pour faire en sorte que cet équilibre se soit établi à +15°C.

Cinq degrés de plus ou cinq degrés de moins et c’en était fait de nous !

Tout au moins sous la forme actuelle.

Quand on connaît le nombre et la variété des processus qui interfèrent pour fixer la température d’équilibre, on ne peut qu’être convaincus de l’intervention d’un mécanicien de l’espace assez habile pour ajuster tout cela pour notre plus grand confort.

Et en plus, cela dure depuis des millions d’années, certes avec quelques soubresauts, mais sans incidence fatale pour les espèces vivantes sinon la disparition de certaines d’entre elles, vite remplacées par d’autres plus dégourdies.

Pour faire court, nous dirons que ce délicat équilibre tient à deux caractéristiques thermodynamiques qui sont l’albédo et l’émissivité.

L’albédo caractérise la portion du flux solaire qui est renvoyée vers l’espace par réflexion.

Cette réflexion se produit sur les nuages, sur l’eau, sur la neige et la glace, sur la terre, avec bien sûr des valeurs qui dépendent directement d’un grand nombre de facteurs.

L’émissivité caractérise la faculté d’un corps d’émettre plus ou moins de puissance rayonnante pour une température donnée.

Stefan Boltzmann a donné la formule, remarquable par sa simplicité, qui lie la puissance rayonnée et la température du corps:

P = E . S . T exp(4)

P est la puissance rayonnée.

E est l’émissivité du corps considéré.

S est la constante de Stefan Boltzmann: 5,67 . 10 exp(-8)

T est la température en Kelvin ( T en °C + 273,15)

Une simple calculette permet de constater les conséquences d’une petite variation d’un des deux facteurs sur la température à partir de la petite formule ci-dessus.

C’est assez édifiant.

Les climatologues de Sirius sont cependant perplexes. Ils connaissent bien sûr Stefan Boltzmann et sa formule magique; ils l’ont donc mise à l’épreuve pour calculer la température terrestre de surface.

Il leur a suffit de mesurer l’albédo, qui est de 0,3, et d’évaluer l’émissivité, proche de 0,95 . Le résultat les a contrariés: - 19°C, alors que nos thermomètres indiquent une moyenne de + 15°C.

J’ai alors rappelé à mon correspondant lointain qu’il existe des procédés, appelés traitements de surface, qui permettent de modifier l’émissivité d’un corps.

Par exemple, l’Aluminium poli présente une émissivité de 0,04 alors que s’il est anodisé elle est de 0,8.

Pour ce qui concerne la Terre, le procédé en question a consisté à la recouvrir d’une couche gazeuse appelée Atmosphère.

Ce traitement de surface un peu particulier a permis de modifier son émissivité apparente, qui est ainsi passée de 0,9 à 0,6.

La petite formule magique vérifie que la température est alors montée à +15°C, confirmant s’il en était besoin le rôle essentiel de l’émissivité.

Ce tour de passe-passe est rendu possible par un réglage précis de la composition de la couche atmosphérique, afin de lui donner les caractéristiques recherchées ( On parlerait

aujourd’hui de matériaux intelligents).

Le dosage porte sur l’Oxygène, la vapeur d’eau, le dioxyde de Carbone, le Méthane, et quelques autres, par l’intermédiaire de deux mécanismes principaux qui sont l’effet de serre, et la boucle évaporation-précipitations, rendue possible par la présence d’eau.

L’eau joue en effet un rôle majeur dans ce processus de régulation, par le passage permanent entre les trois états solide-liquide-gazeux qui met en jeu la chaleur latente.

On a pu constaté que ce procédé de régulation fonctionne au moins depuis 400 000 ans, avec une précision de +/- 1,8% , ce qui est fort honorable pour un servomécanisme soumis à de grandes perturbations cosmiques.

Le Deus ex machina est vraiment très habile….

Albédo et Emissivité sont donc les deux leviers qui règlent la valeur de la température de notre environnement.

Mais qui manœuvre ces leviers, et comment ?

Tout ce qui compose notre environnement influence l’un ou l’autre de ces deux leviers, voire même les deux à la fois:

- La composition de l’atmosphère et son volume.

- L’importance des couches nuageuses et les types de nuages.

- La pollution atmosphérique, les aérosols.

- Les courants marins.

- La composition des couches supérieures des océans.

- La faune maritime.

- La couverture neigeuse.

- La couverture glaciaire.

- La couverture forestière.

- Les émissions d’aérosols.

- la nature des procédés agricoles.

- Les émissions volcaniques.

- Les émissions de CO2 anthropiques.

- L’urbanisation.

- La chaleur de combustion des fossiles.

- Les rayons cosmiques.

- Etc, etc…

Le rôle des climatologues est d’analyser et de quantifier l’influence des différents facteurs sur le positionnement des deux leviers de commande, et surtout de faire la chasse aux éléments susceptibles de perturber l’équilibre délicat qui permet notre existence.

Le grand nombre des facteurs, leurs variabilités régionales et saisonnières ainsi que leurs interactions rend nécessaire l’utilisation de modèles informatiques pour tâcher de déterminer les grandes tendances.

Les mécanismes ne sont pas encore tous bien connus ni même tous identifiés. Une certaine modestie est donc nécessaire pour l’interprétation des résultats des modèles.

Ce délicat mécanisme a donc fonctionné convenablement depuis des temps immémoriaux.

Les choses ont commencé à se gâter à partir du moment où les Hommes ont acquis les moyens de tripoter les leviers de réglage que sont l’albédo et l’émissivité, sans vraiment en connaître le mode d’emploi:

Emissions inconsidérées de gaz à effet de serre, d’aérosols, de Méthane, de nombreux composés organiques volatils, modifications sensibles de l’environnement émissif-réflectif par la déforestation, la désertification, l’urbanisation envahissante, la destruction des zones humides, la pollution des océans, etc, toutes actions qui sont autant de manœuvres irresponsables des deux leviers qui contrôlent notre environnement.

Le CO2 n’est qu’un des agents perturbateurs de notre équilibre, mais il est loin d’être le seul, et peut-être n’est-il pas le plus important.

Mais ceci est une autre histoire…

Repost 0
24 novembre 2013 7 24 /11 /novembre /2013 16:20

La transition énergétique: une obligation de moyens.

25 Novembre 2013

Malgré une apparente atonie, les travaux préparatoires à la transition énergétique suivent leur cours.

Bien sûr le devant de la scène est occupé par l’éolien et le nucléaire, qui sont les acteurs médiatiques principaux.

Mais, dans l’ombre, les soutiers de l’énergie travaillent en silence pour préparer le terrain à l’arrivée des troupes renouvelables.

Parmi les travaux de terrassement indispensables à la mise en œuvre des outils de production d’énergie verte il y a le « Smart Grid ».

Aujourd’hui notre électricité est produite à 75% par le nucléaire, le reste étant fourni par l’hydraulique, quelques centrales thermiques et un peu de renouvelables.

Le principe étant d’avoir à disposition permanente les moyens de satisfaire la demande instantanée quelle qu’elle soit, en important du courant éventuellement en cas de dépassement des possibilités internes.

Ce système est un « pousse au crime » qui nous a conduit à tirer jusqu’à 100 GW certains jours fastes de grand froid, alors que la puissance moyenne ne dépasse pas 45 GW.

Cette gabegie ne peut plus durer.

Dans une perspective d’enchérissement de l’énergie il est devenu indispensable de gérer les utilisations qui en sont faites, à la fois selon les types d’usages et selon les modalités d’emploi.

D’autre part, et pendant encore plusieurs décennies, le panorama énergétique électrique verra cohabiter les moyens de production classiques déjà rappelés et les moyens nouveaux caractérisés par une grande diversité technologique ( Petit éolien, éolien terrestre, éolien offshore, solaire photovoltaïque, solaire thermique, pompes à chaleur, géothermie profonde, méthanisation de la biomasse, etc…) avec les problème nouveaux de l’intermittence et du stockage à prendre en compte.

Enfin il faudra aussi tenir compte de la multiplication des petits producteurs qui seront tantôt vendeurs, et tantôt acheteurs d’énergie électrique.

Pour gérer un système aussi complexe il est nécessaire de faire appel à un réseau interactif qui permette à la fois de recueillir les données d’utilisation et de négocier en temps réel l’établissement de sessions avec chaque utilisateur.

C’est le but du « Smart Grid » ( Réseau Intelligent) dont la brique de base est le compteur Linky, déjà abondamment décrit et autant décrié.

Dans le résidentiel il y a 35 Millions de logements à équiper. Les essais de validation phase I sont terminés, la phase II va être mise en œuvre et concerne 1 Million de compteur d’ici 2016.

Tous les logements doivent être équipés d’ici 2020.

Rappelons qu’il ne s’agit pas d’une fantaisie de ERDF pour faire du neuf avec du vieux, il s’agit tout bonnement de permettre la transition énergétique. C’est une condition « sine qua non », et ce n’est pas la seule.

L’investissement est évidemment à la mesure de la tâche.

A raison de 150 euros par logement ( fourniture et pose ) on dépasse les cinq Milliards.

Qui seront évidemment payés par l’usager et/ou le contribuable, qui sont généralement la même personne.

Chaque usager sera donc ponctionné de la somme nécessaire, éventuellement étalée sur plusieurs années.

Ponction qui devra être renouvelée autant de fois que nécessaire pour financer divers dispositifs tels que :

- Parcs éoliens offshore ( à 3 Millions d’euros le MW installé).

- Parcs solaires.

- Installations de stockage d’électricité.

- Installations de méthanisation.

- Mise à niveau du parc nucléaire vieillissant .

- Construction de quelques EPR

- Etc…

Le financement étant en général réalisé grâce au rachat de la production à un tarif de complaisance à partir d’une caisse remplie par la CSPE.

Le paragraphe « taxes et contributions » en bas de la facture ne tardera pas à devenir l’objet de toute notre attention.

« Quo non ascendet ? »

Repost 0
23 novembre 2013 6 23 /11 /novembre /2013 16:08

Le climat terrestre, une stabilité problématique.

23 Novembre 2013

La survie de certaines espèces exige un biotope bien précis.

A l’opposé, les espèces qui durent sont celles qui ont développé une grande faculté d’adaptation aux variations de l’environnement.

L’espèce Humaine était de celles-là, tout au moins jusqu’à la double explosion de la démographie d’une part, et de la technologie d’autre part.

La course au progrès nous a conduit à des modes de vie fondés sur une sophistication technique qui rend nos sociétés extrêmement vulnérables aux changement du milieu.

Toute perspective de changement climatique est devenue une menace ultime susceptible de remettre en question la survie de groupes humains importants.

La variation de la température moyenne de l’Atmosphère cristallise nos craintes de voir une telle menace se réaliser.

Mais, quelle est donc la valeur « normale » de la température de l’Atmosphère ?

La réponse du physicien est simple:

La température moyenne de l’Atmosphère à une époque donnée est celle qui correspond à l’équilibre thermodynamique entre l’énergie reçue du rayonnement solaire et l’énergie renvoyée dans l’espace par le globe terrestre. Lorsque les deux flux sont égaux la température est équilibrée.

Oui mais, équilibrée autour de quelle valeur ?

Notre physicien complète sa réponse:

Tout dépend du flux d’énergie solaire, et de l’albédo de la planète à l’époque en question.

Ces éléments, et d’autres non encore bien identifiés comme l’environnement cosmologique, changent naturellement au cours du temps. Il en résulte que l’équilibre thermodynamique est en recherche constante de la bonne valeur, ce qui se traduit par une alternance de périodes chaudes et de périodes glaciaires.

Le graphique N°1 est un relevé des température du paléoclimat terrestre déduites de l’analyse des carottes glaciaires de Vostok, qui remontent jusqu’à - 400 000 ans.

Le zéro correspond à la moyenne de 1950.

Ce graphique nous apprend beaucoup sur le climat de notre planète.

En premier lieu que la température de l’Atmosphère n’est pas constante et que les variations constatées sont naturelles.

En second lieu, que les fluctuations obéissent à une fonction périodique qui révèle l’influence de plusieurs phénomènes astronomiques simultanés de fréquences différentes.

Ensuite que les écarts globaux constatés sont contenus dans une fourchette de 11 °C, soit +/- 1,8% de la température thermodynamique moyenne qui est de 300 K, et ceci depuis au moins 400 000 ans. Ce qui est la preuve d’une régulation long terme très acceptable compte tenu des aléas cosmiques de la vie d’une planète associée à une étoile qui a elle-même sa propre vie et ses propres pulsations.

Remarquons que ces écarts de température n’ont jamais empêché la vie de se développer ici-bas, les températures indiquées n’étant que des valeurs moyennes, comme aujourd’hui. La valeur moyenne actuelle de +15°C s’accompagne de variations régionales et saisonnières avec des minimas de - 50°C et des maximas de +50°C .

Les espèces vivantes migrent pour rechercher l’environnement le plus favorable, à condition qu’elles en aient le loisir.

Eventuellement des espèces disparaissent au profit d’autres espèces mieux adaptées.

(Certains esprits chagrins prédisent que ce funeste destin pourrait bien être le nôtre).

Enfin, le graphique nous enseigne que la période actuelle correspond à la fin d’un pic post glaciaire d’amplitude relativement modérée ( +2°C au lieu de +3°C).

L’interprétation classique suggère une structure répétitive avec une forte probabilité d’approche d’une période glaciaire.

En effet la durée moyenne des trois périodes interglaciaires précédentes est de 16 000 ans ( limites prises à - 4°C), alors que la période actuelle dure déjà depuis 15000 ans.

N’importe quel expérimentateur familier de la lecture des graphiques conclurait à l’imminence d’une chute dramatique de la température.

Mais l’Humanité en général se soucie assez peu de ce qui est susceptible d’arriver dans mille ou deux mille ans.

Nos préoccupations s’étendent rarement au-delà du prochain siècle, et parfois beaucoup moins pour l’homo politicus.

Qui a dit « De mémoire de rose on n’a jamais vu mourir un jardinier… » ?

Voyons donc ce qu’il en est plus proche de nous, à l’époque dite historique.

Le graphique N°2 donne la courbe de température pour la période AD (Anno Domini).

Et là miracle ! La température est quasiment stable pour une durée qui pour nous est immense, bien que deux millénaires ne soient qu’un éclair dans les temps géologiques.

Comme quoi il suffit de choisir la bonne échelle pour trouver ce que l’on cherche.

Sur cette très courte période (un flash en temps géologique) les fluctuations sont réduites à une fourchette de 1,1 °C, soit +/- 0,2% de la température thermodynamique moyenne.

C’est un équilibre thermique quasi parfait, pour un système comportant de très nombreux paramètres qui de plus interagissent, avec de nombreuses boucles de rétroaction, certaines positives et d’autres négatives.

On peut considérer que de telles fluctuations peuvent être assimilées à un bruit de fond de - 50 dB , valeur très performante pour un système exposés à tous les aléas cosmiques.

Et pourtant on y signale quand même un optimum médiéval et un petit âge glaciaire, séparés l’un de l’autre seulement par un degré de température.

Déjà à cette époque les sociétés humaines étaient donc sensibles à de tels écarts minimes de température.

Mais sensible ne signifie pas vulnérable.

La « découverte » de l’Amérique a eu lieu au cours du petit âge glaciaire, tout est donc relatif.

L’épaisseur du dernier rapport du GIEC est un témoignage éloquent de la complexité extrême du système climatique.

Cette belle stabilité sur 2 000 ans autour d’une moyenne de +15°C a encouragé les savants à en faire la norme, au moins pour les deux prochains siècles.

(Remarquons que cette attitude est semblable à celle du joueur de casino qui, ayant gagné sur une série de coups, se persuade que le coup d’après sera lui aussi gagnant !).

C’est égal, tout écart significatif autour de + 15 °C doit désormais entraîner la recherche d’un coupable et la mise en œuvre de mesures correctrices.

Une docte assemblée a montré que l’Homme est capable de modifier la température de l’Atmosphère par ses émissions de gaz à effet de serre.

L’affaire du XXIè siècle est désormais le contrôle du climat, ni plus ni moins, grâce à une limitation drastique de la croissance du taux de CO2 atmosphérique.

Une limite « acceptable » a même été fixée, l’augmentation ne doit pas dépasser 2 °C sur le siècle par rapport à la valeur enregistrée en 1950.

Il s’agit de l’augmentation de température de cause anthropique, qui viendrait s’ajouter à ou se retrancher de la variation naturelle.

( Ce qui nous fait une belle jambe puisque la composante naturelle est précisément inconnue).

La lecture des climats du passé est certes instructive, mais elle est de peu d’utilité pour nous aider à produite des prévisions.

A l’échelle géologique on peut dire à peu près ce qu’il va se passer à +/- quelques millénaires près, mais à l’échelle humaine du siècle il vaut mieux faire appel à madame Irma.

Ou bien faire tourner un modèle informatique sur ordinateur, ce qui hélas peut revenir au même si l’on n’entre pas les bons paramètres, avec leurs valeurs correctes et si le software ne reproduit pas exactement le comportement réel de tout ce petit monde.

N’oublions pas que c’est en travaillant au MIT en 1960 sur un programme informatique de prévision météo tournant sur un ordinateur Royal McBee que Edward Lorenz découvrit la théorie du Chaos.

N’y voyons surtout aucun présage…

Le climat terrestre, une stabilité problématique.
Le climat terrestre, une stabilité problématique.
Repost 0
21 novembre 2013 4 21 /11 /novembre /2013 19:13

Controverse autour d’un non réchauffement.

23 Novembre 2013

Il y a du bruit dans le Landerneau de la climatologie.

Les relevés de température atmosphérique moyenne de la période 1998-2010 témoignent d’une évidente stabilité qu’il est difficile de glisser sous le tapis.

Après lissage des fluctuations, la valeur moyenne trouvée se maintient dans une fourchette inférieure à 0,1 °C, avec même une tendance à la décroissance selon certaines sources, notamment le Hadcrut.

Les modèles informatiques du GIEC avaient annoncé un réchauffement de 0,2 °C par décennie, mais Dame Nature en a apparemment décidé autrement.

Bien sûr les mauvaises langues vont bon train, certains font des gorges chaudes au sujet d’un réchauffement à tendance glaciaire, sur l’air de « On vous l’avait bien dit ».

Il y a certes une explication officielle. Les fluctuations de température observées habituellement sont le résultat de divers forçages radiatifs naturels et anthropiques, qui interviennent dans des boucles de rétroaction positives ou négatives. A un moment donné le résultat de toutes ces influences peut être positif ou négatif, conduisant à un accroissement ou une diminution de la température.

Tout cela est parfaitement naturel et conforme à ce qu’on peut attendre d’un système thermodynamique aussi complexe que celui qui régit le climat.

Les climatologues se sont donné pour objectif de prévoir l’évolution du climat à partir des connaissances passées et actuelles du système atmosphérique, incluant l’ensemble des phénomènes susceptibles d’influencer les éléments dans un sens ou dans l’autre.

Il s’agit non seulement de prévoir les variations du climat mais aussi, et surtout, les conséquences de ces variations sur l’environnement des espèces vivantes, et sur les espèces elles-mêmes.

Le paramètre choisi pour témoigner de l’évolution climatique est la température moyenne de la basse atmosphère. Ce choix n’est pas forcément le meilleur, mais il a le mérite d’être simple, clair, et de correspondre à une grandeur familière et médiatisée dans les bulletins météo.

( Les phénomènes climatiques extrêmes comme les Ouragans ou les tornades, sont en relation avec la composante cinétique macroscopique de l’énergie interne de l’Atmosphère, qui n’est qu’une faible part de l’énergie interne totale. Une augmentation significative de cette énergie cinétique auraient de graves conséquences climatiques sans forcément influer notablement sur la température, qui resterait relativement stable. D’où l’intérêt de ne pas s'intéresser seulement à la température).

Les indications fournies par les modèles informatiques sont des tendances générales sur des durées significatives de plusieurs décennies. Elles n’excluent pas la possibilité d’écarts dans un sens ou dans l’autre sur certaines périodes. La précision des modèles informatiques et les valeurs des paramètres y entrés ne sont pas suffisantes pour pouvoir garantir une image fidèle de la réalité à tout moments.

Lorsque la durée de ces « déviances » n’excède pas quelques années, il n’y a pas lieu de s’inquiéter, le modèle n’est pas mis en cause.

Par contre lorsque l’écart persiste pendant plus de dix ans, il y a lieu de se poser des questions. On doit rechercher une cause possible de divergence des résultats en analysant la vulnérabilité des hypothèses initiales, y compris le choix de la température comme critère d’évaluation du changement climatique. Ce travail contribue à renforcer la robustesse du modèle.

Bien sûr si l’écart persiste plusieurs décennies, c’est l’ensemble du modèle qui est remis en question.

Nous n’en sommes pas encore là…

Notre propos n’est pas de prendre parti dans cette controverse byzantine, mais d’attirer l’attention sur les ordres de grandeur du sujet de la querelle.

Pour affirmer avec quelque vraisemblance que la température de l’Atmosphère a varié de par exemple 0,2 °C , il faut être capable de mesurer la dite température avec une précision absolue de l’ordre de +/-02 °C. C’est le critère que l’on retient habituellement dans un labo de mesures, l’erreur systématique doit être inférieure au dixième de la grandeur mesurée.

L’Atmosphère est un système thermodynamique dont la température est référencée non pas à celle de la glace fondante ( Echelle Celsius), mais au zéro absolu, qui est égal à - 273,15 °C.

Une variation de 0,2 °C de la température atmosphérique correspond donc à une variation relative de 0,2 / 300 puisque la vraie température moyenne est égale à 300 K. ( en Kelvin).

( La Loi de Stefan-Boltzmann ne connaît pas les degrés Celsius, elle ne fonctionne qu’avec les températures absolues. Or c’est elle qui définit les températures des corps rayonnants, dont notre Planète).

Ce qui nous donne une précision de 6,6 dix millièmes ( 6,6/10 000).

Nous sommes donc en train de « chipoter » sur des dix millièmes de degrés de température absolue, alors que personne ne peut valablement mesurer de tels écarts, surtout s’agissant d’une valeur moyenne, et dans un système thermodynamique complexe en fluctuation permanente.

Il est donc peu pertinent de porter la querelle sur des poils de cheveux coupés en 6,6, il est probablement temps de rechercher d’autres manifestations plus évidentes de la menace climatique et surtout tâcher de s’en protéger.

Par exemple interdire les constructions en zones inondables, améliorer les protections des installations portuaires, réduire nos consommations énergétiques, préparer l’après pétrole, revoir les normes de construction pour résister aux tornades, suivre de près les changements de l’environnement pour adapter les cultures vivrières, contrôler l’exploitation des forêts, mesurer les évolutions des espèces marines, connaître les niveaux des océans, l’acidité des eaux, le régime des glaces, etc…

Toutes choses qui peuvent donner des indications sur le changement climatique beaucoup mieux que la recherche d’un huitième de poil de degré de variation d’une température moyenne insaisissable.

Songeons un instant que l’on ne connaît pas encore exactement la valeur du flux géothermique, alors qu’il intervient dans le bilan radiatif duquel dépend la température atmosphérique.

Rappelons aussi que la vapeur d’eau est le principal acteur de l’effet de serre, et que le rôle exact des nuages est encore controversé dans certains aspects non négligeables.

Et enfin gardons à l’esprit que le réchauffement mesuré ne cadre pas avec les calculs. Une part importante de la chaleur semble avoir disparu.

Et personne ne sait où…

Repost 0
13 novembre 2013 3 13 /11 /novembre /2013 12:04

Notre avenir énergétique, qui va le décider ?

13 Novembre 2013

Désormais plus personne ne remet en question la nécessité de réfléchir à notre avenir énergétique.

Ce nouvel état d’esprit s’est construit autour de plusieurs raisons:

Des raisons essentielles, comme la perspective d’épuisement et donc d’enchérissement des ressources fossiles, et/ou l’indispensable lutte contre le réchauffement climatique dû aux émissions anthropiques de CO2.

Des raisons contingentes, comme la recherche de l’indépendance énergétique, et/ou d’une relance économique s’appuyant sur des activités nouvelles.

Il existe un consensus sur les caractéristiques qui seront exigées des futures sources d’énergie:

Elles devront être renouvelables, décarbonées ou à carbone recyclable, et non polluantes.

Si les mérites de l’Hydraulique, du Solaire, de l’Eolien, de la Géothermie et de la Biomasse ne sont contestés par personne, il existe par contre une violente polémique autour de l’électronucléaire.

La controverse est alimentée par une double ambigüité:

Les réacteurs qui équipent les installations actuelles utilisent un combustible non renouvelable, donc non éligible au futur mix, tandis que les réacteurs de quatrième génération seront censés utiliser un combustible à régénération, donc conforme à l’esprit des critères de renouvelabilité, mais sont accusés de présenter des risques accrus de contamination.

La seconde ambiguïté est la menace de risques majeurs de santé publique à la fois en cas d’accident de type Fukushima ou Tchernobyl, et systématiquement au cours des processus de traitement et de stockage des déchets.

Aucune analyse scientifique ou technologique n’est en mesure de trancher le débat, les uns ont raison et les autres n’ont pas tort.

L’appréciation du risque acceptable n’est pas une affaire d’équation, mais de ressenti de la part de la population, de confiance dans les hommes chargés de concevoir et gérer les installations.

Il n’aura échappé à personne qu’aujourd’hui cette confiance est très entamée, et pas seulement dans ce domaine.

La notion de principe de précaution, très en vogue actuellement dans la population, condamne à priori le recours au nucléaire.

Mais le principe de réalité, très en vogue également mais chez les décideurs, impose au Gouvernement d’y réfléchir à deux fois avant de jeter le bébé avec l’eau du bain.

Reste à savoir quel principe l’emportera sur l’autre…

Dans un avenir dépourvu de sources fossiles, il serait possible de se passer du nucléaire.

A condition toutefois d’accepter plusieurs dizaines de milliers de grosses éoliennes au large de nos côtes ainsi que de grandes étendues de capteurs solaires, et de supporter les contraintes de l’intermittence de ces sources dépendantes de la météo.

En clair il faudrait user de l’énergie avec parcimonie et en acceptant les contraintes de disponibilité aléatoire, impliquant même de recourir à une certaine autosuffisance.

Tout cela est très possible.

Rappelons que le fameux compteur EDF Linky tant décrié est prévu pour apporter l’interactivité nécessaire à la gestion du réseau électrique.

Mais, même en cas de choix volontariste de cette stratégie d’énergie renouvelable, le développement de ces nouveaux moyens de production ne peut s’accomplir que dans la durée, typiquement plusieurs décennies, ce qui nous porte à l’échéance de 2040-2050.

La stratégie de transition doit donc prendre en compte une période de plusieurs décennies au cours de laquelle devront cohabiter les énergies nouvelles en phase de croissance et les énergies anciennes encore indispensables pour répondre à la demande.

Durant cette cohabitation une décision prématurée d’arrêt du nucléaire entraînerait l’obligation d’augmenter la part des fossiles, ce qui est imaginable mais pas bon pour les importations ni pour les émissions de CO2.

Une solution plus « soft » consisterait à remplacer progressivement le nucléaire par des renouvelables au fur et à mesure de leur disponibilité.

La troisième solution, celle des pro-nucléaire, repose au contraire sur le remplacement du parc nucléaire existant par des réacteurs EPR qui prendraient en partie le relais des fossiles, et permettraient d’attendre l’arrivée des renouvelables dans une certaine sérénité énergétique.

Toute la stratégie de transition énergétique repose donc sur la décision de conserver ou non une filière électronucléaire, tout le reste est contingent.

Ce choix a été malencontreusement instrumenté en monnaie d’échange au cours de la dernière campagne présidentielle, et maintenu depuis dans ce rôle pour conserver le soutien à la politique générale du Gouvernement.

Le choix de la stratégie nucléaire est donc biaisé par cette maladresse, qui transforme une démarche d’avenir en acte politicien de court terme.

Les grandes décisions énergétiques risquent donc d’être remises en question au gré des alternances électorales.

A moins qu’elles ne soient tout simplement glissées sous le tapis pour éviter d’en faire un enjeu électoral majeur.

Ce qui laisse le champ libre aux grands groupes industriels qui voient ainsi leur pouvoir augmenté et en profitent pour renforcer leurs positions.

C’est ainsi que le Gouvernement a reporté au-delà des élections municipales de 2014 ses décisions sur la transition énergétique, Alors que EDF Energy n’a pas attendu cette échéance pour signer un contrat avec l’Angleterre sur la vente de réacteurs EPR.

Il est évident que le pouvoir industriel n’est pas où il devrait être en matière de stratégie Nationale…

Repost 0
8 novembre 2013 5 08 /11 /novembre /2013 14:59

Eolien ou Nucléaire, lequel est le moins cher ?

8 Novembre 2013

L’Eolien et le Nucléaire, modernes symboles de l’éternel combat du Bien contre le Mal, sont chargés de défendre les couleurs des deux parties en présence dans le tournoi qui doit désigner le vainqueur de la transition énergétique.

Dans cet affrontement, qui dure depuis plus de vingt ans, chaque camp construit son dossier sur des arguments que la partie adverse se fait un devoir de démonter à l’aide de contre-arguments de bonne ou de mauvaise foi.

C’est ainsi que la querelle récurrente au sujet des coûts respectifs de l’un ou l’autre système n’est sûrement pas prête de s’éteindre, eu égard au caractère confidentiel des informations relatives aux données financières.

Il n’est cependant pas interdit de faire des évaluations à partir des deux ou trois éléments qui traînent ici et là dans la presse.

Il suffira de garder à l’esprit la fragilité de notre construction bâtie sur un sable médiatique pas toujours de bon aloi.

Quel que soit le domaine d’activité, un coût de production est associé à chacune des étapes du processus qui conduit à l’obtention d’un bien ou d’un service commercialisable.

L’énoncé d’un coût doit donc être accompagné de la description des étapes concernées.

En clair, il faut dire de quoi l’on parle.

Pour le Nucléaire nous partirons du prix d’un réacteur livré clés en mains par le fabricant au producteur d’électricité qui va l’exploiter.

De même pour l’Eolien, nous considérons le prix de l’installation prête à fonctionner et à être exploitée.

Le prix d’un réacteur EPR peut être estimé à 9,5 Milliards d’euros, d’après le contrat qui vient d’être signé entre le Gouvernement Britannique et EDF Energy.

(Le coût du démonstrateur de Flamanville, évalué initialement à 3,4 Milliards, a été « réactualisé » en Juin 2012 à 8,5 Milliards. La valeur retenue de 9,5 Milliards pour le contrat commercial signé en 2013 est une bonne indication du coût de l’objet, sans pour autant être une valeur définitive).

Un tel réacteur délivrera une puissance de 1 650 MWe, l’investissement « machine » est donc de 5,75 Millions d’euros environ par MW.

( Nous ne tenons pas compte ici des 3 000 MW de chaleur « perdue » dont une partie pourrait être récupérée par cogénération).

Le coefficient de disponibilité est de 85%, l’énergie fournie annuellement atteint donc environ 12 TWh.

En comparaison, un parc éolien fournissant annuellement la même énergie devrait avoir une puissance installée de 3 500 MW , le facteur de charge étant de 40% en offshore.

Le coût d’un parc éolien offshore dépend beaucoup des difficultés locales, de la profondeur, de l’accès, de la technologie, etc… Les valeurs citées le plus souvent sont de 3 Millions d’euros par MW installé en offshore.

Un tel parc réunirait 580 machines de 6 MW ( les plus grosses ).

Le coût de l’investissement machines serait alors de 10,5 Milliards d’euros, soit un coût peu différent de celui d’un EPR (nous n’en sommes plus à un Milliard près !).

Cette évaluation sommaire ne concerne que les coûts « machines ».

A ce coût de base il faut bien sûr ajouter les coûts annexes qui permettent à la machine de fonctionner et de distribuer sa production..

L’installation nucléaire a besoin de combustible, qui est de l’Uranium.

Ce combustible ne peut être utilisé comme du charbon ou du fuel, il doit être traité préalablement, enrichi, conditionné et encapsulé dans des « crayons » qui seront introduits dans le cœur du réacteur.

La préparation de ces crayons constitue une activité industrielle à part entière, dont le coût n’est pas inclus dans le coût machine. Il faut donc l’ajouter. Il est évidemment inconnu, du moins du public.

Sans oublier le coût d’accès au minerai d’Uranium, qui nécessite certaines concessions géopolitiques au coût difficilement chiffrable, le produit devant être entièrement importé de régions à la stabilité politique douteuse.

Lorsque le combustible est usé il entre dans un processus de traitement des déchets et finalement de stockage dont le coût, très élevé, est aujourd’hui inconnu, mais à priori très élevé.

Pendant la vie d’une installation nucléaire il faut engager des frais d’exploitation considérables nécessitant un personnel nombreux et hautement spécialisé.

Lorsque l’installation arrive en fin de vie elle doit être démantelée, ce qui représente un coût supplémentaire inconnu également mais dont les estimations sont effrayantes.

Il faudrait encore ajouter le coût de gestion d’éventuels accidents inhérents à cette technologie. Coût évidemment non chiffrable.

Tout ces coûts « annexes » du nucléaire dépassent probablement de loin le coût machines, sans qu’il soit possible aujourd’hui de citer des chiffres fiables.

Ces coûts n’existent pas pour l’éolien, qui utilise un combustible gratuit et ne produit aucun déchet.

De plus le démantèlement d’une machine est ici une opération courante dont le coût est sans commune mesure avec celui d’une centrale nucléaire.

Par contre l’éolien est intermittent. Il ne peut donc rivaliser avec une installation nucléaire que s’il est équipé d’un moyen de stockage d’électricité, dont le coût doit être inclus dans l’évaluation globale.

La difficulté vient de l’évaluation de la capacité nécessaire au stockage.

Faut-il stocker pour un jour, quelques jours, un mois, quelques mois ?

Il existe des exemples de périodes sans vent ou de vent trop faible, qui ont duré plusieurs mois.

Cette éventualité ne peut évidemment pas être écartée dans une étude sérieuse, elle impose de disposer, en plus de moyens de stockage « raisonnables », de moyens de production de relève indépendants des conditions météo.

Ces moyens de production de secours ajoutés aux moyens de stockage ont un coût considérable difficilement évaluable aujourd’hui faute d’avoir été sérieusement pris en compte.

Aujourd’hui ces moyens de compensation d’intermittence font appel aux énergies fossiles, mais demain il faudra trouver autre chose qui pourrait être le pompage turbinage ou le stockage chimique, avec un coût considérable eu égard à l’importance de la quantité à stocker.

Il est vraisemblable que les conditions mêmes de l’exploitation de l’énergie devront être reconsidérées. Des expériences sont en cours pour d’une part coordonner les périodes de consommation avec les périodes de disponibilité de l’énergie, et d’autre part distribuer les capacités de stockage en petites unités individuelles ou de petites collectivités, incluant les batteries des véhicules électriques.

Cette structure distribuée ne permet pas de chiffrer le coût de ce « smart grid » rendu nécessaire par l’usage d’énergies intermittentes.

Les quelques éléments dont on dispose aujourd’hui ne permettent donc pas de départager le Nucléaire et l’Eolien en matière de coût.

Les investissements machines sont très comparables, mais les installations annexes et les Coûts d’exploitation peuvent faire la différence, sans qu’il soit possible aujourd’hui d’être plus précis.

Inutile donc de s’écharper au sujet du coût à terme de l’un ou de l’autre système, personne ne connaît la réponse, pas même les spécialistes de la spécialité.

Repost 0
7 novembre 2013 4 07 /11 /novembre /2013 15:22

Electricité verte, mais comment font les allemands ?

7 Novembre 2013

Il n’y a qu’à faire comme les allemands !

Cette exhortation récurrente, solution à tous nos problèmes, cette chaude recommandation, serait-elle vraiment la panacée ?

Quelle est donc cette recette miracle qu’il « suffirait » de reproduire pour s’acheter une conduite exemplaire et trancher proprement le nœud gordien d’une transition énergétique fort embrouillée ?

Le mieux est d’aller voir dans sa cuisine comment le chef allemand ( la cheftaine en l’occurrence) prépare ses sauces.

Depuis 2 000 la consommation annuelle d’électricité en Allemagne s’établit autour de 590 TWh, soit en moyenne 7 300 KWh pour chacun des 81 Millions d’habitants.

La production moyenne est d’environ 620 TWh, l’excédent étant exporté.

( Source: Perspective Monde/Université de Sherbrooke/Banque mondiale).

La France pour sa part consomme annuellement 480 TWh d’électricité pour 66 Millions d’habitants, soit 7 270 KWh par habitant, c’est-à-dire la même chose, ce qui n’a rien d’étonnant eu égard à la grande similarité des modes de vie.

La différence ne se situe donc pas au niveau de nos appétits énergétiques, qui se révèlent très similaires à quelques KWh près.

Qu’en est-il alors du mix électrique ?

L’électricité allemande est produite à partir de sources diversifiées, dont voici une photographie instantanée:

- Charbon + Lignite: 43%

- Nucléaire: 18%

- Gaz naturel: 14%

- Huiles: 1%

- Eolien: 8%

- Biomasse: 5%

- Hydraulique: 4%

- Photovoltaïque: 3%

- PAC, Géothermie, Solaire Th. 3%

- Déchets: 1%

(Source: Ministère fédéral de l'Économie et de la Technologie (BMWI) / 2012).

l’électricité allemande est donc encore produite à 76% par les sources non renouvelables parmi lesquelles le charbon intervient pour plus de la moitié. Et le nucléaire est encore significativement présent.

Cette situation ne laisse pas de surprendre, s’agissant d’un pays qui nous est présenté dans les média comme le porte-drapeau des énergies vertes.

La France a choisi historiquement l’Electronucléaire, l’Allemagne est au Charbon, deux plots de départ très différents pour la course à l’énergie verte.

Justement, qu’en est-il de ces énergies vertes ?

L’éolien allemand, souvent présenté comme quasiment prêt à assurer la relève, ne fournit aujourd’hui « que » 8% de l’électricité et seulement 2% de l’énergie finale consommée, ce qui est peu en regard de l’extraordinaire publicité faite autour du succès de cette nouvelle source outre-Rhin.

Le parc éolien y est essentiellement terrestre, avec un facteur de charge de 18%, et une production de 48 TWh, grâce à 22 000 éoliennes pour une puissance installée totale de 31 000 MW.

Il faut souligner un taux de croissance important qui atteint 8% par an, avec un fort développement prévu sur l’offshore.

Nous insistons bien sur le terme « prévu », tant est grande la tentation de confondre les prévisions et la réalité.

Les autres renouvelables ( Biomasse, Solaire, Géothermie, PAC, Hydraulique) participent au mix électrique à hauteur de 16%, donc deux fois plus que l’éolien.

L’Hydraulique occupe curieusement une part très modeste de 4% (10% en France).

La part de toutes les renouvelables dans l’électricité allemande est donc de 24%, avec un objectif de 35% en 2020.

Nous insistons sur le fait qu’il s’agit là de la situation actuelle, très évolutive en raison précisément de la transition énergétique.

Toujours en Allemagne, la sortie du nucléaire votée en 2002, remise en cause en 2010, puis réanimée après Fukushima, s’est pour le moment traduite par l’arrêt de 8 réacteurs dont la production totale était de 38 TWh/an.

Les 9 réacteurs encore en service produisent en moyenne 96 TWh/an, ce qui représente environ 18% de la production électrique.

Ils doivent être arrêtés à l’horizon 2022, sauf revirement politique comme ce fut le cas en 2010.

Ce qu’une politique a fait, une autre peut le défaire…

Le gros point noir de la production électrique allemande est évidemment le recours massif au Charbon et au Lignite, gros émetteurs de CO2.

Si tous les réacteurs allemands sont effectivement arrêtés à l’horizon 2022, le déficit de production sera d’une centaine de TWh qui devront être relayés par les énergies renouvelables et/ou par les fossiles.

La comparaison avec la France ne fait que confirmer la nécessité de choisir entre la peste du Nucléaire et le choléra du Charbon, et cela tant que les énergies renouvelables ne seront pas prêtes à assurer la relève.

Le mix électrique français est très différent:

- Nucléaire: 75% 58 réacteurs.

- Fossiles: 10%

- Hydraulique: 10%

- Autres renouvelables: 5% ( Solaire et Eolien)

(Les parts respectives du Nucléaire et des fossiles sont inversées par rapport au mix allemand).

La part des renouvelables (15%) est inférieure à celle de l’Allemagne (24%), mais significative, surtout grâce à l’hydraulique.

Quels enseignements peut-on tirer de la comparaison France-Allemagne ?

Nous constatons qu’aujourd’hui dans les deux pays plus des trois quarts de l’électricité sont « encore » produits par des sources carbonées et/ou du Nucléaire, et que cette situation perdurera tant que les énergies nouvelles ne seront pas prêtes à prendre la relève, ce qui prendra une ou deux décennies dans le meilleur des cas.

Depuis longtemps et pour des raisons historiques les deux pays ont choisi des stratégies tellement différentes que la recherche d’une similitude quelconque paraît une gageure.

Tout au plus pourrait-on parler de complémentarité.

L’Allemagne utilise le Charbon, qui est présent sur son sol et comporte moins de risques immédiats de santé publique que le Nucléaire, mais qui émet beaucoup de CO2, donc une situation en contradiction avec les engagements européens contre le réchauffement climatique.

Il existe bien un programme de recherche sur la capture et la séquestration du Carbone, mais sans résultat concret pour le moment.

En 2011 les émissions allemandes annuelles de CO2 étaient de 8,5 tonnes par habitant.

En France elles étaient de 4,25 tonnes/hab seulement, soit la moitié.

( Source ADEME, Energie et climat- Edition 2012).

Les chiffres parlent d’eux-mêmes.

Le problème de fond de la transition énergétique demeure donc bien le choix entre le Nucléaire et les fossiles pour assurer les fournitures électriques pendant la période intermédiaire susceptible de durer jusqu’en 2050.

La France a fait le choix du Nucléaire.

C’est un choix dont la pertinence est aujourd’hui remise en question par une partie de la population.

Sa remise en cause impliquerait l’arrêt progressif des 58 réacteurs, et donc un déficit de production de 330 TWh, qu’il faudrait évidemment compenser par des installations nouvelles non nucléaires.

Il n’est évidemment pas question de recourir au Charbon!

Et il ne serait pas cohérent de remplacer l’atome par du pétrole ou du gaz en un siècle où ces produits sont considérés en déclin, où la lutte contre le CO2 est un impératif, et où la recherche de l’indépendance énergétique est un objectif majeur pour la France.

Le Nucléaire ne peut donc être remplacé que par les énergies renouvelables, sauf à renier tous nos engagements précédents.

( Nous parlons de la promesse du Président de faire de la France le pays de « l’excellence environnementale » ).

La démarche allemande ne peut pas être transposée « in extenso » en France puisque, heureusement ou malheureusement, nous n’avons ni Charbon, ni Lignite, et que notre gaz de Schiste est tabou.

Pour la France la question « Faut-il faire comme les Allemands ? » doit donc être transposée en :

« Quand les énergies renouvelables seront-elles prêtes à remplacer le Nucléaire ? »

Il nous faudra donc trouver une solution « bien de chez nous » qui passe entre autres par l’acceptation de plusieurs dizaines de milliers l’éoliennes offshore sur nos belles côtes, auxquelles viendront s’ajouter les installations de compensation de l’intermittence, les parcs solaires photovoltaïques et Hélio-thermodynamiques, les installations de méthanisation et de fabrication des biocarburants.

Le tout en QSP 500 à 1 000 TWh/an, selon les besoins du moment.

Les dépenses seront à la mesure de nos ambitions, sans oublier la ligne budgétaire correspondant au démantèlement de 58 réacteurs et au traitement des déchets.

La décence nous interdit de donner le montant indicatif de la petite note qui sera à la charge des consommateurs-contribuables.

Il faut bien vivre avec son temps…

Repost 0
5 novembre 2013 2 05 /11 /novembre /2013 03:26

Les énergies renouvelables, quel challenge ?

5 Novembre 2013,

Le public adhère à l’idée de remplacer les vieilles sources d’énergie polluantes à l’origine des bouleversements climatiques. Les énergies renouvelables sont prometteuses de tant de bienfaits que l’on peut s’étonner, s’indigner même, de la lenteur apportée à leur développement dans certains pays, et non des moindres.

L’examen dépassionné de la question montre que ce manque apparent d’enthousiasme peut être fondé sur de légitimes préoccupations sur lesquelles la sphère médiatique insiste rarement, mais que les décideurs ne peuvent ignorer et dont ils doivent tenir compte.

Les énergies renouvelables sont fréquemment associées à l’électricité.

On parle ainsi d’électricité verte et parfois, dans un raccourci abusif, on intègre l’idée que le problème de la transition énergétique sera résolu lorsque la production d’électricité sera obtenue exclusivement à partir de ces nouvelles énergies.

Cette assertion est très réductrice et cache l’ampleur de la révolution technologique qui nous attend.

En France l’électricité ne représente que 25% de l’énergie finale utilisée, et cette proportion se retrouve dans de nombreux pays.

Pour les trois quarts restant, l’énergie finale est utilisée soit sous forme de chaleur par combustion des produits fossiles (Charbon, pétrole, Gaz naturel ) et des produits renouvelables ( Gaz de méthanisation, bois énergie, biocarburants ), soit sous forme de chaleur directe ( sans combustion) issue du Solaire thermique, de la géothermie et des pompes à chaleur.

Cette énergie « non électrique » est utilisée pour les transports, l’Industrie, la Sidérurgie, le résidentiel-Tertiaire, le bâtiment, pour fournir de la force motrice ou de la chaleur haute et basse température.

La consommation annuelle d’énergie finale s’élève ainsi en France à 1 920 TWh, dont « seulement » 480 TWh d’électricité.

L’objectif de la transition énergétique est de faire en sorte que la totalité de cette énergie finale, 1 920 TWh, soit obtenue à partir de sources renouvelables (Energies de flux) non polluantes et décarbonées ou à Carbone recyclable.

Cet objectif, bien que de formulation simple, est porteur d’un certain nombre d’ambigüités et de questionnements qui sont autant de raisons de s’interroger sur la stratégie à adopter.

En voici une liste non exhaustive:

1- L’urgence de la transition énergétique.

L’urgence de la démarche de transition énergétique est motivée d’une part par la nécessité de pallier le tarissement annoncé des réserves énergétiques fossiles et Nucléaire (Energies de stock), et d’autre part par l’engagement de réduire les émissions de CO2 pour modérer le réchauffement climatique.

Un raisonnement simpliste permet d’observer que, puisque l’épuisement des réserves fossiles entraînera l’arrêt des émissions du CO2 associé, il suffit d’attendre que cet événement se produise pour voir le problème du CO2 anthropique automatiquement résolu.

Ce raccourci abrupt doit être nuancé en notant que les réserves de combustibles fossiles étant encore considérables, le taux de CO2 est susceptible d’atteindre des valeurs létales avant de commencer à descendre naturellement si l’on ne prend aucune contre-mesure.

Certains demeurent cependant convaincus que les deux piliers qui soutiennent la démarche de transition se réduisent en fait à un seul: pallier l’épuisement des sources fossiles et nucléaires et ne plus se soucier du CO2 anthropique qui disparaîtra de lui-même.

2- Le tarissement des réserves fossiles et nucléaires.

Que l’on soit ou non convaincu de l’urgence d’une transition, dans un cas comme dans l’autre se pose le problème du délai: quelle est la date approximative de l’échéance fatale ?

Les meilleurs experts sont divisés à ce sujet, et les évaluations diffèrent selon que l’on considère le Charbon, le Pétrole, le Gaz naturel, le Nucléaire, ou les Hydrocarbures de roche mère. Certaines hypothèses non orthodoxes font même état de l’existence possible de pétrole abiotique, qui ferait de la sainte huile une denrée renouvelable.

Les données crédibles sur les réserves fossiles sont logiquement détenues par les grandes compagnies et les pays producteurs. Ces données sont hautement stratégiques et demeurent donc confidentielles. Les chiffres qui circulent « à découvert » sont par nature à considérer avec précaution.

L’impossibilité de connaître exactement à la fois les réserves disponibles et l’évolution de la demande énergétique au cours du siècle à venir conduit à une grande incertitude sur la date critique, d’autant plus que la pénurie ne sera pas un phénomène brutal mais plutôt une montée progressive des difficultés d’approvisionnements, que certains pourront gérer et d’autres pas .

On considère généralement qu’aucun problème drastique d’approvisionnement n’est à craindre avant 2 050 et probablement au-delà pour le Gaz naturel, le Charbon et le Nucléaire, bien que l’on admette la perspective d’une tension sur les prix, mais sans pouvoir préciser quoi que ce soit tant les paramètres influents sont insaisissables.

Tant de « si », de « peut-être » et de « on pense que » induisent un ferment de doute quant à l’urgence de mettre en œuvre une stratégie de transition, ce que certains traduisent par « il est urgent d’attendre ».

3- Le statut incertain du Nucléaire civil.

Les preuves de la dangerosité du Nucléaire civil ne sont plus aujourd’hui mises en doute. Dans un certain nombre de pays il existe une levée de boucliers contre ce moyen de production d’électricité.

Mais d’une part ces pays ne sont pas la majorité, et d’autre part dans les pays où les opposants sont actifs, leur pouvoir d’influencer les décisions d’Etat est limité, en tout cas fortement contrebalancé par la puissance des grands groupes industriels de l’Electronucléaire.

Aucune instance internationale ne s’étant encore prononcée sur son interdiction, le nucléaire civil demeure donc une option pour la transition, mais avec un gros problème d’acceptabilité par les populations.

( L’importance de ce problème étant proportionnelle au poids politique des partis écologistes locaux ).

Par ailleurs le Nucléaire répond incontestablement au critère d’absence d’émissions de CO2, c’est donc une énergie décarbonée.

Mais, même si ce n’est pas une source fossile, il s’agit quand même d’une énergie de stock, donc non renouvelable.

Ce que ses partisans nuancent en invoquant la possibilité de démultiplier l’énergie récupérable grâce à la surgénération, ce qui en fait une source « quasi » inépuisable, tout au moins à l’échelle de temps de quelques siècles, avec la perspective d’exploitation de l’énergie de fusion, perspective entretenue par les formidables crédits alloués au projet ITER.

Tout ceci conduit à une grande incertitude sur la place à réserver à cette énergie dans le futur. En Europe même les Etats affichent des politiques contradictoires:

La situation des programmes électronucléaires en Allemagne d’une part, au Royaume-Uni et en France d’autre part, est un exemple édifiant de l’absence de concertation entre des pays distants d’à peine un jet de pierre.

Entre une décision de retrait total ( Allemagne) et un contrat de fourniture de deux réacteurs EPR au Royaume Uni ( France) , toutes les nuances sont possibles !

De plus, et jusqu’à preuve du contraire, les Gouvernements et l’Europe subventionnent des études portant sur les réacteurs nucléaires de quatrième génération. Il est légitime de penser que cet argent n’est pas dépensé à la légère et que ces soutiens valent approbation.

Les décideurs sont donc fondés à tenir compte de ces projets dans leur stratégie de transition.

En effet, on ne peut pas leur demander d’une part d’accepter les conclusions du GIEC (Organisme intergouvernemental) quant aux causes anthropiques du réchauffement climatique, et d’autre part de ne pas prendre au sérieux des futurs projets nucléaires soutenus par ces mêmes Gouvernements !

4- La notion fluctuante de source décarbonée.

Le Charbon, le Gaz et les produits pétroliers deviennent décarbonés dès lors que le CO2 émis lors de la combustion est capté et séquestré.

Or il existe des procédés de capture et séquestration du Carbone (CSC) dont certains sont en cours de validation, sans pour autant fournir de certitude quant à leur efficacité sur une grande échelle ni quant à leurs éventuelles nuisances qui pourraient en interdire l’usage.

Mais en cas de succès de l’un de ces projets, les fossiles deviendraient des sources décarbonées, donc éligibles au rang d’énergies propres, ce qui changerait complètement les dispositions de la transition, au moins leur degré d’urgence.

Ces énergies, lavées de leur CO2, n’en deviendraient pas pour autant renouvelables, mais pourraient être utilisées sans souci jusqu’à leur épuisement. Elles constitueraient alors une option pour la première phase de la transition.

C’est le cas en particulier pour le Charbon, dont les réserves mondiales sont considérables, et pour lequel d’importants projets « Charbon propre » sont en cours de mise au point.

5- L’ampleur de la menace climatique.

Les experts du GIEC peaufinent leurs prévisions d’évolution de la température atmosphérique durant ce siècle. Ces prévisions sont suffisamment vagues ( + 1,5°C à + 6,5°C) pour qu’elles justifient un temps de réflexion de la part des décideurs.

En effet, selon que la hausse sera de + 1,5°C ou de + 6,5°C, la situation sera gérable ou cataclysmique. Dans le premier cas on vit, dans le second on meurt.

Sans tomber dans le climato-scepticisme face à un risque aussi indéterminé, on comprend certaines hésitations car les mesures à prendre et les ordres d’urgence sont évidemment différents selon l’ampleur du changement de climat attendu!

6- Compétitivité des énergies renouvelables.

Pendant la période de transition, dont la durée est inconnue ( Une, deux, trois décennies, voire davantage ?), ces énergies vont se trouver en concurrence sur le marché avec les énergies fossiles non encore épuisées, et dont les promoteurs défendront les positions. Faute d’une régulation internationale, aujourd’hui inexistante, les fournisseurs de renouvelables craignent de se trouver en situation de concurrence intenable car il est désormais avéré que leurs coûts de production sont notablement supérieurs au prix de marché de l’énergie classique, notamment du Gaz naturel, et que dire du Gaz de schiste !

Ce risque modère les enthousiasmes de certains décideurs qui préfèrent attendre et voir venir, ou investir ailleurs.

7- Efficacité planétaire en question.

Les pays émergents sont les plus peuplés et les plus polluants, et le resteront encore longtemps eu égard à leur manque de ressources financières pour investir dans les renouvelables. Or ces pays vont devenir de gros consommateurs d’énergie.

L’effort réalisé par les pays développés n’aura pas l’impact planétaire souhaité s’il est « noyé » au milieu d’un océan de pollution.

L’objectif premier de la transition ne serait alors pas atteint, et des milliers de Milliards auront été dépensés sans efficience globale.

Certains ont déjà pris acte de ce problème et ont modifié le but officieux de « leur » transition:

Il s’agirait non plus de stabiliser, voire réduire, le taux de CO2 atmosphérique de la planète, mais plutôt d’une part de créer une activité industrielle nouvelle susceptible de relancer la croissance économique et de créer des emplois, et d’autre part pour certains, dont la France, d’aller vers une situation d’indépendance énergétique.

Ce qui conduit évidemment à d’autres choix et d’autres démarches.

On ne parlerait alors plus de transition énergétique, mais plutôt de relance économique par les énergies nouvelles.

8- Les Gaz de schiste.

Certains pays exploitent les Hydrocarbures de roche mère (Gaz de schiste) sans état d’âme, d’autres les réprouvent. Cette situation crée un déséquilibre économique qu’aucune règlementation internationale ne vient compenser.

D’autre part comment prendre au sérieux un programme « planétaire » de lutte contre les émissions de CO2 alors que dans le même temps les sources fossiles connaissent un regain d’intérêt extraordinaire sans aucune entrave ?

9- L’intermittence des renouvelables.

Bien que le problème de l’intermittence des énergies Eolienne et Solaire soit bien documenté et incontestable ( Il suffit de lire les bases de données météo) les conséquences pratiques sont mal acceptées, voire tout simplement niées.

C’est ainsi que certains pays ont développé des programmes importants sur ces énergies, et se trouvent maintenant contraints de recourir aux fossiles pour compenser l’intermittence, à cause de l’absence de moyens de stockage de masse de l’électricité.

Le fait que ce problème ne soit pas au centre des débats sur la transition énergétique ne laisse pas d’inquiéter les décideurs, qui redoutent d’investir dans un système comportant un tel hiatus technologique, révélateur d’un manque de maturité de la vision à long terme des promoteurs du système.

10- Commercialisation des énergies renouvelables.

Toute application nouvelle coûte cher dans sa phase d’apprentissage; pour s’imposer dans un contexte concurrentiel elle doit donc apporter une valeur d’usage supérieure au standard courant pour que le client accepte un prix plus élevé.

C’est vrai pour un téléphone portable, une automobile, ou tout autre bien ou service.

Un KWh fourni par une éolienne ou un panneau photovoltaïque ne se différencie pas d’un KWh issu d’une centrale thermique. Pas plus qu’un KWh de super d’origine pétrolière ne se différencie d’un autre apporté par un biocarburant.

Si l’utilisateur final a le choix de l’un ou de l’autre, il choisira évidemment le moins cher.

La cohabitation entre les vieilles énergies et les nouvelles n’est donc possible que si celles-ci bénéficient d’un cadre favorable à leur commercialisation, en général un tarif préférentiel d’achat par le distributeur. Tarif qui peut être remis en question à tout moment par l’autorité responsable, ce qui entraîne un risque à long terme pour le gestionnaire.

L’expérience ratée des certificats verts n’est pas de nature à rassurer les candidats.

11- La nature de la démarche.

Il ne fait de doute pour personne que les énergies fossiles seront utilisées jusqu’à la dernière goutte, quelle que soit par ailleurs la production des énergies renouvelables. La quantité de CO2 correspondant à la totalité des réserves fossiles sera donc injectée dans l’atmosphère à plus ou moins long terme.

Sauf si des procédés de capture et séquestration du Carbone sont mis en œuvre.

De tels procédés sont à l’étude, et leur utilisation pourrait réduire significativement la quantité de CO2 émise, mais sans espérer l’annuler.

En supposant que les stratégies de réduction des émissions de CO2 soient mises en place avec diligence et efficacité, certains experts estiment que le temps de réponse de la température atmosphérique à une réduction de ces émissions sera trop long pour empêcher cette température d’atteindre une valeur critique avant de commencer à redescendre vers un nouvel état d’équilibre.

Nous aurions donc, quoi qu’il arrive, à faire face à un changement climatique, à une élévation du niveau des océans, et à toutes les autres calamités annoncées par le GIEC.

( Ces estimations résultent de l’étude des temps de latence du système thermodynamique constitué par l’atmosphère et ses échanges avec l’espace d’une part, et avec la Terre et les Océans d’autre part).

A la stratégie de transition énergétique, il faudrait donc ajouter un volet essentiel qui serait la gestion des conséquences d’un changement climatique désormais inévitable.

Aujourd’hui ce problème ne fait l’objet d’aucun programme concret.

Au contraire, on continue par exemple à accorder des permis de construire en zones qui seront sous les eaux en cas d’élévation du niveau des océans.

Tout se passe comme si les autorités responsables n’accordaient aucun crédit aux menaces climatiques annoncées.

Face à une telle accumulation d’incertitudes, de contradictions, de manque de profondeur d’analyse, d’absence de concertation, d’irréalisme, on assiste à des initiatives discordantes où certaines décisions sont actées plus par la volonté de « faire quelque chose » que par la conviction de suivre le bon cap.

Dans cette « obscure clarté » une seule démarche recueille l’approbation générale: c’est la croisade pour la sobriété énergétique.

Des programmes Européens fixent des seuils d’émission de CO2, financent des projets de capture et séquestration du Carbone, imposent des normes énergétiques et subventionnent les études de réacteurs nucléaires de quatrième génération.

Chaque pays établit des mesures incitatives ou coercitives variables au gré de la succession des gouvernements bien souvent incapables de discerner la bonne voie à suivre et laissant aux grands groupes industriels les initiatives des choix, qui sont souvent le résultat d’un lobbying frénétique.

On ne peut reprocher à des décideurs de prendre le temps de la réflexion avant d’engager le Pays dans une mutation économique et industrielle majeure dont les répercussions se feront sentir à l’échelle du siècle.

Encore faut-il que cette réflexion ne se transforme pas en attentisme politique ou en « projets papier » fluctuant au gré des alternances électorales.

Il est également nécessaire de ménager une période de communication pour que l’ensemble des forces vives du pays prenne la mesure de l’énormité de l’effort qui nous attend, mais aussi de la nécessaire progressivité de la mutation, qui s’étalera sur plusieurs décennies.

Evaluons par exemple l’ampleur de l’effort nécessaire pour substituer en France la totalité de l’énergie finale par des énergies renouvelables.

La première démarche, et donc la première difficulté, consiste à dessiner les contours du futur mix énergétique.

Quel profil de transition adopter ? Autrement dit quel mix énergétique projeter pour 2 030, 2 050, 2 070 ?

Et en particulier quel avenir réserver au Nucléaire ?

Quelle sera la consommation d’énergie en 2 030, 2 050, 2 070 ?

Comment répartir les investissements colossaux qui seront nécessaires pour assurer la transition ?

Où trouver l’argent ?

Quel sera le rôle de l’Etat ?

Faut-il privilégier tel ou tel procédé ? Et selon quels critères ? Ou bien faut-il plutôt les soutenir tous au risque de se perdre dans le saupoudrage ?

Quel effort maintenir sur les énergies fossiles ? Combien faut-il investir sur la séquestration du Carbone ? Sur la Cogénération ? Sur les réseaux de chaleur ?

Etc…

Aucune de ces questions n’a encore trouvé de réponse claire.

D’autre part, la structure même du mode de consommation doit évoluer:

Aujourd’hui les produits fossiles contribuent pour les trois quarts de la

consommation d’énergie finale, le reste est de l’électricité.

Le biogaz et les biocarburants ne pourront pas, à eux seuls, assurer la relève du pétrole, du gaz naturel et du charbon, ils pourront tout au plus, en prendre le quart à leur charge.

Un grand nombre d’applications qui fonctionnent aujourd’hui avec des combustibles fossiles, devront se convertir à l’électricité.

La part de l’électricité est donc appelée à augmenter considérablement, jusqu’à 60% en 2050 selon l’Agence Internationale de l’Energie, contre 25% aujourd’hui.

Pour tenir compte de l’incertitude, les études prospectives doivent se baser sur des scénarios.

Imaginons un de ces scénarios pour l’après 2 070, dans lequel les énergies fossiles ne seraient plus qu’un souvenir, et le nucléaire aurait disparu.

Pour un scénario énergétique la donnée de base est la consommation d’énergie finale.

Que seront les besoins énergétiques ?

Aujourd’hui 1 920 TWh en France, combien en 2070 ?

Cette évaluation est aujourd’hui un exercice de pure divination. Il est possible qu’à cette époque il ne soit même plus question de satisfaire des besoins, mais plutôt de faire avec les disponibilités…

Selon les uns la consommation va augmenter, selon les autres elle va diminuer.

Nous avons retenu l’hypothèse médiane c’est-à-dire la stabilité, malgré les prévisions de croissance soutenues par l’AIE.

Dans cette hypothèse notre consommation électrique atteindrait 1 150 TWh, soit 2,4 fois la consommation actuelle, en intégrant une part électrique de 60% contre 25% aujourd’hui.

Les 40% restant seraient fournis par la biomasse, les biocarburants, les PAC, la Géothermie, le Solaire thermique.

Le mix énergétique français ressemblerait à ceci:

- Eolien: 25% Offshore à 80%

- Solaire: 25% Thermique et photovoltaïque

- Hydraulique: 15% Barrages, Hydroliennes

- Biocarburants: 15% Agro et Algo carburants

- Biomasse: 15% Méthanisation, Bois énergie

- Autre: 5% PAC, Géothermie

Tout autre répartition serait évidemment imaginable mais pas fondamentalement différente.

Dans ce cas de figure l’Eolien devrait fournir environ 500 TWh .

Pour produire 500 TWh par an, il faut une puissance installée de 140 000 MW , et 23 000 machines offshore de 6 MW avec un facteur de charge de 40% .

Actuellement il n’y a aucune production éolienne offshore française.

Il existe un projet de 330 machines au large de la côte Atlantique, pour une puissance de 2 000 MW. C’est un projet très modeste en regard de l’objectif à atteindre.

Pourtant ce « petit » programme rencontre déjà une vive opposition de la part des riverains, des associations de défense de l’environnement et de la biodiversité, des professionnels du tourisme et de la Mer, et même de certains écologistes!

Alors, faire accepter 23 000 éoliennes là où un projet de seulement 330 est déjà très contesté, telle est la tâche qui attend les services de communication du Ministère de l’Industrie…

C’est pourquoi les objectifs du Grenelle pour 2 020 sont restés modestes: Un parc de 25 000 MW installés, dont 6 000 MW terrestres et 19 000 MW offshore, pour fournir environ 10% des besoins électriques ( de 2020).

Aujourd’hui l’objectif terrestre est certes déjà dépassé, avec un parc qui atteint 7 800 MW installés en 2013, mais l’objectif offshore devra être revu sérieusement à la baisse. Il n’est même pas certain que le projet de 330 machines sur la côte Atlantique soit opérationnel pour 2020.

A l’heure où nous écrivons ces lignes les offres des candidats ont été confirmées « sous réserves », les réserves en question portant notamment sur le prix d’achat de l’électricité produite.

On comprend mieux dès lors le peu d’empressement de EDF à arrêter ses réacteurs nucléaires…

De plus, cette production éolienne devrait être soutenue par des installations de gestion de l’intermittence, par exemple des stations de pompage-turbinage côtières dont il existe déjà quelques modèles de par le monde. Ces stations impliquent une emprise foncière conséquente, dans des régions très touristiques. D’importants problèmes d’acceptabilité sont à prévoir.

Le coût d’un tel programme serait de plusieurs centaines de Milliards, uniquement pour le volet éolien.

Des investissements comparables sont à prévoir pour le Solaire, l’Hydraulique, les biocarburants , l’exploitation de la biomasse et la Géothermie.

Ceci dans l’hypothèse d’un retrait total du Nucléaire, ce qui implique des dépenses supplémentaires colossales pour le démantèlement des réacteurs et le stockage des déchets.

On parle alors de milliers de milliards, qui devraient être fournis par le consommateur ou le contribuable, qui sont généralement la même personne.

Cette avalanche de milliards paraît surréaliste dans une période de crise économique et de dette publique indécente.

La transition énergétique est une démarche qui engage l’avenir économique et industriel du Pays, et donc aussi son avenir social, pour un siècle ou deux.

Les orientations qui donneront sa physionomie à cette mutation doivent être arrêtées au cours de la présente décennie.

Il serait désastreux que les décisions fondamentales soient subordonnées aux exigences idéologiques de quelque parti politique que ce soit, et/ou aux intérêts de groupes industriels ou financiers.

Il serait tout autant déplorable que les pays de la même zone d’influence se dotent de stratégies non concertées. La transition énergétique doit être pour l’Europe l’occasion de montrer qu’elle est une entité capable de définir et d’appliquer une stratégie énergétique commune, ce qui implique à minima de se doter d’un organe de décision indépendant.

Peut-être alors serait-il possible d’éviter la cacophonie à laquelle nous assistons aujourd’hui sur les choix fondamentaux comme le Nucléaire, les gaz de schiste, le charbon, choix qui sont plus l’expression d’intérêts nationaux que d’une volonté commune.

On conviendra que la route vers les énergies renouvelables n’est pas un long fleuve tranquille…

Repost 0
16 octobre 2013 3 16 /10 /octobre /2013 13:58

Réacteurs nucléaires: le coût de la mise en sécurité.

16 Octobre 2013

Il est admis, une fois pour toutes, que la sécurité d’une filière de production électronucléaire ne peut pas être assurée à 100%.

Pas plus d’ailleurs que le transport routier, aérien, naval ou ferroviaire, comme le démontrent les statistiques.

Mais l’accident nucléaire a ceci de particulier que ses conséquences ne sont pas limitées, ni dans le temps ni dans l’espace, ce qu’aucune statistique ne saurait prendre en compte.

Le déraillement d’un train est une catastrophe pour les victimes et leurs proches, mais il n’entraîne aucune conséquence fâcheuse immédiate ou future au-delà du secteur concerné.

Il n’en va pas de même pour un accident nucléaire, qui entraîne des dégâts sur une aire géographique à la fois étendue et imprévisible, et dont les effets perdurent sur des durées parfois incommensurables.

D’autre part, les catastrophes de Tchernobyl et Fukushima ont montré à chaque fois de graves lacunes dans la maîtrise humaine des processus, voire même une insuffisance caractérisée des dispositions pour la prévention de ces accidents.

Enfin, le suivi de la gestion des conséquences de ces drames a mis en évidence un manque de compétences et de moyens, et une absence de transparence de nature à aggraver les suites plutôt que les atténuer.

Tout cela, porté à la connaissance du grand public par les moyens d’information modernes, induit une méfiance justifiée au sein des populations qui, a juste titre, refusent d’accepter la simple statistique comme critère unique de sécurité.

Les résultats des « stress tests » effectués sur les réacteurs à la suite de la catastrophe japonaise confortent les populations dans leur attitude de méfiance.

En effet, ces tests soulignent la nécessité de réaliser des travaux de sécurisation afin de porter le niveau de sureté à une valeur compatible avec les nouvelles exigences révélées par Fukushima.

Ce qui signifie en clair que les risques avait été gravement sous-estimés lors de la conception des installations !

Voilà qui n’est pas de nature à rassurer le voisinage…

Sans entrer dans des détails fastidieux, disons que le risque principal, la rupture de cuve, avait été simplement dénié !

Mais, puisqu’il semble que nos « vieux » réacteurs vont continuer à fonctionner, il va donc falloir mettre la main à la poche pour financer les travaux de consolidation.

Combien tout cela va-t-il nous coûter ?

En matière d’énergie les chiffres manipulés sont toujours colossaux. Les évaluations du programme de sécurisation sont en train de s’envoler, on parle aujourd’hui d’une enveloppe globale de près de cent Milliards d’euros.

On sait que, dans ce genre de prévisions, c’est comme au restaurant, il faut ajouter les vins, les desserts, le café et le service, la note est facilement doublée.

Nous tablerons donc sur 100 Milliards pour donner une nouvelle jeunesse à la vingtaine de réacteurs concernés afin qu’ils soient autorisés à fonctionner encore dix ans.

Cet argent ne sortira pas d’un chapeau, il faudra l’emprunter à un taux d’environ 3%.

Chacun de ces réacteurs peut fournir environ 6 TWh d’électricité par an, ce qui nous fait en gros 1 200 TWh sur dix ans.

L’amortissement sur dix ans des dépenses de lifting, reporté sur la production, sera donc de 0,10 euro par KWh, intérêts compris.

Somme qui, bien entendu, sera portée sur votre facture, partie sur la consommation et partie sur la CSPE ou sa remplaçante.

Le concept de nucléaire bon marché en prend un sérieux coup.

Et n’oublions pas que, dans le même temps, il faudra donner quelques sous supplémentaires pour la construction des EPR ( 8 Milliards pièce), et participer financièrement au développement des énergies durables.

Tout le monde ne peut pas, comme madame Merkel, remplacer le nucléaire par du charbon, ou comme Monsieur Obama, puiser du gaz de schiste dans son sous-sol…

Question de standing.

A moins que ce coût exorbitant reste en travers de la gorge des opposants au nucléaire qui, non contents de devoir accepter la poursuite de l’exploitation des vieilles centrales, se voient taxer durement d’un montant qu’ils auraient bien vu consacré aux énergies nouvelles.

De belles joutes en perspective…

Repost 0