Overblog Suivre ce blog
Administration Créer mon blog
2 janvier 2014 4 02 /01 /janvier /2014 15:35

2 Janvier 2014

Les vœux du Président sont assortis des promesse habituelles, dont celle de lancer la transition énergétique. Promesse saisie au vol par les écologistes qui ne manqueront pas de suivre attentivement ces opérations de lancement attendues depuis si longtemps.

Entre la lutte contre le CO2, la préparation à la pénurie d’énergies fossiles, la chasse aux pollutions, la recherche de la sobriété énergétique, l’indépendance vis-à-vis des sources extérieures, l’interdiction des gaz de Schiste, le rejet du Charbon et le statut improbable du Nucléaire, il est devenu difficile de discerner les priorités et l’on comprend la perplexité d’un Gouvernement qui se trouve dans la situation d’une poule qui a trouvé un couteau, et qui de surcroît manque du premier euro pour investir dans des projets certes grandioses, mais dont les retombées ne se feront sentir que dans quelques décennies.

Et l’Homme Politique n’aime pas planter des arbres dont les fruits seront récoltés par d’autres.

A la décharge du dit Gouvernement il faut préciser que les consommateurs, qui exigent d’un côté une mutation vers les énergies renouvelables, refusent énergiquement par ailleurs de les payer plus cher pour financer les investissements indispensables.

La tentation sera donc grande de disperser de maigres efforts d’investissement sur des projets multiples d’intérêt local et de communiquer sur ce qui pourrait passer pour une transition énergétique et ne serait qu’une vaste campagne de communication cachant une politique de fond conservatrice demeurant fondée sur les fossiles et le nucléaire.

Il faudra donc trier le bon grain de l’ivraie et tâcher de ne pas prendre des vessies pour des lanternes.

Voici un exemple des ruses à éventer:

La mise en service d’un nouveau parc éolien, aussi modeste soit-il, est fréquemment saluée par des éloges dithyrambiques associant la puissance de l’installation au nombre de foyers susceptibles d’être alimentés en électricité, et les chiffres ne manquent pas d’impressionner le lecteur peu attentif qui peut en conclure hâtivement que notre problème énergétique sera facilement résolu par le recours généralisé à cette technologie si efficace.

Choisir le nombre de foyers alimentés comme paramètre d’efficacité de l’installation nécessite pour le moins de préciser la consommation moyenne des foyers considérés pour le petit calcul.

Le Centre d’Etudes et de Recherches Economiques sur l’Energie (CEREN) indique que la consommation moyenne des foyers français est de 2 700 KWh par an hors chauffage, eau chaude sanitaire, et autres usages pouvant recourir à d’autres énergies.

Pas question de voiture électrique, ni même de pompe à chaleur, qui pourtant sont considérés comme essentiels dans la future stratégie de transition!

Cherchez l’erreur…

Etendue aux 30 millions de foyers/ménages cette consommation de 2 700 KWh correspond à une dépense globale de 80 TWh, soit moins de 17% de la consommation nationale d’électricité. Cette image rassurante donne une idée fausse de la situation réelle de nos besoins énergétiques.

Les individus ont une vie en dehors de leur logement. Ils ont une activité professionnelle, des loisirs, utilisent des équipements collectifs, se déplacent en train, en tramways, en métro, qui consomment de l’électricité.

La France consomme ainsi chaque année 480 TWh électriques, dont plus de la moitié est directement à notre service, le reste l’étant plus ou moins indirectement, comme par exemple l’électricité consommée pour fabriquer les aciers et alimenter les usines qui fabriquent nos automobiles.

L’énergie électrique moyenne rapportée à un foyer est donc plus proche de 16 000 KWh que des 2 700 alloués chichement pour le seul domicile.

Mais ce n’est pas tout ! En effet, l’électricité ne couvre aujourd’hui que le tiers de nos besoins d’énergie finale, le reste est couvert par la combustion des sources fossiles (et en partie par le bois énergie et un peu de méthanisation). Et l’on sait que les sources fossiles devront être progressivement remplacées par des renouvelables, qui fournissent en majorité de l’électricité.

Même compte tenu des économies programmées, la moyenne de consommation rapportée à un foyer dépassera alors 30 000 KWh par an. La norme actuelle de 2 700 KWh par foyer n’est donc pas représentative et présente le risque de conduire à une mauvaise appréciation du problème de la transition énergétique en laissant croire que quelques éoliennes et quelques parcs photovoltaïques suffiront à résoudre le problème.

Le réveil sera d’autant plus difficile…

Repost 0
11 décembre 2013 3 11 /12 /décembre /2013 19:26

~L’énergie électrique, une denrée difficilement maîtrisable.

11 Décembre 2013

Voici le relevé de notre consommation d’électricité de la dernière décennie:

2000 441 Twh ( Tera Watt-heure = 1 Milliard de kWh)

2005 472 ---

2008 486 ---

2009 479 ---

2010 490 ---

2012 480 ---

( Source RTE)

On peut constater une stabilisation de la demande autour de 480 TWh sans que l’on puisse l’attribuer à des comportements vertueux ou à la crise économique, les deux facteurs ayant probablement contribué aux résultats.

La campagne en faveur de l’isolation des logements, les règlementations thermiques du bâtiment de plus en plus sévères, la généralisation de l’éclairage basse consommation, le recul du chauffage électrique, l’amélioration des performances énergétiques des appareils domestiques, et l’augmentation du coût de l’énergie chargée des contributions et taxes spécifiques, ont permis de maîtriser la course au gaspillage.

Mais l’augmentation du nombre des ménages, la demande accrue de confort, l’accroissement du marché des communications et de l’audiovisuel, et l’essor de la pompe à chaleur contribuent à maintenir une demande forte malgré la crise économique. Et le développement de la climatisation et de la voiture électrique n’iront pas dans le sens d’une réduction de la consommation.

Une éventuelle sortie de crise se traduirait par une croissance de la demande ( par définition !), ce qui rend problématique une stratégie qui serait basée sur une réduction significative de la consommation au cours de la prochaine décennie.

Sauf à considérer le prolongement de la crise comme un élément de la stratégie, hypothèse évidemment écartée !

Notre consommation actuelle d’électricité correspond à une puissance moyenne égale à

55 GW ( Giga Watt = 1 million de KW ). Mais il s’agit d’une moyenne et, comme toutes les moyennes, elle cache de grandes disparités.

ERDF fournit un état en temps réel de la demande électrique. On y constate des écarts considérables journaliers, saisonniers et annuels. L’outil de production doit être capable de répondre à la demande avec un temps de réponse aussi court que possible. Pour cela il faut des installations très réactives et un bureau des prévisions très performants.

La puissance des installations doit être adaptée au pic de la demande, et c’est là que la bât blesse.

Voici le relevé des pics de consommation électrique constaté depuis 2001:

2001 79,6 GW

2002 79,7 ---

2003 83,5 ---

2004 81,4 ---

2005 86 ---

2006 86,3 ---

2007 89 ---

2008 84,4 ---

2009 92,4 ---

2010 96,7 ---

2011 91,8 ---

2012 102 ---

Les chiffres parlent d’eux-mêmes.

Lissée des variations saisonnières, l’augmentation est de 16% sur la période considérée alors que la moyenne de consommation reste stable.

C’est bien de maîtriser la consommation annuelle globale, mais tolérer des pics de demande de presque le double de la moyenne, cela oblige à mobiliser des moyens de production surpuissants générateurs d’un surcoût important pas toujours compensé par l’exportation de la capacité excédentaire en période de faible demande intérieure.

Si ces variations erratiques de la demande pouvaient être éliminées, la puissance nécessaire serait de 55 GW seulement et non pas 95 GW voire davantage comme en 2012. Ce qui permettrait d’économiser des moyens de production, notamment quelques réacteurs nucléaires et quelques centrales thermiques.

On est donc contraints de maintenir un outil de production pléthorique pour être à même de répondre aux pics de consommation.

D’autre part, compter sur nos voisins pour nous vendre l’électricité qui nous ferait défaut pour passer les pics serait une stratégie douteuse car en Europe tout le monde aura le même problème.

L’arrivée des sources renouvelables d’énergie électrique aggrave le problème à cause des fluctuations de leur production en fonction des conditions météo et de l’alternance jour-nuit, fluctuations évidemment non synchronisées avec la demande !

Pour toutes ces raisons la stratégie de transition énergétique restera en panne tant que ne seront pas mis en œuvre deux démarches fondamentales:

La première concerne le contrôle interactif de la consommation électrique grâce au réseau intelligent (Smart Grid) seul à même de gérer la demande pour l’adapter à l’offre fluctuante. La seconde concerne le stockage de masse de l’électricité.

La première démarche est déjà entreprise par ERDF qui implante le premier maillon, le compteur Linky. La pose des 35 millions de compteurs interactifs est programmée pour être achevée à l’horizon 2020.

La seconde démarche ne sera entreprise que lorsque des solutions industrielles seront disponibles et les besoins mieux définis.

Il est important de remarquer que le déploiement des énergies nouvelles ne sera possible sur une large échelle que lorsque les deux démarches ci-dessus seront accomplies.

D’ici là leur contribution ne peut être que marginale.

Repost 0
7 décembre 2013 6 07 /12 /décembre /2013 19:01

~Les soubresauts du climat.

7 Décembre 2013

De mémoire d’homme civilisé le climat de la Terre est demeuré à peu près stable, avec une température moyenne de la basse Atmosphère remarquablement constante autour

de 15°C.

Certes des petites variations ont pu être observées dans un passé historique. On parle ainsi d’optimum médiéval et de petit âge glaciaire, correspondants à des écarts de température moyenne de l’ordre du degré Celsius.

L’habitude aidant, l’Homme a considéré cette situation comme acquise et la société planétaire s’est adaptée à cet environnement au point de développer une grande vulnérabilité à tout éventuel changement brutal du climat.

Plus un système devient complexe et plus il est vulnérable aux perturbations extérieures. Les experts du GIEC considèrent qu’au-delà de 2 °C de réchauffement la situation serait difficilement gérable, au point de générer des catastrophes économiques accompagnées de grands mouvement de populations et donc des conflits territoriaux. Un refroidissement serait tout autant néfaste, avec des problèmes différents mais aux conséquences aussi dévastatrices.

Les variations observées actuellement sont attribuées pour l’essentiel aux activités humaines. Leur contrôle permet donc d’espérer maintenir des conditions climatiques gérables.

Mais c’est sans compter avec les variations naturelles.

La paléoclimatologie nous enseigne que la stabilité actuelle du climat est provisoire car elle correspond à la fin d’un palier post-glaciaire qui appartient à un cycle d’alternances climatiques extrêmes dont la période est de 120 000 ans environ. Certes la prochaine période glaciaire n’est pas prévue pour demain matin. Les experts ne la prévoient pas avant deux ou trois mille ans, ce qui nous laisse un certain délai pour prendre des mesures, mais enfin il faudra y penser un jour.

La période qui nous intéresse aujourd’hui se situe à la charnière entre la fin de la dernière glaciation et le début de la période post-glaciaire actuelle. Elle s’étend sur un millier d’années, entre -11 700 et - 12 700 BP environ, et porte le nom de « Dryas récent ».

Les climatologues s’y intéressent de très près elle car se caractérise par un soubresaut violent et brusque de la température d’une amplitude de 10 °C . Ces variations, relevées dans les carottes glaciaires du Groenland, ont été confirmées dans le reste du monde et ne furent donc pas seulement locales.

Ces relevés soulèvent deux problèmes principaux:

La chute de la température et sa remontée mille ans plus tard ont été très brusques, certains avancent même qu’elles ont pu se produire en quelques décades seulement.

Le second problème est que les scientifiques n’ont trouvé aucune explication satisfaisante du phénomène, ou plus exactement les explications proposées sont nombreuses mais aucune n’est satisfaisante.

Nous n’entrerons pas dans cette controverse qui nous dépasse quelque peu, mais nous voulons souligner que l’existence de tels phénomènes aléatoires dans le passé récent attestent de la vulnérabilité du climat, et surtout de la possibilité de variation brutales de grande ampleur.

Nos lointains cousins du Paléolithique supérieur ont eu à souffrir des rigueurs du Dryas récent, qui a fortement perturbé les tentatives de sédentarisation des chasseurs-cueilleurs. Il leur faudra attendre - 10 000 pour retrouver des conditions propices à l’épanouissement de la civilisation.

Parmi les hypothèses avancées pour expliquer cet épisode de re-glaciation du Dryas, on trouve des versions « classiques » évoquant un arrêt de la circulation thermo haline, ou un épisode d’activité volcanique intense, et des versions moins conventionnelles comme la chute d’un astéroïde.

Cette dernière proposition, irrecevable au siècle dernier, acquiert de plus en plus de crédibilité au fur et à mesure des découvertes de cratères récents à la surface de la Terre.

L’observation et l’étude des trajectoires des astéroïdes géo-croiseurs est maintenant une science à part entière qui mobilise de gros moyens à la fois pour leur identification et pour l’étude des moyens de s’en préserver.

En effet, si notre société moderne aurait les moyens de gérer un réchauffement de l’Atmosphère de quelques degrés, elle ne pourrait rien contre un impact d’astéroïde de quelque importance capable de déclencher un basculement climatique de même nature que celui du Dryas récent.

La Science a permis à notre Humanité de prendre conscience de la fragilité de notre environnement et de la vulnérabilité de notre civilisation. Dans le même temps elle nous charge d’une responsabilité nouvelle vis-à-vis des générations futures.

Dans les temps anciens l’Homme se préoccupait de préserver sa vie, se reproduire, et trouver à manger pour le jour suivant.

L’invention de l’élevage et de l’agriculture l’on contraint à regarder au-delà du jour suivant, les saisons sont devenues son échelle de mesure du temps.

Le progrès et la conquête du confort l’ont amené à planifier sa vie et celle de sa famille, l’échelle de temps est devenue la génération. L’élargissement des connaissances scientifiques a ouvert l’horizon des préoccupations humaines.

Notre espèce se pense dorénavant dans la durée et s’inscrit dans les temps géologiques. Nous ne pouvons plus feindre d’ignorer les périls qui menacent l’Humanité, dès lors que ces périls sont identifiés.

Repost 0
2 décembre 2013 1 02 /12 /décembre /2013 19:24

Gaz de schiste, les affaires reprennent.

2 Décembre 2013

Annoncer une transition énergétique, c’est bien.

Préparer une transition énergétique, c’est une suite logique.

Mais la phase de préparation n’a qu’un temps; ensuite vient le temps des décisions.

Ce temps est venu, et il serait indécent de continuer à amuser la galerie plus longtemps, des choix doivent être clairement annoncés afin que les décideurs, le public, les industriels, les investisseurs, les professionnels de l’énergie, disposent d’éléments consistants et pérennes propres à permettre des initiatives établies sur des bases solides avec des perspectives de long terme.

Quels grands choix stratégiques ?

Quels axes de développement ?

Quel modèle économique ?

Quelles aides ?

Quelle fiscalité ?

Quelles priorités ?

Or aujourd’hui il n’existe aucun consensus sur les choix essentiels qui serviront de socle à la nouvelle stratégie énergétique.

Seule existe une expression diffuse et partielle d’une partie de l’opinion autour de la nécessité de satisfaire les revendications de la nébuleuse écologique:

- Abandon de l’électronucléaire, principe de précaution oblige.

- Abandon des combustibles fossiles, dans le cadre de la lutte contre le changement climatique et dans la perspective d’épuisement des ressources.

- Rejet de l’exploitation des gaz de schiste, à la fois à cause des émissions de CO2 et de Méthane, des atteintes à l’environnement et à la biodiversité, et des risques de pollution des nappes phréatiques, toujours le principe de précaution.

- Rejet des installations éoliennes offshore de production de masse, en raison des atteintes à l’environnement littoral et aux sites remarquables.

Ces revendications correspondent à des préoccupations justifiées, et c’est là qu’est le problème.

Leur seul défaut est de limiter drastiquement le choix des options restantes au point de créer une situation de blocage.

En face de ce corpus revendicatif, et pour éviter de mettre le feu aux poudres, le Gouvernement applique un programme minimum essentiellement basé sur les économies d’énergie, et sur de timides initiatives en direction des énergies nouvelles.

Pour le reste, la France continue de dépenser chaque année 70 Milliards en importations de produits énergétiques et le couple EDF-AREVA poursuit la commercialisation de sa filière nucléaire et le développement des réacteurs de quatrième génération, ce que l’on pourrait considérer comme une stratégie en soi, si la politique du « business as usual » méritait ce nom.

Au milieu de cette « drôle de guerre » dans laquelle chacun campe sur des positions inconfortables voire intenables, une voix tente de se faire entendre, c’est celle de l’Académie des Sciences.

Dans un monde où n’est entendu et pris au sérieux que celui qui possède un grand crédit médiatique consacré par des passages fréquents aux étranges lucarnes, et aux heures de grande écoute, l’Académie des Sciences fait piètre figure.

Pourtant cette docte institution réunit l’essence même de la connaissance scientifique, alliée à une grande indépendance d’esprit, du moins on ose l’espérer.

Le Comité de Prospective en Energie de ce corps d’élite savante a remis au Gouvernement, voici deux semaines, un rapport intitulé:

« Eléments pour éclairer le débat sur les gaz de schiste ».

En fait d’éclairage, ce pétard risque bien de mettre le feu, tant les éléments qu’il contient sont subversifs, du moins pour les tenants du nini.

Les sages, car ils faut bien les nommer ainsi, mettent le doigt sur un certain nombre de situations anormales pour lesquelles aucune solution consensuelle n’est proposée.

D’entrée de jeu l’académie remet les pendules à l’heure puisqu’elle note:

«Les contraintes inévitables de production, de transport et d’exploitation sont souvent négligées, les défis scientifiques à relever et les ruptures technologiques majeures qu’il faudrait réaliser sont, la plupart du temps, sous-estimés ou esquivés ».

Autrement dit, il faudrait perdre l’habitude de balayer les difficultés sous le tapis en considérant comme contingents des problèmes qui sont essentiels.

Prenant acte de cette « légèreté » l’Académie des Sciences se donne mission de:

« Conduire une réflexion sur ce thème ( l’énergie ) en abordant les problèmes d’une façon systématique et raisonnée, résolument différenciée des visions simplistes. »

Certains protagonistes du débat public sauront se reconnaître en matière de visions simplistes…

Ensuite, tout en reconnaissant l’intérêt des économies d’énergie, Elle énonce les raisons qui justifient son intérêt pour une étude sur les gaz de schiste:

«- Assurer la sécurité d’approvisionnement en énergies fossiles qui constituent encore 90% de l’énergie primaire.

- Réduire la dépendance énergétique et la facture correspondante.

- Stimuler la compétitivité de l’économie.

- Permettre l’insertion des énergies renouvelables en réglant le problème de leur intermittence au moyen d’une énergie mobilisable et qui évite l’utilisation du charbon » .

Rien de bien nouveau sinon que cet argumentaire confirme la fracture qui existe entre les exigences écologiques d’une part, et les préoccupations de l’Etat responsable d’autre part.

Il faudra bien un jour que ceux-là se mettent autour d’une table de négociations pour trouver un compromis.

L’Académie propose donc de prendre du recul par rapport aux positions idéologicosécuritaires, et de lancer un programme de travail scientifique sur les problèmes posés par l’exploitation des gaz de schiste, sur les bases suivantes:

- lancer un programme de recherche sur l’exploration et l’exploitation des gaz de schiste impliquant les labos universitaires et ceux des grands organismes.

- Exploiter les connaissances géologiques, géophysiques et géochimiques déjà acquises ou archivées et solliciter les géologues pour une évaluation des réserves.

- Réaliser des études et des expériences pour évaluer et réduire l’impact environnemental d’une éventuelle exploitation.

- Mettre en place une autorité scientifique pluridisciplinaire et indépendante pour le suivi des actions engagées.

- Traiter le problème de gestion des eaux, qui est un aspect majeur de l’exploitation des gaz de schiste.

- Prévoir un suivi environnemental.

- Travailler sur les méthodes qui pourraient remplacer la fracturation hydraulique, mais aussi sur les procédés pouvant améliorer celle-ci.

- Traiter le problème d’étanchéité à long terme des forages d’exploitation.

- Procéder à des tests en vraie grandeur, sans fracturation hydraulique, dans des zones déjà fracturées de vieux bassins charbonniers.

Cette proposition de programme de travail, qui serait conforme aux règles de l’art dans des circonstances normales, prend ici des allures de tentative de coup d’Etat, tant les gaz de schiste sont devenus un sujet tabou.

Mais au-delà du tabou la question demeure:

Peut-on se permettre, dans les circonstances actuelles, d’écarter d’un revers de main une telle possibilité énergétique ?

L’Académie des Sciences pose la question de manière on ne peut plus circonstanciée.

Le rapport complet est en ligne sur

«academie-sciences.fr/activite/rapport/avis151113.pdf »

Il est fort peu probable que cette prise de position change en quoi que ce soit la décision du Gouvernement d’interdire l’exploitation des gaz de schiste en France.

Du moins les enjeux auront-t-ils été rappelés, ce qui n’est jamais inutile en cette période de grande confusion où l’idéologie côtoie la mauvaise foi et où le bon sens a beaucoup de mal à faire entendre sa voix.

Repost 0
29 novembre 2013 5 29 /11 /novembre /2013 16:21

L’atmosphère en tant que revêtement de surface « intelligent ».

29 Novembre 2013

Nous avons évoqué dans un article précédent l’importance de l’Atmosphère dans la régulation de la température de la troposphère.

Du point de vue thermodynamique elle joue le rôle d’un revêtement de surface qui règle l’équilibre entre l’albédo et l’émissivité de la planète de manière à stabiliser la température autour de +15 °C.

L’eau sous ses trois formes et la présence de gaz à effet de serre sont les outils essentiels qui permettent de moduler la quantité d’énergie solaire renvoyée vers l’espace.

La vie se développe dans cet écosystème grâce à la présence d’oxygène; elle y a son rôle dans le processus de recherche d’équilibre, sans que l’on puisse savoir si elle est un phénomène contingent ou essentiel à la régulation, voire même sa raison d’être.

( Non n’avons pas qualité pour dire des choses pertinentes sur ces problèmes métaphysiques).

Comme tout système thermodynamique l’Atmosphère possède une énergie interne.

Cette énergie est formée des composantes thermodynamiques classiques de tout système gazeux:

Une composante principale appelée « Energie cinétique microscopique » qui résulte de l

’agitation des molécules (mouvement Brownien).

La Température est la mesure de cette agitation.

Une seconde composante importante appelée « Energie potentielle » qui regroupe l’énergie géopotentielle ( liée à la pesanteur), et les énergies potentielles intermoléculaires ( attraction -répulsion).

Une troisième composante très importante est composée de la « Chaleur latente » portée par la vapeur d’eau.

Enfin il faut ajouter l’énergie cinétique macroscopique liée aux mouvements des masses d’air ( Vents, tornades).

Il faudrait également citer l’énergie chimique, mais dans notre cas elle est très faible.

L’ensemble de ces énergies atteint le montant extraordinaire de

1,25 x 10 exp[24] joule.

Soit en clair:

1 000 000 000 000 000 000 000 000 Joule !

Ce qui représente dix millions de fois la puissance de la plus puissante bombe thermonucléaire .

Les quatre formes d’énergie sont réparties ainsi:

Ecm ( cinétique microscopique) : 70%

Eg ( géopotentielle ) : 27%

Ecl ( chaleur latente) : 2,5%

Ev ( cinétique macroscopique) : 0,05%

(Source: Oort, Peixoto et Al, 1983)

On notera la faible valeur de Ev, qui est l’énergie des masses d’air en mouvement, c’est-à-dire des ouragans et tornades.

On imagine sans peine l’effet d’un déséquilibre qui porterait cette valeur à seulement 0,1%. A nous les vents de 400 km/h !

On comprend alors que plus qu’une augmentation légère de température, il faut craindre un déséquilibre de Ev, dont la faible valeur relative laisse une grande vulnérabilité devant la formidable réserve de puissance contenue dans Ecm et Eg.

Les quatre composantes de l’énergie interne atmosphérique échangent continuellement de l’énergie entre elles et utilisent les océans comme réservoir tampon de chaleur et comme moyen de véhiculer de grosse quantités d’énergie d’un endroit à l’autre de la planète par l’intermédiaire des courants marins.

La rotation du globe et les inégalités spatio-temporelles de l’insolation créent un régime de vents qui brasse les masses d’air et contribuent à une certaine homogénéisation.

Le cycle évaporation- chaleur latente-précipitations module les couches nuageuses et donc directement l’albedo et l’émissivité.

Les gaz à effet de serre présents dans l’Atmosphère contribuent au mécanisme de régulation.

Les climatologues connaissent la plupart des facteurs qui sont susceptibles d’influencer le mécanisme de régulation. Mais les relations entre ces facteurs, la façon dont ils interviennent et leur importance relative ne sont pas exactement connues. Des modèles informatiques sont utilisés pour tenter de prévoir l’évolution du climat, et la confrontation de ces modèles avec la réalité permettra de les valider et de confirmer ou infirmer les hypothèses retenues.

L’emploi des énergies fossiles depuis les débuts de l’ère industrielle ne constitue qu’une phase du recyclage du carbone. En effet ces combustibles sont issus d’organismes autrefois vivants et dont le Carbone a été stocké pendant des millions d’années pour être restitué aujourd’hui à l’Atmosphère.

Ce type de recyclage, considéré comme vertueux dès lors qu’il s’agit de bois parce que le cycle est de courte durée ( 50 ans), est considéré comme nuisible avec les fossiles car le cycle est de plusieurs millions d’années, les émissions de CO2 sont alors considérées comme un apport nouveau à l’échelle des temps historiques.

L’augmentation anthropique du taux de CO2 dans un court laps de temps (Un siècle et demi) constitue une violation du cycle naturel de régulation thermodynamique de l’Atmosphère.

Le résultat direct est une modification de l’émissivité qui va dans le sens d’un accroissement de l’énergie interne.

Cette impulsion d’accroissement de l’énergie interne va se distribuer entre les quatre composantes Energie cinétique microscopique (Ecm), Chaleur latente ( Ecl), Energie géopotentielle ( Eg), et Energie cinétique macroscopique ( E v).

Il faut donc s’attendre à observer les perturbations résultantes:

La modification de Ecm se traduira par un variation de température, probablement une augmentation mais pas nécessairement.

L’effet sur Ecl sera une perturbation du régime des précipitations, des moussons et des formations nuageuses.

Eg, qui concerne les distributions des hautes et basses pressions, manifestera des déséquilibres créateurs de zones cycloniques.

Quant à Ev, qui porte le potentiel de vents, de tornades et d’ouragans, on sait les résultats d’un déséquilibre sur les évènements météo extrêmes.

La variation de température n’est donc peut-être pas une mesure fiable des variations climatiques. Il est possible que d’autres phénomènes atmosphériques soient plus représentatifs des changements du climat.

Repost 0
28 novembre 2013 4 28 /11 /novembre /2013 13:54

Réchauffement de l’atmosphère, une affaire entre albédo et émissivité.

28 Novembre 2013

Cette affaire de réchauffement climatique est décidément bien compliquée.

Les milliers de pages des rapports officiels sont à ce point absconses qu’il a fallu en extraire la quintessence pour exposer aux décideurs un tableau qui ne soit pas totalement inintelligible.

C’est le fameux « Résumé à l’usage des décideurs ».

Certes compréhensible du « décideur » moyen, mais peut-être un peu réducteur.

Aussi, afin de prendre du recul, ais-je demandé son avis à un mien cousin émigré dans le système de Sirius.

Comment voit-on le problème de là-bas ?

Son avis, bien que peu nuancé, m’a paru intéressant surtout pour sa simplicité, je vais tâcher de vous l’exposer en essayant de ne pas déformer sa pensée.

Pour notre ami lointain la Terre n’est qu’un petit système thermodynamique qui reçoit toute son énergie de son étoile.

( je lui ai fait remarquer que la Terre elle-même n’est pas totalement dépourvue d’énergie interne, mais il m’a tout de suite arrêté en me citant les chiffres de ce que nous appelons pompeusement le flux géothermique: seulement 0,065 W/m2, moins qu’un pet de lapin comparé à la puissance reçue de notre étoile).

Notre Soleil est vu de Sirius comme une sorte de chandelle qui nous envoie bon an mal an un flux énergétique d’environ 1 368 W/m2 relativement constant, c’est d’ailleurs pourquoi nous l’appelons « constante solaire ».

Arrivé sur le globe ce flux se réparti pour donner un « arrosage » moyen de 342 W/m2.

Ayant constaté que la température de surface du globe reste constante en moyenne, les savants de Sirius en ont déduit que le flux d’énergie qui vient de l’espace y retourne intégralement sous une forme ou sous une autre. Nous ne les contredirons pas.

La Terre étant visible dans leurs instruments, ils ont conclu qu’une partie du flux reçu est réfléchi et repart vers l’espace.

Le reste est donc absorbé.

Et c’est là qu’intervient un certain Stefan Boltzmann, qui nous a tout expliqué au sujet du rayonnement infrarouge des corps chauffés.

Bon sang mais c’est bien sûr, l’énergie du Soleil absorbée chauffe la Terre, qui à son tour rayonne vers l’espace, mais dans l’infrarouge.

La température s’établit à une valeur telle que l’énergie totale renvoyée vers l’espace est exactement égale à l’énergie reçue, ce qui garantit une température constante, c’est l’équilibre thermique.

Notre ami de Sirius nous a alors félicités pour notre chance d’avoir trouvé un « Deus ex machina » assez aimable pour faire en sorte que cet équilibre se soit établi à +15°C.

Cinq degrés de plus ou cinq degrés de moins et c’en était fait de nous !

Tout au moins sous la forme actuelle.

Quand on connaît le nombre et la variété des processus qui interfèrent pour fixer la température d’équilibre, on ne peut qu’être convaincus de l’intervention d’un mécanicien de l’espace assez habile pour ajuster tout cela pour notre plus grand confort.

Et en plus, cela dure depuis des millions d’années, certes avec quelques soubresauts, mais sans incidence fatale pour les espèces vivantes sinon la disparition de certaines d’entre elles, vite remplacées par d’autres plus dégourdies.

Pour faire court, nous dirons que ce délicat équilibre tient à deux caractéristiques thermodynamiques qui sont l’albédo et l’émissivité.

L’albédo caractérise la portion du flux solaire qui est renvoyée vers l’espace par réflexion.

Cette réflexion se produit sur les nuages, sur l’eau, sur la neige et la glace, sur la terre, avec bien sûr des valeurs qui dépendent directement d’un grand nombre de facteurs.

L’émissivité caractérise la faculté d’un corps d’émettre plus ou moins de puissance rayonnante pour une température donnée.

Stefan Boltzmann a donné la formule, remarquable par sa simplicité, qui lie la puissance rayonnée et la température du corps:

P = E . S . T exp(4)

P est la puissance rayonnée.

E est l’émissivité du corps considéré.

S est la constante de Stefan Boltzmann: 5,67 . 10 exp(-8)

T est la température en Kelvin ( T en °C + 273,15)

Une simple calculette permet de constater les conséquences d’une petite variation d’un des deux facteurs sur la température à partir de la petite formule ci-dessus.

C’est assez édifiant.

Les climatologues de Sirius sont cependant perplexes. Ils connaissent bien sûr Stefan Boltzmann et sa formule magique; ils l’ont donc mise à l’épreuve pour calculer la température terrestre de surface.

Il leur a suffit de mesurer l’albédo, qui est de 0,3, et d’évaluer l’émissivité, proche de 0,95 . Le résultat les a contrariés: - 19°C, alors que nos thermomètres indiquent une moyenne de + 15°C.

J’ai alors rappelé à mon correspondant lointain qu’il existe des procédés, appelés traitements de surface, qui permettent de modifier l’émissivité d’un corps.

Par exemple, l’Aluminium poli présente une émissivité de 0,04 alors que s’il est anodisé elle est de 0,8.

Pour ce qui concerne la Terre, le procédé en question a consisté à la recouvrir d’une couche gazeuse appelée Atmosphère.

Ce traitement de surface un peu particulier a permis de modifier son émissivité apparente, qui est ainsi passée de 0,9 à 0,6.

La petite formule magique vérifie que la température est alors montée à +15°C, confirmant s’il en était besoin le rôle essentiel de l’émissivité.

Ce tour de passe-passe est rendu possible par un réglage précis de la composition de la couche atmosphérique, afin de lui donner les caractéristiques recherchées ( On parlerait

aujourd’hui de matériaux intelligents).

Le dosage porte sur l’Oxygène, la vapeur d’eau, le dioxyde de Carbone, le Méthane, et quelques autres, par l’intermédiaire de deux mécanismes principaux qui sont l’effet de serre, et la boucle évaporation-précipitations, rendue possible par la présence d’eau.

L’eau joue en effet un rôle majeur dans ce processus de régulation, par le passage permanent entre les trois états solide-liquide-gazeux qui met en jeu la chaleur latente.

On a pu constaté que ce procédé de régulation fonctionne au moins depuis 400 000 ans, avec une précision de +/- 1,8% , ce qui est fort honorable pour un servomécanisme soumis à de grandes perturbations cosmiques.

Le Deus ex machina est vraiment très habile….

Albédo et Emissivité sont donc les deux leviers qui règlent la valeur de la température de notre environnement.

Mais qui manœuvre ces leviers, et comment ?

Tout ce qui compose notre environnement influence l’un ou l’autre de ces deux leviers, voire même les deux à la fois:

- La composition de l’atmosphère et son volume.

- L’importance des couches nuageuses et les types de nuages.

- La pollution atmosphérique, les aérosols.

- Les courants marins.

- La composition des couches supérieures des océans.

- La faune maritime.

- La couverture neigeuse.

- La couverture glaciaire.

- La couverture forestière.

- Les émissions d’aérosols.

- la nature des procédés agricoles.

- Les émissions volcaniques.

- Les émissions de CO2 anthropiques.

- L’urbanisation.

- La chaleur de combustion des fossiles.

- Les rayons cosmiques.

- Etc, etc…

Le rôle des climatologues est d’analyser et de quantifier l’influence des différents facteurs sur le positionnement des deux leviers de commande, et surtout de faire la chasse aux éléments susceptibles de perturber l’équilibre délicat qui permet notre existence.

Le grand nombre des facteurs, leurs variabilités régionales et saisonnières ainsi que leurs interactions rend nécessaire l’utilisation de modèles informatiques pour tâcher de déterminer les grandes tendances.

Les mécanismes ne sont pas encore tous bien connus ni même tous identifiés. Une certaine modestie est donc nécessaire pour l’interprétation des résultats des modèles.

Ce délicat mécanisme a donc fonctionné convenablement depuis des temps immémoriaux.

Les choses ont commencé à se gâter à partir du moment où les Hommes ont acquis les moyens de tripoter les leviers de réglage que sont l’albédo et l’émissivité, sans vraiment en connaître le mode d’emploi:

Emissions inconsidérées de gaz à effet de serre, d’aérosols, de Méthane, de nombreux composés organiques volatils, modifications sensibles de l’environnement émissif-réflectif par la déforestation, la désertification, l’urbanisation envahissante, la destruction des zones humides, la pollution des océans, etc, toutes actions qui sont autant de manœuvres irresponsables des deux leviers qui contrôlent notre environnement.

Le CO2 n’est qu’un des agents perturbateurs de notre équilibre, mais il est loin d’être le seul, et peut-être n’est-il pas le plus important.

Mais ceci est une autre histoire…

Repost 0
24 novembre 2013 7 24 /11 /novembre /2013 16:20

La transition énergétique: une obligation de moyens.

25 Novembre 2013

Malgré une apparente atonie, les travaux préparatoires à la transition énergétique suivent leur cours.

Bien sûr le devant de la scène est occupé par l’éolien et le nucléaire, qui sont les acteurs médiatiques principaux.

Mais, dans l’ombre, les soutiers de l’énergie travaillent en silence pour préparer le terrain à l’arrivée des troupes renouvelables.

Parmi les travaux de terrassement indispensables à la mise en œuvre des outils de production d’énergie verte il y a le « Smart Grid ».

Aujourd’hui notre électricité est produite à 75% par le nucléaire, le reste étant fourni par l’hydraulique, quelques centrales thermiques et un peu de renouvelables.

Le principe étant d’avoir à disposition permanente les moyens de satisfaire la demande instantanée quelle qu’elle soit, en important du courant éventuellement en cas de dépassement des possibilités internes.

Ce système est un « pousse au crime » qui nous a conduit à tirer jusqu’à 100 GW certains jours fastes de grand froid, alors que la puissance moyenne ne dépasse pas 45 GW.

Cette gabegie ne peut plus durer.

Dans une perspective d’enchérissement de l’énergie il est devenu indispensable de gérer les utilisations qui en sont faites, à la fois selon les types d’usages et selon les modalités d’emploi.

D’autre part, et pendant encore plusieurs décennies, le panorama énergétique électrique verra cohabiter les moyens de production classiques déjà rappelés et les moyens nouveaux caractérisés par une grande diversité technologique ( Petit éolien, éolien terrestre, éolien offshore, solaire photovoltaïque, solaire thermique, pompes à chaleur, géothermie profonde, méthanisation de la biomasse, etc…) avec les problème nouveaux de l’intermittence et du stockage à prendre en compte.

Enfin il faudra aussi tenir compte de la multiplication des petits producteurs qui seront tantôt vendeurs, et tantôt acheteurs d’énergie électrique.

Pour gérer un système aussi complexe il est nécessaire de faire appel à un réseau interactif qui permette à la fois de recueillir les données d’utilisation et de négocier en temps réel l’établissement de sessions avec chaque utilisateur.

C’est le but du « Smart Grid » ( Réseau Intelligent) dont la brique de base est le compteur Linky, déjà abondamment décrit et autant décrié.

Dans le résidentiel il y a 35 Millions de logements à équiper. Les essais de validation phase I sont terminés, la phase II va être mise en œuvre et concerne 1 Million de compteur d’ici 2016.

Tous les logements doivent être équipés d’ici 2020.

Rappelons qu’il ne s’agit pas d’une fantaisie de ERDF pour faire du neuf avec du vieux, il s’agit tout bonnement de permettre la transition énergétique. C’est une condition « sine qua non », et ce n’est pas la seule.

L’investissement est évidemment à la mesure de la tâche.

A raison de 150 euros par logement ( fourniture et pose ) on dépasse les cinq Milliards.

Qui seront évidemment payés par l’usager et/ou le contribuable, qui sont généralement la même personne.

Chaque usager sera donc ponctionné de la somme nécessaire, éventuellement étalée sur plusieurs années.

Ponction qui devra être renouvelée autant de fois que nécessaire pour financer divers dispositifs tels que :

- Parcs éoliens offshore ( à 3 Millions d’euros le MW installé).

- Parcs solaires.

- Installations de stockage d’électricité.

- Installations de méthanisation.

- Mise à niveau du parc nucléaire vieillissant .

- Construction de quelques EPR

- Etc…

Le financement étant en général réalisé grâce au rachat de la production à un tarif de complaisance à partir d’une caisse remplie par la CSPE.

Le paragraphe « taxes et contributions » en bas de la facture ne tardera pas à devenir l’objet de toute notre attention.

« Quo non ascendet ? »

Repost 0
23 novembre 2013 6 23 /11 /novembre /2013 16:08

Le climat terrestre, une stabilité problématique.

23 Novembre 2013

La survie de certaines espèces exige un biotope bien précis.

A l’opposé, les espèces qui durent sont celles qui ont développé une grande faculté d’adaptation aux variations de l’environnement.

L’espèce Humaine était de celles-là, tout au moins jusqu’à la double explosion de la démographie d’une part, et de la technologie d’autre part.

La course au progrès nous a conduit à des modes de vie fondés sur une sophistication technique qui rend nos sociétés extrêmement vulnérables aux changement du milieu.

Toute perspective de changement climatique est devenue une menace ultime susceptible de remettre en question la survie de groupes humains importants.

La variation de la température moyenne de l’Atmosphère cristallise nos craintes de voir une telle menace se réaliser.

Mais, quelle est donc la valeur « normale » de la température de l’Atmosphère ?

La réponse du physicien est simple:

La température moyenne de l’Atmosphère à une époque donnée est celle qui correspond à l’équilibre thermodynamique entre l’énergie reçue du rayonnement solaire et l’énergie renvoyée dans l’espace par le globe terrestre. Lorsque les deux flux sont égaux la température est équilibrée.

Oui mais, équilibrée autour de quelle valeur ?

Notre physicien complète sa réponse:

Tout dépend du flux d’énergie solaire, et de l’albédo de la planète à l’époque en question.

Ces éléments, et d’autres non encore bien identifiés comme l’environnement cosmologique, changent naturellement au cours du temps. Il en résulte que l’équilibre thermodynamique est en recherche constante de la bonne valeur, ce qui se traduit par une alternance de périodes chaudes et de périodes glaciaires.

Le graphique N°1 est un relevé des température du paléoclimat terrestre déduites de l’analyse des carottes glaciaires de Vostok, qui remontent jusqu’à - 400 000 ans.

Le zéro correspond à la moyenne de 1950.

Ce graphique nous apprend beaucoup sur le climat de notre planète.

En premier lieu que la température de l’Atmosphère n’est pas constante et que les variations constatées sont naturelles.

En second lieu, que les fluctuations obéissent à une fonction périodique qui révèle l’influence de plusieurs phénomènes astronomiques simultanés de fréquences différentes.

Ensuite que les écarts globaux constatés sont contenus dans une fourchette de 11 °C, soit +/- 1,8% de la température thermodynamique moyenne qui est de 300 K, et ceci depuis au moins 400 000 ans. Ce qui est la preuve d’une régulation long terme très acceptable compte tenu des aléas cosmiques de la vie d’une planète associée à une étoile qui a elle-même sa propre vie et ses propres pulsations.

Remarquons que ces écarts de température n’ont jamais empêché la vie de se développer ici-bas, les températures indiquées n’étant que des valeurs moyennes, comme aujourd’hui. La valeur moyenne actuelle de +15°C s’accompagne de variations régionales et saisonnières avec des minimas de - 50°C et des maximas de +50°C .

Les espèces vivantes migrent pour rechercher l’environnement le plus favorable, à condition qu’elles en aient le loisir.

Eventuellement des espèces disparaissent au profit d’autres espèces mieux adaptées.

(Certains esprits chagrins prédisent que ce funeste destin pourrait bien être le nôtre).

Enfin, le graphique nous enseigne que la période actuelle correspond à la fin d’un pic post glaciaire d’amplitude relativement modérée ( +2°C au lieu de +3°C).

L’interprétation classique suggère une structure répétitive avec une forte probabilité d’approche d’une période glaciaire.

En effet la durée moyenne des trois périodes interglaciaires précédentes est de 16 000 ans ( limites prises à - 4°C), alors que la période actuelle dure déjà depuis 15000 ans.

N’importe quel expérimentateur familier de la lecture des graphiques conclurait à l’imminence d’une chute dramatique de la température.

Mais l’Humanité en général se soucie assez peu de ce qui est susceptible d’arriver dans mille ou deux mille ans.

Nos préoccupations s’étendent rarement au-delà du prochain siècle, et parfois beaucoup moins pour l’homo politicus.

Qui a dit « De mémoire de rose on n’a jamais vu mourir un jardinier… » ?

Voyons donc ce qu’il en est plus proche de nous, à l’époque dite historique.

Le graphique N°2 donne la courbe de température pour la période AD (Anno Domini).

Et là miracle ! La température est quasiment stable pour une durée qui pour nous est immense, bien que deux millénaires ne soient qu’un éclair dans les temps géologiques.

Comme quoi il suffit de choisir la bonne échelle pour trouver ce que l’on cherche.

Sur cette très courte période (un flash en temps géologique) les fluctuations sont réduites à une fourchette de 1,1 °C, soit +/- 0,2% de la température thermodynamique moyenne.

C’est un équilibre thermique quasi parfait, pour un système comportant de très nombreux paramètres qui de plus interagissent, avec de nombreuses boucles de rétroaction, certaines positives et d’autres négatives.

On peut considérer que de telles fluctuations peuvent être assimilées à un bruit de fond de - 50 dB , valeur très performante pour un système exposés à tous les aléas cosmiques.

Et pourtant on y signale quand même un optimum médiéval et un petit âge glaciaire, séparés l’un de l’autre seulement par un degré de température.

Déjà à cette époque les sociétés humaines étaient donc sensibles à de tels écarts minimes de température.

Mais sensible ne signifie pas vulnérable.

La « découverte » de l’Amérique a eu lieu au cours du petit âge glaciaire, tout est donc relatif.

L’épaisseur du dernier rapport du GIEC est un témoignage éloquent de la complexité extrême du système climatique.

Cette belle stabilité sur 2 000 ans autour d’une moyenne de +15°C a encouragé les savants à en faire la norme, au moins pour les deux prochains siècles.

(Remarquons que cette attitude est semblable à celle du joueur de casino qui, ayant gagné sur une série de coups, se persuade que le coup d’après sera lui aussi gagnant !).

C’est égal, tout écart significatif autour de + 15 °C doit désormais entraîner la recherche d’un coupable et la mise en œuvre de mesures correctrices.

Une docte assemblée a montré que l’Homme est capable de modifier la température de l’Atmosphère par ses émissions de gaz à effet de serre.

L’affaire du XXIè siècle est désormais le contrôle du climat, ni plus ni moins, grâce à une limitation drastique de la croissance du taux de CO2 atmosphérique.

Une limite « acceptable » a même été fixée, l’augmentation ne doit pas dépasser 2 °C sur le siècle par rapport à la valeur enregistrée en 1950.

Il s’agit de l’augmentation de température de cause anthropique, qui viendrait s’ajouter à ou se retrancher de la variation naturelle.

( Ce qui nous fait une belle jambe puisque la composante naturelle est précisément inconnue).

La lecture des climats du passé est certes instructive, mais elle est de peu d’utilité pour nous aider à produite des prévisions.

A l’échelle géologique on peut dire à peu près ce qu’il va se passer à +/- quelques millénaires près, mais à l’échelle humaine du siècle il vaut mieux faire appel à madame Irma.

Ou bien faire tourner un modèle informatique sur ordinateur, ce qui hélas peut revenir au même si l’on n’entre pas les bons paramètres, avec leurs valeurs correctes et si le software ne reproduit pas exactement le comportement réel de tout ce petit monde.

N’oublions pas que c’est en travaillant au MIT en 1960 sur un programme informatique de prévision météo tournant sur un ordinateur Royal McBee que Edward Lorenz découvrit la théorie du Chaos.

N’y voyons surtout aucun présage…

Le climat terrestre, une stabilité problématique.
Le climat terrestre, une stabilité problématique.
Repost 0
21 novembre 2013 4 21 /11 /novembre /2013 19:13

Controverse autour d’un non réchauffement.

23 Novembre 2013

Il y a du bruit dans le Landerneau de la climatologie.

Les relevés de température atmosphérique moyenne de la période 1998-2010 témoignent d’une évidente stabilité qu’il est difficile de glisser sous le tapis.

Après lissage des fluctuations, la valeur moyenne trouvée se maintient dans une fourchette inférieure à 0,1 °C, avec même une tendance à la décroissance selon certaines sources, notamment le Hadcrut.

Les modèles informatiques du GIEC avaient annoncé un réchauffement de 0,2 °C par décennie, mais Dame Nature en a apparemment décidé autrement.

Bien sûr les mauvaises langues vont bon train, certains font des gorges chaudes au sujet d’un réchauffement à tendance glaciaire, sur l’air de « On vous l’avait bien dit ».

Il y a certes une explication officielle. Les fluctuations de température observées habituellement sont le résultat de divers forçages radiatifs naturels et anthropiques, qui interviennent dans des boucles de rétroaction positives ou négatives. A un moment donné le résultat de toutes ces influences peut être positif ou négatif, conduisant à un accroissement ou une diminution de la température.

Tout cela est parfaitement naturel et conforme à ce qu’on peut attendre d’un système thermodynamique aussi complexe que celui qui régit le climat.

Les climatologues se sont donné pour objectif de prévoir l’évolution du climat à partir des connaissances passées et actuelles du système atmosphérique, incluant l’ensemble des phénomènes susceptibles d’influencer les éléments dans un sens ou dans l’autre.

Il s’agit non seulement de prévoir les variations du climat mais aussi, et surtout, les conséquences de ces variations sur l’environnement des espèces vivantes, et sur les espèces elles-mêmes.

Le paramètre choisi pour témoigner de l’évolution climatique est la température moyenne de la basse atmosphère. Ce choix n’est pas forcément le meilleur, mais il a le mérite d’être simple, clair, et de correspondre à une grandeur familière et médiatisée dans les bulletins météo.

( Les phénomènes climatiques extrêmes comme les Ouragans ou les tornades, sont en relation avec la composante cinétique macroscopique de l’énergie interne de l’Atmosphère, qui n’est qu’une faible part de l’énergie interne totale. Une augmentation significative de cette énergie cinétique auraient de graves conséquences climatiques sans forcément influer notablement sur la température, qui resterait relativement stable. D’où l’intérêt de ne pas s'intéresser seulement à la température).

Les indications fournies par les modèles informatiques sont des tendances générales sur des durées significatives de plusieurs décennies. Elles n’excluent pas la possibilité d’écarts dans un sens ou dans l’autre sur certaines périodes. La précision des modèles informatiques et les valeurs des paramètres y entrés ne sont pas suffisantes pour pouvoir garantir une image fidèle de la réalité à tout moments.

Lorsque la durée de ces « déviances » n’excède pas quelques années, il n’y a pas lieu de s’inquiéter, le modèle n’est pas mis en cause.

Par contre lorsque l’écart persiste pendant plus de dix ans, il y a lieu de se poser des questions. On doit rechercher une cause possible de divergence des résultats en analysant la vulnérabilité des hypothèses initiales, y compris le choix de la température comme critère d’évaluation du changement climatique. Ce travail contribue à renforcer la robustesse du modèle.

Bien sûr si l’écart persiste plusieurs décennies, c’est l’ensemble du modèle qui est remis en question.

Nous n’en sommes pas encore là…

Notre propos n’est pas de prendre parti dans cette controverse byzantine, mais d’attirer l’attention sur les ordres de grandeur du sujet de la querelle.

Pour affirmer avec quelque vraisemblance que la température de l’Atmosphère a varié de par exemple 0,2 °C , il faut être capable de mesurer la dite température avec une précision absolue de l’ordre de +/-02 °C. C’est le critère que l’on retient habituellement dans un labo de mesures, l’erreur systématique doit être inférieure au dixième de la grandeur mesurée.

L’Atmosphère est un système thermodynamique dont la température est référencée non pas à celle de la glace fondante ( Echelle Celsius), mais au zéro absolu, qui est égal à - 273,15 °C.

Une variation de 0,2 °C de la température atmosphérique correspond donc à une variation relative de 0,2 / 300 puisque la vraie température moyenne est égale à 300 K. ( en Kelvin).

( La Loi de Stefan-Boltzmann ne connaît pas les degrés Celsius, elle ne fonctionne qu’avec les températures absolues. Or c’est elle qui définit les températures des corps rayonnants, dont notre Planète).

Ce qui nous donne une précision de 6,6 dix millièmes ( 6,6/10 000).

Nous sommes donc en train de « chipoter » sur des dix millièmes de degrés de température absolue, alors que personne ne peut valablement mesurer de tels écarts, surtout s’agissant d’une valeur moyenne, et dans un système thermodynamique complexe en fluctuation permanente.

Il est donc peu pertinent de porter la querelle sur des poils de cheveux coupés en 6,6, il est probablement temps de rechercher d’autres manifestations plus évidentes de la menace climatique et surtout tâcher de s’en protéger.

Par exemple interdire les constructions en zones inondables, améliorer les protections des installations portuaires, réduire nos consommations énergétiques, préparer l’après pétrole, revoir les normes de construction pour résister aux tornades, suivre de près les changements de l’environnement pour adapter les cultures vivrières, contrôler l’exploitation des forêts, mesurer les évolutions des espèces marines, connaître les niveaux des océans, l’acidité des eaux, le régime des glaces, etc…

Toutes choses qui peuvent donner des indications sur le changement climatique beaucoup mieux que la recherche d’un huitième de poil de degré de variation d’une température moyenne insaisissable.

Songeons un instant que l’on ne connaît pas encore exactement la valeur du flux géothermique, alors qu’il intervient dans le bilan radiatif duquel dépend la température atmosphérique.

Rappelons aussi que la vapeur d’eau est le principal acteur de l’effet de serre, et que le rôle exact des nuages est encore controversé dans certains aspects non négligeables.

Et enfin gardons à l’esprit que le réchauffement mesuré ne cadre pas avec les calculs. Une part importante de la chaleur semble avoir disparu.

Et personne ne sait où…

Repost 0
13 novembre 2013 3 13 /11 /novembre /2013 12:04

Notre avenir énergétique, qui va le décider ?

13 Novembre 2013

Désormais plus personne ne remet en question la nécessité de réfléchir à notre avenir énergétique.

Ce nouvel état d’esprit s’est construit autour de plusieurs raisons:

Des raisons essentielles, comme la perspective d’épuisement et donc d’enchérissement des ressources fossiles, et/ou l’indispensable lutte contre le réchauffement climatique dû aux émissions anthropiques de CO2.

Des raisons contingentes, comme la recherche de l’indépendance énergétique, et/ou d’une relance économique s’appuyant sur des activités nouvelles.

Il existe un consensus sur les caractéristiques qui seront exigées des futures sources d’énergie:

Elles devront être renouvelables, décarbonées ou à carbone recyclable, et non polluantes.

Si les mérites de l’Hydraulique, du Solaire, de l’Eolien, de la Géothermie et de la Biomasse ne sont contestés par personne, il existe par contre une violente polémique autour de l’électronucléaire.

La controverse est alimentée par une double ambigüité:

Les réacteurs qui équipent les installations actuelles utilisent un combustible non renouvelable, donc non éligible au futur mix, tandis que les réacteurs de quatrième génération seront censés utiliser un combustible à régénération, donc conforme à l’esprit des critères de renouvelabilité, mais sont accusés de présenter des risques accrus de contamination.

La seconde ambiguïté est la menace de risques majeurs de santé publique à la fois en cas d’accident de type Fukushima ou Tchernobyl, et systématiquement au cours des processus de traitement et de stockage des déchets.

Aucune analyse scientifique ou technologique n’est en mesure de trancher le débat, les uns ont raison et les autres n’ont pas tort.

L’appréciation du risque acceptable n’est pas une affaire d’équation, mais de ressenti de la part de la population, de confiance dans les hommes chargés de concevoir et gérer les installations.

Il n’aura échappé à personne qu’aujourd’hui cette confiance est très entamée, et pas seulement dans ce domaine.

La notion de principe de précaution, très en vogue actuellement dans la population, condamne à priori le recours au nucléaire.

Mais le principe de réalité, très en vogue également mais chez les décideurs, impose au Gouvernement d’y réfléchir à deux fois avant de jeter le bébé avec l’eau du bain.

Reste à savoir quel principe l’emportera sur l’autre…

Dans un avenir dépourvu de sources fossiles, il serait possible de se passer du nucléaire.

A condition toutefois d’accepter plusieurs dizaines de milliers de grosses éoliennes au large de nos côtes ainsi que de grandes étendues de capteurs solaires, et de supporter les contraintes de l’intermittence de ces sources dépendantes de la météo.

En clair il faudrait user de l’énergie avec parcimonie et en acceptant les contraintes de disponibilité aléatoire, impliquant même de recourir à une certaine autosuffisance.

Tout cela est très possible.

Rappelons que le fameux compteur EDF Linky tant décrié est prévu pour apporter l’interactivité nécessaire à la gestion du réseau électrique.

Mais, même en cas de choix volontariste de cette stratégie d’énergie renouvelable, le développement de ces nouveaux moyens de production ne peut s’accomplir que dans la durée, typiquement plusieurs décennies, ce qui nous porte à l’échéance de 2040-2050.

La stratégie de transition doit donc prendre en compte une période de plusieurs décennies au cours de laquelle devront cohabiter les énergies nouvelles en phase de croissance et les énergies anciennes encore indispensables pour répondre à la demande.

Durant cette cohabitation une décision prématurée d’arrêt du nucléaire entraînerait l’obligation d’augmenter la part des fossiles, ce qui est imaginable mais pas bon pour les importations ni pour les émissions de CO2.

Une solution plus « soft » consisterait à remplacer progressivement le nucléaire par des renouvelables au fur et à mesure de leur disponibilité.

La troisième solution, celle des pro-nucléaire, repose au contraire sur le remplacement du parc nucléaire existant par des réacteurs EPR qui prendraient en partie le relais des fossiles, et permettraient d’attendre l’arrivée des renouvelables dans une certaine sérénité énergétique.

Toute la stratégie de transition énergétique repose donc sur la décision de conserver ou non une filière électronucléaire, tout le reste est contingent.

Ce choix a été malencontreusement instrumenté en monnaie d’échange au cours de la dernière campagne présidentielle, et maintenu depuis dans ce rôle pour conserver le soutien à la politique générale du Gouvernement.

Le choix de la stratégie nucléaire est donc biaisé par cette maladresse, qui transforme une démarche d’avenir en acte politicien de court terme.

Les grandes décisions énergétiques risquent donc d’être remises en question au gré des alternances électorales.

A moins qu’elles ne soient tout simplement glissées sous le tapis pour éviter d’en faire un enjeu électoral majeur.

Ce qui laisse le champ libre aux grands groupes industriels qui voient ainsi leur pouvoir augmenté et en profitent pour renforcer leurs positions.

C’est ainsi que le Gouvernement a reporté au-delà des élections municipales de 2014 ses décisions sur la transition énergétique, Alors que EDF Energy n’a pas attendu cette échéance pour signer un contrat avec l’Angleterre sur la vente de réacteurs EPR.

Il est évident que le pouvoir industriel n’est pas où il devrait être en matière de stratégie Nationale…

Repost 0