Overblog Suivre ce blog
Administration Créer mon blog
8 novembre 2010 1 08 /11 /novembre /2010 15:23

8 Novembre 2010

Le CO2 étant devenu l’ennemi public N°1 , il n’est pas inutile de faire un retour sur les méthodes utilisées par les chasseurs pour le débusquer.

La connaissance du CO2 contemporain ne nous apprend pas grand-chose; en effet, ce sont les variations du taux qui posent problème. Avant de porter un jugement sur un coupable éventuel, le juge s’intéresse à son passé. Nous devons donc remonter le temps pour tenter de reconstituer l’histoire du suspect.

L’activité actuelle des chasseurs de CO2 contemporain est organisée à l’échelle planétaire. On peut en trouver une brève description ici:

 

http://www.lefigaro.fr/sciences-technologies/2010/06/09/01030-20100609ARTFIG00755-mesurer-le-co2-dans-l-atmosphere.php

Ce qui nous intéresse aujourd’hui , c’est l’historique.

Nous devons distinguer plusieurs périodes:

- La période que nous appellerons « moderne » , qui s’étend de 1958 jusqu’à nos jours. C’est en effet en 1958 que débutèrent les campagnes systématiques de mesures du CO2 , avec des matériels performants ( analyseurs infrarouges) . C’est également en 1958 que Keeling initialisa ses longues séries temporelles ininterrompues jusqu’à son décès en 2005.

- La période que nous appellerons «pré-moderne » , qui s’étend de 1812 environ jusqu’à 1958, pendant laquelle des campagnes de mesures directes ont été menées par différents scientifiques , avec des méthodes chimiques variées, en des lieux divers et avec des matériels différents.

- La période que nous appellerons « ancienne », qui s’étend jusqu’au passé le plus lointain, et pour laquelle il n’existe aucun relevé de mesure directe.

La période moderne est bien documentée. Au fil du temps la planète s’est couverte de nombreuses stations de mesures, les méthodes de dosage étant basées sur la spectroscopie infrarouge. Pour des raisons qu’il ne nous appartient pas de juger, c’est la courbe des relevés du Mauna Loa ( courbe de Keeling) qui fait aujourd’hui autorité.

La période pré-moderne est beaucoup moins bien renseignée. De nombreuses séries de mesures existent , mais sans série temporelle longue. De plus les méthodes de dosage chimiques utilisées sont variées , quoique bien décrites et dignes de confiance ( ces travaux ont été effectués par des chimistes de renom).

Un récapitulatif de ces travaux a été effectué par Ernst Georg Beck , qui a réalisé une compilation des relevés de mesures .

L’IPCC n’a pas pris en compte les mesures chimiques de la période pré-moderne, arguant de l’imprécision des méthodes utilisées, sans justification convaincante.

Les valeurs retenues officiellement sont dérivées des résultats d’analyse des carottes glaciaires, méthode contestée par ailleurs, surtout pour les époques récentes.

On trouvera plus de détails ici:

 

http://www.liberterre.fr/gaiasophia/gaia-climats/dioxyde-carbone/analyse.html

avec de nombreux liens de grand intérêt.

Il ne nous appartient pas de décider qui a tord et qui a raison, ceci dépasse notre compétence. Il faut savoir simplement qu’il y a polémique ( une de plus !) sur la valeur du taux de CO2 pré-industriel.

Or, toute la stratégie de lutte contre le CO2 est fondée sur le postulat d’un faible taux de CO2 pré-industriel. Si ce postulat se révélait faux c’est l’ensemble de la stratégie qui serait remise en cause.

Comme on pouvait s’y attendre, le problème se complique pour la période ancienne.

Ici, aucun relevé de mesure directe du CO2.

Heureusement, il existe des témoins du climat qui permettent de se faire une idée des climats anciens, et parmi ces témoins quelques-uns donnent même des indications sur le possible taux de CO2 de leur époque ( quand elle peut être déterminée évidemment).

La méthode la plus en vogue repose sur l’analyse des bulles d’air emprisonnées dans la glace . Disons rapidement de quoi il s’agit:

Dans les zones où la neige et la glace recouvrent le sol en permanence, il se produit une transformation progressive des couches successives parfois emplilées sur plusieurs kilomètres d’épaisseur ( Arctique et Antarctique). Lors de l’empilement des couches de neige, la structure de ce manteau reste poreuse jusqu’à une profondeur de l’ordre du mètre, restant de ce fait en communication avec l’air extérieur. Cette couche s’appelle le « firn ». La profondeur du firn dépend du lieu, du climat, de la nature et de la fréquence des précipitations.

Au-delà de cette couche poreuse , la pression devient telle que la porosité du matériau disparaît, constituant un piège pour les bulles d’air présentes. L’air ainsi emprisonné correspond à l’atmosphère du moment de la formation de cette glace dure. Le temps de formation de cette couche de transition est variable selon l’endroit et les circonstances. Il peut être couramment de plusieurs milliers d’années.

Les bulles d’air emprisonnées sont donc plus jeunes de quelques milliers d’années que la glace qui les entoure.

Il « suffit » donc de prélever un échantillon de glace et d’analyser la composition des bulles d’air pour connaître la composition de l’atmosphère de l’époque, à condition de savoir déterminer l’époque, ce qui n’est pas une mince affaire. Ceci est fait en général à partir de l’analyse des différentes couches annuelles caractéristiques et d‘analyses isotopiques.

La gaz carbonique est présent dans l’atmosphère à l’état de traces. La concentration actuelle est de 380 ppm (380x10-6), ce qui est extrêmement faible. Pour mesurer une telle concentration de manière suffisamment précise pour apprécier les variations annuelles, il faut une méthode dont la précision globale est de l’ordre de 1 ppmv, soit un millionnième!

Les spécialistes de l’expérimentation et de la mesure savent qu’une telle précision ne peut pas être obtenue à partir de prélèvements sur le terrain.

Le processus qui relie le dosage du CO2 dans un certain échantillon de gaz bullaire , au taux de CO2 dans l’atmosphère de telle époque , comprend de nombreuses étapes et beaucoup de causes d’erreur:

- La différence entre l’âge de la glace et l’âge de l’air contenu dans les bulles n’est pas connu avec précision. Nous avons vu qu’il dépend du lieu et des circonstances de la formation des couches. Une erreur de plusieurs milliers d’années est courante.

- Les bulles emprisonnent l’air, mais aussi tout ce qui se trouve dans l’atmosphère du moment, les poussières, les microorganismes. Au fil des milliers d’années ces composés peuvent réagir avec le CO2 et les autres gaz avec pour résultat possible une augmentation ou une diminution de la concentration initiale du gaz mesuré.

- Lors des prélèvements on s’efforce de ne travailler que sur des portions de carottes en bon état visuels. Mais il peut exister des microfissures dans le matériau, entraînant une migration des composés emprisonnés , faussant ainsi la mesure.

D’autres erreurs peuvent être introduites au cours des mesures elles-mêmes.

Des détails peuvent être trouvés ici:

 

http://hubpages.com/hub/ICE-Core-CO2-Records-Ancient-Atmospheres-Or-Geophysical-Artifacts

avec de nombreux liens.

Le socle sur lequel est bâtie la stratégie de lutte contre le CO2 n’a donc que la stabilité qu’on veut bien lui accorder.

Il apparaît de plus en plus évident que la prochaine décennie devra être consacrée , entre autres, à l’approfondissement de nos connaissances du système Terre présent et passé, avant de décider d‘investir des milliers de milliards dans des réalisations dont la justification repose sur des base aussi fragiles.

Repost 0
7 novembre 2010 7 07 /11 /novembre /2010 15:57

7 Novembre 2010

Lors de la parution en 2007 du dernier rapport de l’IPCC ( GIEC ) , une bronca s’est élevée au sein de la communauté scientifique indépendante, relayée et amplifiée par les médias, sous forme de querelles ad hominem entretenues pas la parution d‘ouvrages « grand-public » souvent outranciers et non dénués d‘intentions politiques.

Une fois calmée cette effervescence, il a bien fallu instruire le dossier . Il est apparu que beaucoup de questions demeuraient sans réponses précises, ou pire, que les réponses proposées étaient insuffisamment étayées. Il devint alors évident qu’avant de mettre en œuvre des mesures correctrices lourdes et coûteuses, il était nécessaire d’établir scientifiquement un état des lieux détaillé afin de disposer d’un corpus de données fondées sur des mesures fiables , fournissant un outil d’analyse adapté à l’importance de l’enjeu.

De nombreux problèmes sont encore insuffisamment étudiés, qui ont une influence plus ou moins directe sur le climat:

- Les influences astronomiques.

- Le rôle des rayons cosmiques.

- L’influence des variations de l’activité solaire.

- La biochimie des océans.

- Le rôle exact de la couverture nuageuse.

- L’importance des GES autres que le CO2.

- Le rôle des courants marins.

- L’influence des activités humaines.

- Les cycles du carbone.

- Etc…..

La prochaine décennie sera donc consacrée à la mise en œuvre de programmes de recherches et de mesures dans chacun de ces domaines, programmes fondés sur les connaissances les plus avancées en matière de technologie, notamment l’utilisation des satellites.

L’objectif est bien sûr d’améliorer nos connaissances du système Terre, mais surtout de chiffrer précisément la responsabilité de l’Homme dans les changements climatiques.

Le témoin du changement climatique est en premier lieu la température moyenne de la basse atmosphère, dont la valeur est déterminée comme le résultat d’un équilibre radiatif obtenu grâce à l’effet de serre. Les gaz à effet de serre ( GES ) sont divers, les principaux étant la vapeur d’eau, le dioxyde de carbone , le méthane, les oxydes d’azote. Les activités humaines étant directement productrices de dioxyde de carbone, c’est donc principalement ce gaz qui doit faire l’objet de recherches poussées.

Une analyse détaillée des cycles du carbone est indispensable avant de pouvoir se prononcer de manière pertinente sur l’impact des activités humaines sur le climat.

Dans ce cadre nous présentons ici le programme américain de recherche pour la décennie 2010-2020.

Ce programme pose trois questions scientifiques fondamentales:

1- Comment les processus naturels et les activités humaines affectent-elles le cycle du carbone sur Terre, dans l’atmosphère, et dans les océans ?

2- Comment les décisions politiques et de management affectent-elles les niveaux des gaz carbonés, du dioxyde de carbone et du méthane dans l’atmosphère ?

3- Comment les écosystèmes, les espèces et les ressources naturelles sont-ils affectés par l’accroissement de la concentration des gaz à effet de serre ?

Pour répondre à ces questions , le programme de travail suivant est décliné:

- Fournir des explications appropriées et claires concernant les variations observées passées et présentes des gaz atmosphériques CO2 et CH4, avec évaluation de l’incertitude.

- Vérifier et quantifier les émissions et séquestration anthropogéniques de carbone, par des méthodes claires et utiles pour les décideurs.

- Déterminer les stocks et les flux de carbone les plus vulnérables au changement de climat ou de gestion de l’environnement. Porter une attention particulière aux « feedbacks » positifs pouvant affecter les sources ou les puits dont le rôle dans la stabilisation du climat est critique.

- Décrire les modifications apportées aux écosystèmes, à la biodiversité, et aux ressources naturelles sous différents scénarios de changement du taux de CO2 et de changement climatique.

- Déterminer les chances de succès et les risques de conséquences imprévues des programmes de gestion du carbone qui pourraient être mis en œuvre pour atteindre un futur « pauvre en carbone ».

- Comprendre les besoins des décideurs en matière d’information présente et future sur le cycle du carbone, et fournir les données et les prévisions utiles, crédibles et légitimes pour leurs décisions.

- Etablir des bases de données et leurs systèmes de gestion pour les variables clés du système carbone, et entreprendre des enregistrements à long terme pour détecter les changements.

Parmi les réalisations envisagées pour ce programmes on peut citer:

- Satellites d’observation pour les paramètres relatifs au carbone.

- Investigation pour faire la part de la variabilité naturelle et des changements anthropogéniques.

- Synthèse des observations, des résultats expérimentaux, et des modèles, pour réduire l’incertitude des prévisions des modèles et accroître leur pertinence.

- Etablissement d’une communication bi-directionnelle entre la communauté scientifique du carbone et le public.

L’ensemble du dossier peut être obtenu ici:

 

http://www.carboncyclescience.gov/documents/CCSWG-Recommendations-Summary-Nov09.pdf

Un tel programme pour la prochaine décennie prouve, s’il en était besoin, que les américains n’ont pas l’intention de mettre la charrue avant les bœufs, ni de prendre des vessies pour des lanternes…..

 

 

 

 

 

 

 

 

 

.

Repost 0
6 novembre 2010 6 06 /11 /novembre /2010 18:51

6 Novembre 2010

Le Mauna Loa est un volcan encore actif culminant à 4 170 mètres, situé sur l’île d’Hawaï , de l’archipel éponyme, qui comporte dix-neuf îles ( Autrefois îles Sandwich ) . Il voisine avec un autre volcan, le Kilauea, sur la même ïle, à 25 kms. Les deux cratères entrent en éruption plus ou moins alternativement à intervalles de quelques années. La dernière éruption eut lieu en 1984, 33 éruptions se sont produites depuis 1843 . L’archipel est la partie émergée de la dorsale d’Hawaï et d’une chaîne montagneuse sous-marine, les Monts de l’Empereur , résultat de l’activité permanente d’un point chaud du manteau terrestre ( La machine à coudre les volcans ).

Cette activité régulière et menaçante a motivé la création d’un observatoire volcanique dès 1912 ( Observatoire Volcanique d’Hawaï, HVO ). Autour de cet observatoire se sont greffées diverses activités en rapport avec le volcanisme, et l’altitude et la pureté de l’atmosphère ont permis la création d’un observatoire astronomique ( Mauna Loa Observatory , MLO ) aujourd’hui rattaché au NOAA ( National Oceanic and Atmospheric Administration ).

Lorsque le besoin d’un site de mesure du CO2 atmosphérique loin des villes s’est fait sentir, le complexe du Mauna Loa fut retenu, malgré la grande proximité du cratère actif émetteur de CO2.

Le centre de mesures est situé sur le flanc du volcan, à 6 kms du cratère et à une altitude de 3 400 mètres. Le choix de cet emplacement a suscité des critiques à cause de l’altitude et surtout de la proximité de deux cratères en activité. Ces critiques sont toujours d’actualité, mais les relevés de mesures de ce site sont toujours considérées comme une référence.

Les mesures ont débuté en 1957 sous le contrôle de Roger Revelle, relayé par Charles David Keeling dès 1958 jusqu’à une époque récente ( décédé en 2005 ), ce qui permet de disposer d‘une remarquable série temporelle ininterrompue sur un demi siècle (connue sous l‘appellation de «Courbe de Keeling » ).

Pendant toute cette longue période, Keeling supervisa également d’autres campagnes de mesures du CO2 par voie aérienne et maritime, ainsi que les travaux de plusieurs stations terrestres.

Vers la fin des années 70 il prit l’initiative de compléter la mesure du taux de CO2 par la mesure du rapport isotopique C12/C13, et d’étendre ce processus à tout le réseau. La connaissance de ce rapport permet de « tracer » le CO2 et d’en connaître la source, ce qui contribue grandement à une meilleure analyse du cycle du carbone. Il mit ainsi en évidence les cycles saisonniers du CO2 et leur corrélation avec le rapport isotopique, permettant d’établir le lien avec les cycles écologiques de la photosynthèse. Ce qui a permis de montrer entre autres que le printemps est actuellement en avance de une semaine par rapport aux années soixante. C’est encore lui qui détermina la proportion ( 55% ) du CO2 anthropique restant dans l’atmosphère.

Pour en savoir plus:

 

http://scrippsco2.ucsd.edu/sub_program_history/charles_david_keeling_biography.html

Les mesures du taux de CO2 ont été ( et sont encore) effectuées avec un appareillage basé sur l’absorption des infrarouges par le CO2. Il s’agit d’une mesure sélective utilisant une fréquence caractéristique de ce gaz, après élimination cryogénique de la vapeur d’eau. Les matériels suivants ont successivement été mis en œuvre:

Applied Physics corporation, jusqu’en 1974, avec une précision de 0,1 à 0,2 ppm.

Hartman & Braun ( URAS-2 ) jusqu’en 1987.

Siemens ULTRAMAT-3 à partir de 1987, avec une précision meilleure que 0,01 ppm.

Le taux de CO2 est mesuré plusieurs fois par heure.

La proximité des deux volcans induit un parasitage des relevés par émission de CO2. D’une part évidemment lors des éruptions, et d’autre part de manière aléatoire le reste du temps sous forme de dégazage comme on peut en attendre de cratères en activité.

La station étant à faible distance du cratère Mauna Loa ( 6 kms ), les flux de CO2 volcanique lui parviennent directement, affectés de modulation en fonction des vents et du moment de la journée ( notamment lors des inversions de température nocturnes).

Il faut donc corriger les mesures de la valeur de ce parasitage, qui est variable et imprévisible. Le principe retenu et le processus mis en œuvre reposent sur un filtrage passe-bas tenant compte de la relative rapidité des fluctuations parasites.

Des détails:

 

http://www.esrl.noaa.gov/gmd/obop/mlo/programs/esrl/volcanicco2/volcanicco2.html

Chapitre: Volcanic CO2 émissions at mauna Loa

Egalement:

 

http://www.esrl.noaa.gov/gmd/obop/mlo/programs/esrl/volcanicco2/Estimating%20Volcanic%20CO2%20Emission%20Rates%20from%20Atmospheric%20Measurements%20on%20the%20Slope%20of%20Mauna%20Loa%20(2001).pdf

La « courbe de Keeling » , retenue aujourd’hui par l’IPCC comme l’image exacte de la moyenne globale planétaire des variations du taux de CO2 depuis 1958, est le résultat de l’interprétation des données relevées au Mauna Loa, après corrections du CO2 volcanique.

Bien que la courbe de Keeling soit gravée dans le marbre ( au sens propre ) elle ne fait pas l’unanimité au sein de la communauté scientifique. L’augmentation du taux de CO2 qu’elle révèle n’est cependant pas contestée, ce qui est tout de même l‘essentiel.

La recherche des causes de cette augmentation est une autre histoire……

Justement, pour écrire la suite de l’histoire, il est devenu nécessaire de disposer de méthodes de mesure du CO2 plus modernes et ne prêtant pas le flanc à la critique. Ces méthodes sont en cours de développement, et sont basées sur des relevés satellitaires . Le CO2 sera ainsi mesuré en tous points de la planète avec un maillage très serré permettant de situer précisément et de quantifier les sources et les puits de carbone.

 

 

 

 

 

 

Repost 0
5 novembre 2010 5 05 /11 /novembre /2010 11:02

5 Novembre 2010

Le mouvement écologique a permis d’identifier les dangers que l’Humanité doit affronter pour assurer sa survie à long terme:

Surpopulation, famines, pénurie d’eau potable, guerres, pollutions, pauvreté, maladies, atteinte à la biodiversité, catastrophes naturelles, etc, etc…..

Parmi toutes ces menaces , dont chacune suffirait à mobiliser les énergies, les gouvernements de la planète ont décidé qu’il était urgent de s’occuper du changement climatique . Cette décision a été prise sur la foi de rapports alarmistes sur le réchauffement climatique laissant présager les pires catastrophes naturelles à brève échéance, et désignant l’Homme comme unique responsable du cataclysme annoncé.

Le système Terre est extraordinairement complexe, impossible à décrire simplement; pour emporter l’adhésion des décideurs de la planète, et l’approbation des populations, il fallait donc exposer un concept simple, compréhensible du plus grand nombre et aisément quantifiable. On désigna donc un agent perturbateur principal, le dioxyde de carbone, et son acolyte , l’Homme. Celui-ci fournissant celui-là par la consommation excessive des énergies carbonées.

L’Homme fut donc prié de cesser d’émettre du CO2.

Toute quête du graal est un parcours initiatique semé d’embûches. En l’occurrence on s’aperçu assez rapidement que toutes les mesures visant à réduire le rythme des émissions de CO2 auraient pour résultat d’étaler la pollution sur une période plus longue , mais ne changeraient en rien la quantité de gaz émis. Le principe de réalité ne peut pas être contourné.

Restait alors une seule solution: glisser le CO2 sous le tapis, c’est-à-dire s’en débarrasser d’une manière ou d’une autre.

Il fut vite évident que la seule méthode envisageable à moyen terme était de l’enfouir dans le sous-sol de la planète.

De nombreux milliards furent alors distribués pour mettre sur pied les projets adéquats et monter des démonstrateurs, suivis plus tard des réalisations industrielles.

Survinrent alors deux problèmes:

L’enfouissement du CO2 dans le sous-sol n’est pas sans risque. les défenseurs de la Nature eurent vite fait de dénoncer cette nouvelle pollution, arguant de possibles fuites et déstabilisations des terrains. Ce qui n’est pas faux si l’on considère les quantités énormes concernées à long terme.

Par ailleurs la mise à l’index du CO2 sous-entendait de facto le recours au nucléaire comme énergie de remplacement dans le futur, un véritable sacrilège pour la communauté écologiste. On comprend leur émoi, même si on ne le partage pas complètement.

Cette diabolisation du CO2 eut pour résultat de placer ce dioxyde sur un pied d’égalité avec le nucléaire au plan des nuisances. On avait donc le choix entre la peste et le choléra.

Aussi, certains se résolurent-ils à aller voir de plus près cette histoire de réchauffement anthropique. Peut-être qu’après tout la menace pourrait ne pas être aussi catégorique ni aussi urgente, et la culpabilité « anthropique »  plus nuancée.

Le doute est une graine difficile à planter, mais qui , une fois germée, devient vite envahissante pour peu qu’elle reçoive une nourriture de bon aloi.

On ouvrit donc la boîte de Pandore.

Il s’ensuivit la polémique que l’on sait , d’une part sur la validité des modèles climatiques accusateurs, et d’autre part sur l’interprétation à l’usage des «décideurs de la planète » . Sans entrer dans les détails ( on a déjà précédemment évoqué quelques points) disons qu’il devint nécessaire d’intervenir en haut lieu. L’IAC ( Inter Academy Council ) servit d’arbitre dans ce conflit d’experts.

Le prochain rapport d’avancement de l’IPCC ( GIEC) , prévu pour 2014, devrait présenter un tableau de la situation plus réaliste, et surtout tenant compte de tous les résultats scientifiques , y compris ceux qui ne vont pas dans le sens du politiquement correct, ce qui n’était pas le cas jusqu’à présent.

La découverte de ce dysfonctionnement d’un organisme intergouvernemental politico-scientifique a jeté , pour longtemps, le trouble dans la communauté scientifique et semé un ferment de méfiance dans les populations vis-à-vis de la Science en général et des instances de décision en particulier.

On peut toutefois en tirer quelques leçons :

- Les découvertes scientifiques ne sont jamais le résultat d’un consensus.

( ce n’est pas un vote qui a décidé que la Terre tourne autour du Soleil )

- Le principe de non recouvrement des magistères ne doit jamais être violé.

( On ne mélange pas la Science avec la Politique) .

- Les modèles mathématiques ne sont que des outils, ils ne peuvent pas remplacer l’observation, la théorie, l’analyse et la compréhension des phénomènes.

- Un résultat scientifique doit toujours pouvoir être remis en cause, la connaissance scientifique n’est jamais figée, sinon elle devient une religion.

Il nous reste à espérer que ces « quatre piliers de la sagesse » soutiendront les futurs débats « intergouvernementaux » dont l’IPCC a le secret.

Gageons par ailleurs que nos gouvernants y regarderont désormais à deux fois avant de se lancer tête baissée dans des actions planétaires fort coûteuses , sur la base d’affirmations fondées sur des données discutables et des modèles mathématiques abscons.

Repost 0
4 novembre 2010 4 04 /11 /novembre /2010 18:28

5 Novembre 2010

La réunion plénière de l’IPCC ( GIEC) s’est tenue à Busan ( Corée du Sud ) la semaine dernière. Le programme portait sur la prise en compte des recommandations de l’IAC ( Inter Academic Council ) et la mise en œuvre des dispositions adéquates.

Rajendra Pachauri a été maintenu dans ses fonctions, contre les attentes d’une partie de la communauté. L’éventualité de son remplacement n’aurait même pas été évoquée.

Il a été décidé de constituer de nouveaux groupes de travail et d’implémenter la méthodologie recommandée par l’IAC. Ces groupes et leurs programmes de travail seront présentés lors de la prochaine session plénière en Mai 2011 à Abu Dhabi.

Le cinquième rapport d’avancement ( AR 5 ) reste planifié pour fin 2014.

Il ne faut pas attendre de grands changements de cette « révolution douce » . Sauf si la « bronca » qui monte de la communauté scientifique indépendante se révèle suffisamment forte pour ébranler les convictions politiques des décideurs de la planète. Il faudra bien, alors, ouvrir la boîte de Pandore….

 

Repost 0
15 octobre 2010 5 15 /10 /octobre /2010 19:51

15 Octobre 2010

On peut lire sur le site de Greenpeace cette injonction pour le moins surprenante:

«Pour Greenpeace, le captage et le stockage du charbon ne peuvent pas être une solution. C'est une option à abandonner » .

( Lire bien sûr « carbone » à la place de « charbon ». Traduttore, traditore. ).

 

http://www.greenpeace.org/france/campagnes/energie-et-climat/fiches-thematiques/captage-et-stockage-du-co2

Quelques motivations sont fournies sommairement sans justification, qualifiant la technique CSC (Capture et Séquestration du CO2) de trop lointaine, trop énergivore, trop chère, et trop dangereuse.

Nous voilà donc habillés pour l’hiver.

Pour une fois que les industriels prennent au sérieux les menaces du GIEC et entreprennent des travaux pour limiter les dégâts d’un excès de CO2, cela ne convient pas à Greenpeace.

Bien évidemment cette honorable organisation ne propose aucune solution de rechange, le réalisme n’étant pas sa tasse de thé.

En fait on connait très bien sa solution de rechange, c’est l’arrêt du progrès lié à l’énergie, qui sous tend l’arrêt du progrès tout court. Ce sont les fondements de la « Deep Ecology », qui prône le renoncement au développement, même durable, et le retour à une économie de subsistance pour ne pas dire de survie. La suggestion de remplacer les combustibles fossiles par l’éolien et le photovoltaïque ne méritent même pas nos commentaires….

Cette opposition aux projets CSC s’est trouvé un gourou en la personne de Gary Shaffer, de l’Université de Copenhague. Il a commis un article très médiatisé, dans lequel il détaille différents scénarios de CSC et tente d’en montrer l’inconsistance. En fait il s’agit d’un plaidoyer sans fondement sérieux, qui exacerbe les craintes des populations en présentant comme des menaces certaines des éventualités qui sont des risques potentiels parfaitement connus des responsables , et dont l’analyse préventive fait l’objet de nombreux projets pilotes de par le monde. Faire passer les scientifiques et les ingénieurs de recherche et développement pour des charlots inconscients est une posture populiste dont la portée ne dépasse pas les limites des comptoirs de bistrots ou des revues de vulgarisation complaisantes.

Arrêter les émissions anthropiques de CO2 dans un court délai est un souhait parfaitement utopique. Autant chercher à imposer à la Chine, à l’Inde, à l’Afrique et à d’autres le renoncement immédiat à leur développement économique et donc à l’accès à l’énergie. Certes, dans vingt ou trente ans, les énergies propres seront en mesure de participer significativement à certains besoins de la planète, mais rien ne permet d’affirmer que l’on pourra se passer complètement des énergies traditionnelles, surtout pendant la période intermédiaire.

Alors, puisque le CO2 continuera d’être émis, n’est-il pas légitime de chercher à le mettre quelque part ?

Repost 0
13 octobre 2010 3 13 /10 /octobre /2010 19:16

13 Octobre 2010

France Loisirs et la librairie Chapitre.com, tous deux du groupe Betelsmann, ont mis en place un service de vente d’ouvrages numériques .

Un lecteur à bas coût ( Oyo ) va être proposé ( fin Octobre 2010) à 149 euros, avec un accès aux contenus des plateformes Eden-Livres, Editis et Numilog, directement par Wi Fi.

On peut penser que, par la suite, le lecteur sera proposé en vente liée avec l’abonnement dans des conditions plus avantageuses.

Le copyright est protégé par watermarking contenant le nom et l’adresse e-mail de l’aquéreur afin de permettre le traçage du fichier.

L’ouvrage numérique est vendu 20% en-dessous du livre papier.

L’accueil réservé à cette offre sera évidemment suivi avec attention par les services marketing du monde de l’Edition.

Repost 0
11 octobre 2010 1 11 /10 /octobre /2010 18:36

11 Octobre 2010

Le tapage médiatique orchestré autour du réchauffement climatique peut donner à penser que les décideurs de la planète restent indifférents au problème malgré les mises en gardes réitérées des climatologues.

Heureusement il n’en est rien. Les scientifiques n’ont pas attendu les menaces proférées médiatiquement par les gourous du réchauffement pour prendre conscience de l’importance des changements climatiques dans les modifications de l’environnement, et en particulier du rôle des activités humaines dans ces changements. Les gesticulations politiques n’ont que peu d’influence sur la sérénité des chercheurs et sur la marche de leurs travaux. Elles peuvent cependant jouer un rôle sur les financements.

Le rôle du CO2 est connu depuis fort longtemps. En 1896, Svante August Arrenhius montra qu’un doublement de la concentration de ce gaz dans l’atmosphère pourrait entraîner une élévation de la température moyenne de + 4 °C.

Plus d’un siècle plus tard, les modèles mathématiques du GIEC/IPCC ne sont pas plus précis.

Le schéma de développement de notre civilisation étant ce qu’il est, c’est-à-dire fondé sur la consommation d’énergie fossile, et prenant acte que ce schéma n’était pas prêt de changer, les scientifiques ont vite compris que l’on ne pourrait éviter un accroissement considérable des émissions de CO2 au cours du présent siècle.

Il existe des mécanismes naturels de régulation du climat, mais ces mécanismes sont mal connus. En particulier on ignore les limites de la plage de régulation; jusqu’à quel taux de CO2 la régulation naturelle peut-elle fonctionner ?

L’étude des climats passés montent que sous certaines conditions la Terre a basculé dans des situations climatiques extrêmes. Des variations de température de quelques degrés étaient parfaitement tolérées il y a quelques centaines de milliers d’années. La faune et la flore s’adaptaient à cette nouvelle situation . Certaines espèces disparaissaient , et étaient remplacées par d’autres.

De telles conditions seraient aujourd’hui fortement préjudiciables à la survie de la civilisation.

L’humanité a proliféré dans des conditions telles que toutes ses niches écologiques favorables ont été occupées, en sorte que le moindre changement des conditions environnementales entrainerait de graves conséquence sur les populations.

En clair nous ne pouvons plus nous permettre de changer un bouton de culotte sans risquer de provoquer une catastrophe humaine planétaire.

Il y a de nombreux paramètres qui participent à la formation du climat de la planète. Le niveau des radiations solaires, les éruptions solaires, les rayons cosmiques, le volcanisme, la température des océans, les courants marins, les faunes océaniques, la végétation terrestre, les neiges et les glaces, les nuages, les activités humaines , etc, etc….

Nous ne pouvons agir directement que sur quelques-uns de ces paramètres, ceux qui sont liés aux activités humaines: la couverture végétale ( agriculture, sylviculture, urbanisation ) , le contrôle des émissions anthropiques de gaz à effet de serre, l’exploitation des océans, la gestion de l‘eau, la pollution. Les autres paramètres ne sont pas à notre portée ce contrôle direct.

Il existe un courant de pensée qui place le contrôle de la démographie parmi les paramètres d’ajustement. Nous n’aborderons pas cette éventualité.

Les scientifiques se préoccupent depuis longtemps de la bonne gestion des paramètres climatiques « anthropiques ». Il existe de nombreux programmes pour le développement durable , le protection des océans, la gestion des ressources en eau, la lutte contre la déforestation, le traitement des déchets.

Le contrôle des émissions anthropiques de gaz à effet de serre concerne essentiellement de CO2. Il est apparu assez rapidement que le simple contrôle des émissions est nécessaire, mais non suffisant. Il est nécessaire pour réduire rapidement le taux de croissance des émissions, mais il ne modifie pas la quantité globale de CO2 émis;

La réévaluation des réserves de combustibles fossiles , et la perspective du développement des carburants liquides de remplacement , laissent penser qu’une quantité considérable de CO2 sera émise au cours du siècle à venir.

La seule solution pour contrer ce problème reste donc la séquestration du CO2 excédentaire.

De nombreux programmes de recherche et développement ont été lancés depuis plusieurs années autour de la capture et de la séquestration du carbone. Ces travaux sont gérés par des entités à couverture planétaire:

L’AIE ( Agence Internationale de l’Energie) , Organisation intergouvernementale comportant 28 pays membres, créée en 1974. Son rôle a été récemment étendu aux politiques énergétiques liées aux changements climatiques.

Le CSLF ( Carbon Sequestration Leadership Forum) , Organisation internationale comportant 25 membres ( 24 pays + l’Union Européenne ) créée en 2003. Représente 60% de la population mondiale. Sa mission est de faciliter le déploiement des technologies relatives au programme CCS ( Carbon Capture & Sequestration).

G8/ Plan d’action « Gleneagles ». Confirme les programmes du CSLF et pose les base d’une coopération avec l’AIE.

FP7/ Framework Programme 7è phase. Programme de recherche et développement pour l’Europe.

La communauté Européenne a émis en 2009 la « Directive Européenne sur le stockage géologique du CO2 », qui doit être transposée par les pays membres en règlements nationaux à l’horizon 2011.

Une liste des programmes déjà terminés ou en cours sous l’égide du CSLF est disponible sur ce site:

 

http://www.cslforum.org/publications/documents/CSLFRecognizedProjectsOctober2010.pdf

Les outils sont donc en place ou en voie de développement pour la maîtrise du programme CCS. L’objectif envisagé à l’horizon 2050 est de limiter la concentration du CO2 à 450ppmv.

Malgré la mauvaise impression laissée par l’échec de Copenhague, il est donc évident que les Etats ont pris conscience du problème et ont entrepris les programmes de recherche et développement appropriés.

Repost 0
11 octobre 2010 1 11 /10 /octobre /2010 11:49

11 Octobre 2010

Le tintamarre médiatique généré autour du réchauffement climatique prend sa source dans un document fondateur qui est la courbe de l’évolution du taux de CO2 dans l’atmosphère. Cette courbe est devenue le saint Graal de la lutte contre le changement climatique, au point qu’elle figure, gravée sur une plaque de bronze, à l’entrée de l’observatoire du Dr.Keeling , prophète de la nouvelle religion. On ne peut s’empêcher de tenter un rapprochement (discutable j’en conviens) entre le Mauna Loa et le mont Sinaï, entre la courbe de Keeling et les tables de la Loi.

Toute religion sécrète ses hérésies. Celle-ci ne fait pas exception. On connaissait déjà la secte des climato sceptiques pour ses attaques contre le nouveau catéchisme, arguant d’une interprétation tendancieuse des faits pour discréditer le dogme et tenter d’infléchir la rigueur des commandements. Plusieurs tentatives d’excommunication majeure ayant échoué, la secte reste plus active que jamais et attaque sur un nouveau front, celui de la validité même du socle sur lequel tente de se bâtir le nouvel ordre mondial, la courbe de Keeling.

La concentration du CO2 dans l’atmosphère est l’objet de mesures systématiques depuis 1812, donc pratiquement deux siècles. Les mesures ont été effectuées par des méthodes chimiques, dont celle de Pettenkofer, et une compilation a été présentée dans un article de Ernst-Georg Beck que l’on peut trouver ici:

 

http://www.skyfall.fr/uploads/180yearCO2.pdf

Dont nous extrayons la courbe d’évolution ci-dessous:

 

Courbe-de-Beck_taux-de-CO2-reel.jpg

 

Ce nouveau Skud n’a pas manqué de susciter une abondante polémique, qui se poursuit aujourd’hui en troublant la sérénité des débats, et dont les effets peuvent être ressentis jusque dans les sphères de décision.

Il est grand temps que la climatologie sorte du domaine de la religion pour retourner dans celui de la science , se conformant ainsi au principe du NOMA si souvent bafoué de nos jours…..

Repost 0
6 octobre 2010 3 06 /10 /octobre /2010 15:29

5 Octobre 2010

Les relevés de températures de la planète constituent une immense base de données remise à jour en temps réel et accessible librement pour les besoins de la météorologie et de la recherche scientifique.

La détermination des tendances évolutives régionales ou globales nécessitent l’interprétation de ces données en fonction de nombreux critères tels que le maillage du réseau de stations, la densité des stations, la dimension des mailles, l’effet de proximité urbaine, etc, etc….

Ces critères d’interprétation ne sont pas pondérés de manière identique par les différents instituts qui délivrent des informations sur l’évolution des températures. Les courbes d’évolution sont donc légèrement différentes.

Les principaux instituts fournissant les données interprétées sont:

-Hadley Center Research Unit on Temperature ( HadCRUT )

-Nasa Goddard Institute for Space Studies ( GISS )

-National Climate Data Center ( NCDC )

Les courbes d’évolution de la température globale ( moyenne des températures de surface sol-air et océan-air) pour la période 1997-2010 sont données sur le graphique ci-dessous:

 

 globaltemp-ncdc-giss-hadcrut1.jpg

 

http://climatepatrol.net/2010/05/21/gisstemp-global-temperature-at-tipping-point/

 

Les trois courbes, provenant des trois instituts, sont peu différentes visuellement, mais l‘analyse mathématique des données conduit à des résultats opposés:

Pour le Hadley center il n’y a aucun réchauffement ( +0,01 °C avec une marge d’erreur de +/- 0,025 °C )

Pour le GISS au contraire le réchauffement est significatif: + 0,17 °C

Le NCDC se situe entre les deux.

Cette querelle d’experts révèle qu’il n’y a pas d’accord scientifique sur l’évolution de la température pour cette période 1997-2010. Selon l’institut consulté la température reste stable ou au contraire croît fortement .

Rappelons que ces résultats contradictoires sont obtenus à partir des mêmes bases de données.

Constatant la difficulté , pour des experts scientifiques reconnus, de converger sur un résultat identique concernant une période récente très bien documentée, on peut se demander ce que valent les prévisions climatiques à l’échelle du siècle….

Repost 0