Overblog Suivre ce blog
Administration Créer mon blog
11 novembre 2010 4 11 /11 /novembre /2010 10:55

11 Novembre 2010

En ce jour symbolique il fallait annoncer une victoire, bien pacifique, celle du livre numérique.

Après avoir été longtemps brocardé, puis combattu ( il l’est encore en France ), il est enfin adopté. Le graphique ci-dessous se passe de commentaire; il est extrait de:

 

http://actu-des-ebooks.fr/2010/11/09/le-livre-numerique-adopte-plus-vite-que-prevu/

 

Livre-numerique-aux-USA.jpg

 

Atteindre 9% des ventes en deux années de réel démarrage, et avant les fêtes de fin d’année, c’était inespéré.

Certes, il s’agit des USA, mais on sait que tout ce qui se passe là-bas , bon ou mauvais, arrive chez nous quelques années plus tard.

En France, pays de l’exception culturelle, l’édition est aux mains de quelques maisons qui entendent bien conserver leur quasi monopole. Les combats d’arrière-garde comme la loi sur le prix unique du livre numérique, la loi Hadopi, ou la fixation de prix de vente dissuasifs, peuvent retarder la progression du marché du numérique, mais certainement pas le marginaliser durablement.

Repost 0
9 novembre 2010 2 09 /11 /novembre /2010 18:12

9 Novembre 2010

Le désormais célèbre consensus a donc décrété que les variations de l’activité solaire n’ont aucune influence sur les changements climatiques.

Les non croyants, curieux et sceptiques de nature, n’étant pas tenus de respecter ce dogme, se sont posé certaines questions et ont entrepris de fouiller dans les bases de données, heureusement encore librement accessibles. C’est un comportement qui est encore recommandé dans le cursus de formation des chercheurs, mais peut-être plus pour longtemps.

Ces bases de données sont une vraie caverne d’Ali Baba.

Par exemple, on peut récupérer les datas sur les variations de l’irradiance solaire de 1610 à 2000 sur le site suivant:

 

http://www1.ncdc.noaa.gov/pub/data/paleo/climate_forcing/solar_variability/lean2000_irradiance.txt

D’autre part les datas sur les variations de température moyenne du globe traînent partout.

En comparant les deux on trouve des choses curieuses. Le résultat est visible sur ce site:

 

http://www.pensee-unique.fr/index.html

 

 

 

solar-cycle-length-vs-temperature.jpg

C’est une corrélation au moins aussi belle qu’entre le taux de CO2 et la température.

Il ne « reste » plus qu’à trouver le ( ou les) phénomène(s) qui pourraient expliquer cette corrélation. Au moins ici on est sur que, si il y a une relation de cause à effet, c’est bien le Soleil qui sera la cause.

 

Repost 0
9 novembre 2010 2 09 /11 /novembre /2010 11:34

9 Novembre 2010

Dans notre article du 22 Mai 2010 nous dénoncions la tentative de prise de contrôle de l’internet par la mise en place obligatoire du logiciel Hadopi dans nos ordinateurs.

Cette menace n’a bien sûr pas échappé aux internautes, ni aux professionnels du secteur qui y voient une entrave à la liberté du marché.

Le CCIA ( Computer & Communication Industry Association) vient d’adresser un courrier à l’HADOPI:

 

http://www.ccianet.org/CCIA/files/ccLibraryFiles/Filename/000000000406/CCIA%20HADOPI%20Letter.pdf

Voici la traduction de quelques-unes des remarques:

« - Nous « encourageons » HADOPI à ne pas gêner les solutions technologiques nécessaires au développement du marché.

- Le cahier des charges provisoire ( du logiciel) souffre de plusieurs déficiences.

- L’ « invitation » à installer le logiciel ( de protection Hadopi) sous peine de poursuites légales peut difficilement être considérée comme une option, cette « invitation » est susceptible d’avoir diverses conséquences imprévisibles, y compris celle d’encourager un comportement indésirable de la part de certains gouvernements répressifs ( référence à Green Dam ).

- ( Le logiciel de protection) stigmatise les protocoles internet neutres.

- Les usagers peuvent ressentir une présomption de culpabilité de piratage.

-Le système sera inévitablement imparfait.

- L’installation d’un logiciel de contrôle sur les ordinateurs des usagers, en l’absence de preuve d’activité criminelle, n’est pas une option politique acceptable, quel que soit l’objectif officiel.

- Ce marché ( CCI ) , qui fonctionne normalement, n’a nul besoin qu’une autorité gouvernementale prescrive des spécifications techniques d’un logiciel.

- Le cahier des charges provisoire ( du logiciel Hadopi) devrait être modifié pour préciser clairement que seuls les administrateurs du secteur privé et les usagers puissent décider à quels contenus un ordinateur peut accéder.

- Le cahier des charges provisoire paraît fondé sur le postulat erroné qui considère les transferts de fichiers « peer-to-peer » à priori illégaux.

- La proposition ( de contrôle) paraît devoir s’étendre au-delà du « peer-to-peer » , et est susceptible d’entraver plus largement l’innovation.

- Je vous demande instamment de reconsidérer cette proposition de cahier des charges. »

Voici l’HADOPI habillée pour l’hiver !

Si le Gouvernement Français persiste dans son projet de contrôle du net, la France, pays des droits de l’Homme, sera le premier pays au monde à instaurer une telle censure officielle.

Rappelons que même le Gouvernement Chinois a retiré son projet « Green Dam » sous la pression de l’Organisation Mondiale du Commerce.

 

 

Repost 0
8 novembre 2010 1 08 /11 /novembre /2010 18:06

 

 

8 Novembre 2010

Il existe une polémique autour d’un lien de cause à effet qui pourrait exister entre la température et le taux de CO2. Certains affirment que c’est l’élévation de la température qui cause l’accroissement du taux de CO2, d’autres soutiennent le contraire, évoquant l‘effet de serre.

Qu’en pensent ceux dont le métier est de mesurer l’un et l’autre ?

Voici un extrait des bases de données de la NOAA qui devraient apporter un éclairage scientifique à cet épineux problème:

http://www.ncdc.noaa.gov/paleo/icecore/antarctica/vostok/vostok_co2.html

Fischer et al. 1999

Abstract:

 Air trapped in bubbles in polar ice cores constitutes an archive for the reconstruction of the global carbon cycle and the relation between greenhouse gases and climate in the past. High-resolution records from Antarctic ice cores show that carbon dioxide concentrations increased by 80 to 100 parts per million by volume 600 +/- 400 years after the warming of the last three deglaciations. Despite strongly decreasing temperatures, high carbon dioxide concentrations can be sustained for thousands of years during glaciations; the size of this phase lag is probably connected to the duration of the preceding warm period, which controls the change in land ice coverage and the buildup of the terrestrial biosphere.

Traduction du passage concerné:

«  Les enregistrements haute résolution des carottes glaciaires de l’Antarctique montrent que la concentration du dioxyde de carbone augmente de 80 à 100 ppm 600+/-400 ans après le réchauffement des trois dernières déglaciations. »

Le graphique suivant, montrant le taux de CO2 et la température tels qu’ils sont estimés à partir des mesures de carottes glaciaires sur 400 000 ans, n’est pas très concluant sur ce point. Certains auteurs proposent le scénario inverse. Il est vrai qu’un décalage de quelques centaines d’années ne peut pas apparaître clairement sur une échelle de temps aussi grande.

 IceCores1.gif

D’autre part, comme déjà vu précédemment, la datation des échantillons de glace manque d’autant plus de la précision nécessaire que l‘on s‘éloigne dans le passé.

Les données actuelles ne permettent donc pas d’affirmer qui, de la poule ou de l’œuf, a commencé le premier….

Encore une incertitude qui devra être levée au cours de la prochaine décennie.

 

 

Repost 0
8 novembre 2010 1 08 /11 /novembre /2010 15:23

8 Novembre 2010

Le CO2 étant devenu l’ennemi public N°1 , il n’est pas inutile de faire un retour sur les méthodes utilisées par les chasseurs pour le débusquer.

La connaissance du CO2 contemporain ne nous apprend pas grand-chose; en effet, ce sont les variations du taux qui posent problème. Avant de porter un jugement sur un coupable éventuel, le juge s’intéresse à son passé. Nous devons donc remonter le temps pour tenter de reconstituer l’histoire du suspect.

L’activité actuelle des chasseurs de CO2 contemporain est organisée à l’échelle planétaire. On peut en trouver une brève description ici:

 

http://www.lefigaro.fr/sciences-technologies/2010/06/09/01030-20100609ARTFIG00755-mesurer-le-co2-dans-l-atmosphere.php

Ce qui nous intéresse aujourd’hui , c’est l’historique.

Nous devons distinguer plusieurs périodes:

- La période que nous appellerons « moderne » , qui s’étend de 1958 jusqu’à nos jours. C’est en effet en 1958 que débutèrent les campagnes systématiques de mesures du CO2 , avec des matériels performants ( analyseurs infrarouges) . C’est également en 1958 que Keeling initialisa ses longues séries temporelles ininterrompues jusqu’à son décès en 2005.

- La période que nous appellerons «pré-moderne » , qui s’étend de 1812 environ jusqu’à 1958, pendant laquelle des campagnes de mesures directes ont été menées par différents scientifiques , avec des méthodes chimiques variées, en des lieux divers et avec des matériels différents.

- La période que nous appellerons « ancienne », qui s’étend jusqu’au passé le plus lointain, et pour laquelle il n’existe aucun relevé de mesure directe.

La période moderne est bien documentée. Au fil du temps la planète s’est couverte de nombreuses stations de mesures, les méthodes de dosage étant basées sur la spectroscopie infrarouge. Pour des raisons qu’il ne nous appartient pas de juger, c’est la courbe des relevés du Mauna Loa ( courbe de Keeling) qui fait aujourd’hui autorité.

La période pré-moderne est beaucoup moins bien renseignée. De nombreuses séries de mesures existent , mais sans série temporelle longue. De plus les méthodes de dosage chimiques utilisées sont variées , quoique bien décrites et dignes de confiance ( ces travaux ont été effectués par des chimistes de renom).

Un récapitulatif de ces travaux a été effectué par Ernst Georg Beck , qui a réalisé une compilation des relevés de mesures .

L’IPCC n’a pas pris en compte les mesures chimiques de la période pré-moderne, arguant de l’imprécision des méthodes utilisées, sans justification convaincante.

Les valeurs retenues officiellement sont dérivées des résultats d’analyse des carottes glaciaires, méthode contestée par ailleurs, surtout pour les époques récentes.

On trouvera plus de détails ici:

 

http://www.liberterre.fr/gaiasophia/gaia-climats/dioxyde-carbone/analyse.html

avec de nombreux liens de grand intérêt.

Il ne nous appartient pas de décider qui a tord et qui a raison, ceci dépasse notre compétence. Il faut savoir simplement qu’il y a polémique ( une de plus !) sur la valeur du taux de CO2 pré-industriel.

Or, toute la stratégie de lutte contre le CO2 est fondée sur le postulat d’un faible taux de CO2 pré-industriel. Si ce postulat se révélait faux c’est l’ensemble de la stratégie qui serait remise en cause.

Comme on pouvait s’y attendre, le problème se complique pour la période ancienne.

Ici, aucun relevé de mesure directe du CO2.

Heureusement, il existe des témoins du climat qui permettent de se faire une idée des climats anciens, et parmi ces témoins quelques-uns donnent même des indications sur le possible taux de CO2 de leur époque ( quand elle peut être déterminée évidemment).

La méthode la plus en vogue repose sur l’analyse des bulles d’air emprisonnées dans la glace . Disons rapidement de quoi il s’agit:

Dans les zones où la neige et la glace recouvrent le sol en permanence, il se produit une transformation progressive des couches successives parfois emplilées sur plusieurs kilomètres d’épaisseur ( Arctique et Antarctique). Lors de l’empilement des couches de neige, la structure de ce manteau reste poreuse jusqu’à une profondeur de l’ordre du mètre, restant de ce fait en communication avec l’air extérieur. Cette couche s’appelle le « firn ». La profondeur du firn dépend du lieu, du climat, de la nature et de la fréquence des précipitations.

Au-delà de cette couche poreuse , la pression devient telle que la porosité du matériau disparaît, constituant un piège pour les bulles d’air présentes. L’air ainsi emprisonné correspond à l’atmosphère du moment de la formation de cette glace dure. Le temps de formation de cette couche de transition est variable selon l’endroit et les circonstances. Il peut être couramment de plusieurs milliers d’années.

Les bulles d’air emprisonnées sont donc plus jeunes de quelques milliers d’années que la glace qui les entoure.

Il « suffit » donc de prélever un échantillon de glace et d’analyser la composition des bulles d’air pour connaître la composition de l’atmosphère de l’époque, à condition de savoir déterminer l’époque, ce qui n’est pas une mince affaire. Ceci est fait en général à partir de l’analyse des différentes couches annuelles caractéristiques et d‘analyses isotopiques.

La gaz carbonique est présent dans l’atmosphère à l’état de traces. La concentration actuelle est de 380 ppm (380x10-6), ce qui est extrêmement faible. Pour mesurer une telle concentration de manière suffisamment précise pour apprécier les variations annuelles, il faut une méthode dont la précision globale est de l’ordre de 1 ppmv, soit un millionnième!

Les spécialistes de l’expérimentation et de la mesure savent qu’une telle précision ne peut pas être obtenue à partir de prélèvements sur le terrain.

Le processus qui relie le dosage du CO2 dans un certain échantillon de gaz bullaire , au taux de CO2 dans l’atmosphère de telle époque , comprend de nombreuses étapes et beaucoup de causes d’erreur:

- La différence entre l’âge de la glace et l’âge de l’air contenu dans les bulles n’est pas connu avec précision. Nous avons vu qu’il dépend du lieu et des circonstances de la formation des couches. Une erreur de plusieurs milliers d’années est courante.

- Les bulles emprisonnent l’air, mais aussi tout ce qui se trouve dans l’atmosphère du moment, les poussières, les microorganismes. Au fil des milliers d’années ces composés peuvent réagir avec le CO2 et les autres gaz avec pour résultat possible une augmentation ou une diminution de la concentration initiale du gaz mesuré.

- Lors des prélèvements on s’efforce de ne travailler que sur des portions de carottes en bon état visuels. Mais il peut exister des microfissures dans le matériau, entraînant une migration des composés emprisonnés , faussant ainsi la mesure.

D’autres erreurs peuvent être introduites au cours des mesures elles-mêmes.

Des détails peuvent être trouvés ici:

 

http://hubpages.com/hub/ICE-Core-CO2-Records-Ancient-Atmospheres-Or-Geophysical-Artifacts

avec de nombreux liens.

Le socle sur lequel est bâtie la stratégie de lutte contre le CO2 n’a donc que la stabilité qu’on veut bien lui accorder.

Il apparaît de plus en plus évident que la prochaine décennie devra être consacrée , entre autres, à l’approfondissement de nos connaissances du système Terre présent et passé, avant de décider d‘investir des milliers de milliards dans des réalisations dont la justification repose sur des base aussi fragiles.

Repost 0
7 novembre 2010 7 07 /11 /novembre /2010 15:57

7 Novembre 2010

Lors de la parution en 2007 du dernier rapport de l’IPCC ( GIEC ) , une bronca s’est élevée au sein de la communauté scientifique indépendante, relayée et amplifiée par les médias, sous forme de querelles ad hominem entretenues pas la parution d‘ouvrages « grand-public » souvent outranciers et non dénués d‘intentions politiques.

Une fois calmée cette effervescence, il a bien fallu instruire le dossier . Il est apparu que beaucoup de questions demeuraient sans réponses précises, ou pire, que les réponses proposées étaient insuffisamment étayées. Il devint alors évident qu’avant de mettre en œuvre des mesures correctrices lourdes et coûteuses, il était nécessaire d’établir scientifiquement un état des lieux détaillé afin de disposer d’un corpus de données fondées sur des mesures fiables , fournissant un outil d’analyse adapté à l’importance de l’enjeu.

De nombreux problèmes sont encore insuffisamment étudiés, qui ont une influence plus ou moins directe sur le climat:

- Les influences astronomiques.

- Le rôle des rayons cosmiques.

- L’influence des variations de l’activité solaire.

- La biochimie des océans.

- Le rôle exact de la couverture nuageuse.

- L’importance des GES autres que le CO2.

- Le rôle des courants marins.

- L’influence des activités humaines.

- Les cycles du carbone.

- Etc…..

La prochaine décennie sera donc consacrée à la mise en œuvre de programmes de recherches et de mesures dans chacun de ces domaines, programmes fondés sur les connaissances les plus avancées en matière de technologie, notamment l’utilisation des satellites.

L’objectif est bien sûr d’améliorer nos connaissances du système Terre, mais surtout de chiffrer précisément la responsabilité de l’Homme dans les changements climatiques.

Le témoin du changement climatique est en premier lieu la température moyenne de la basse atmosphère, dont la valeur est déterminée comme le résultat d’un équilibre radiatif obtenu grâce à l’effet de serre. Les gaz à effet de serre ( GES ) sont divers, les principaux étant la vapeur d’eau, le dioxyde de carbone , le méthane, les oxydes d’azote. Les activités humaines étant directement productrices de dioxyde de carbone, c’est donc principalement ce gaz qui doit faire l’objet de recherches poussées.

Une analyse détaillée des cycles du carbone est indispensable avant de pouvoir se prononcer de manière pertinente sur l’impact des activités humaines sur le climat.

Dans ce cadre nous présentons ici le programme américain de recherche pour la décennie 2010-2020.

Ce programme pose trois questions scientifiques fondamentales:

1- Comment les processus naturels et les activités humaines affectent-elles le cycle du carbone sur Terre, dans l’atmosphère, et dans les océans ?

2- Comment les décisions politiques et de management affectent-elles les niveaux des gaz carbonés, du dioxyde de carbone et du méthane dans l’atmosphère ?

3- Comment les écosystèmes, les espèces et les ressources naturelles sont-ils affectés par l’accroissement de la concentration des gaz à effet de serre ?

Pour répondre à ces questions , le programme de travail suivant est décliné:

- Fournir des explications appropriées et claires concernant les variations observées passées et présentes des gaz atmosphériques CO2 et CH4, avec évaluation de l’incertitude.

- Vérifier et quantifier les émissions et séquestration anthropogéniques de carbone, par des méthodes claires et utiles pour les décideurs.

- Déterminer les stocks et les flux de carbone les plus vulnérables au changement de climat ou de gestion de l’environnement. Porter une attention particulière aux « feedbacks » positifs pouvant affecter les sources ou les puits dont le rôle dans la stabilisation du climat est critique.

- Décrire les modifications apportées aux écosystèmes, à la biodiversité, et aux ressources naturelles sous différents scénarios de changement du taux de CO2 et de changement climatique.

- Déterminer les chances de succès et les risques de conséquences imprévues des programmes de gestion du carbone qui pourraient être mis en œuvre pour atteindre un futur « pauvre en carbone ».

- Comprendre les besoins des décideurs en matière d’information présente et future sur le cycle du carbone, et fournir les données et les prévisions utiles, crédibles et légitimes pour leurs décisions.

- Etablir des bases de données et leurs systèmes de gestion pour les variables clés du système carbone, et entreprendre des enregistrements à long terme pour détecter les changements.

Parmi les réalisations envisagées pour ce programmes on peut citer:

- Satellites d’observation pour les paramètres relatifs au carbone.

- Investigation pour faire la part de la variabilité naturelle et des changements anthropogéniques.

- Synthèse des observations, des résultats expérimentaux, et des modèles, pour réduire l’incertitude des prévisions des modèles et accroître leur pertinence.

- Etablissement d’une communication bi-directionnelle entre la communauté scientifique du carbone et le public.

L’ensemble du dossier peut être obtenu ici:

 

http://www.carboncyclescience.gov/documents/CCSWG-Recommendations-Summary-Nov09.pdf

Un tel programme pour la prochaine décennie prouve, s’il en était besoin, que les américains n’ont pas l’intention de mettre la charrue avant les bœufs, ni de prendre des vessies pour des lanternes…..

 

 

 

 

 

 

 

 

 

.

Repost 0
6 novembre 2010 6 06 /11 /novembre /2010 18:51

6 Novembre 2010

Le Mauna Loa est un volcan encore actif culminant à 4 170 mètres, situé sur l’île d’Hawaï , de l’archipel éponyme, qui comporte dix-neuf îles ( Autrefois îles Sandwich ) . Il voisine avec un autre volcan, le Kilauea, sur la même ïle, à 25 kms. Les deux cratères entrent en éruption plus ou moins alternativement à intervalles de quelques années. La dernière éruption eut lieu en 1984, 33 éruptions se sont produites depuis 1843 . L’archipel est la partie émergée de la dorsale d’Hawaï et d’une chaîne montagneuse sous-marine, les Monts de l’Empereur , résultat de l’activité permanente d’un point chaud du manteau terrestre ( La machine à coudre les volcans ).

Cette activité régulière et menaçante a motivé la création d’un observatoire volcanique dès 1912 ( Observatoire Volcanique d’Hawaï, HVO ). Autour de cet observatoire se sont greffées diverses activités en rapport avec le volcanisme, et l’altitude et la pureté de l’atmosphère ont permis la création d’un observatoire astronomique ( Mauna Loa Observatory , MLO ) aujourd’hui rattaché au NOAA ( National Oceanic and Atmospheric Administration ).

Lorsque le besoin d’un site de mesure du CO2 atmosphérique loin des villes s’est fait sentir, le complexe du Mauna Loa fut retenu, malgré la grande proximité du cratère actif émetteur de CO2.

Le centre de mesures est situé sur le flanc du volcan, à 6 kms du cratère et à une altitude de 3 400 mètres. Le choix de cet emplacement a suscité des critiques à cause de l’altitude et surtout de la proximité de deux cratères en activité. Ces critiques sont toujours d’actualité, mais les relevés de mesures de ce site sont toujours considérées comme une référence.

Les mesures ont débuté en 1957 sous le contrôle de Roger Revelle, relayé par Charles David Keeling dès 1958 jusqu’à une époque récente ( décédé en 2005 ), ce qui permet de disposer d‘une remarquable série temporelle ininterrompue sur un demi siècle (connue sous l‘appellation de «Courbe de Keeling » ).

Pendant toute cette longue période, Keeling supervisa également d’autres campagnes de mesures du CO2 par voie aérienne et maritime, ainsi que les travaux de plusieurs stations terrestres.

Vers la fin des années 70 il prit l’initiative de compléter la mesure du taux de CO2 par la mesure du rapport isotopique C12/C13, et d’étendre ce processus à tout le réseau. La connaissance de ce rapport permet de « tracer » le CO2 et d’en connaître la source, ce qui contribue grandement à une meilleure analyse du cycle du carbone. Il mit ainsi en évidence les cycles saisonniers du CO2 et leur corrélation avec le rapport isotopique, permettant d’établir le lien avec les cycles écologiques de la photosynthèse. Ce qui a permis de montrer entre autres que le printemps est actuellement en avance de une semaine par rapport aux années soixante. C’est encore lui qui détermina la proportion ( 55% ) du CO2 anthropique restant dans l’atmosphère.

Pour en savoir plus:

 

http://scrippsco2.ucsd.edu/sub_program_history/charles_david_keeling_biography.html

Les mesures du taux de CO2 ont été ( et sont encore) effectuées avec un appareillage basé sur l’absorption des infrarouges par le CO2. Il s’agit d’une mesure sélective utilisant une fréquence caractéristique de ce gaz, après élimination cryogénique de la vapeur d’eau. Les matériels suivants ont successivement été mis en œuvre:

Applied Physics corporation, jusqu’en 1974, avec une précision de 0,1 à 0,2 ppm.

Hartman & Braun ( URAS-2 ) jusqu’en 1987.

Siemens ULTRAMAT-3 à partir de 1987, avec une précision meilleure que 0,01 ppm.

Le taux de CO2 est mesuré plusieurs fois par heure.

La proximité des deux volcans induit un parasitage des relevés par émission de CO2. D’une part évidemment lors des éruptions, et d’autre part de manière aléatoire le reste du temps sous forme de dégazage comme on peut en attendre de cratères en activité.

La station étant à faible distance du cratère Mauna Loa ( 6 kms ), les flux de CO2 volcanique lui parviennent directement, affectés de modulation en fonction des vents et du moment de la journée ( notamment lors des inversions de température nocturnes).

Il faut donc corriger les mesures de la valeur de ce parasitage, qui est variable et imprévisible. Le principe retenu et le processus mis en œuvre reposent sur un filtrage passe-bas tenant compte de la relative rapidité des fluctuations parasites.

Des détails:

 

http://www.esrl.noaa.gov/gmd/obop/mlo/programs/esrl/volcanicco2/volcanicco2.html

Chapitre: Volcanic CO2 émissions at mauna Loa

Egalement:

 

http://www.esrl.noaa.gov/gmd/obop/mlo/programs/esrl/volcanicco2/Estimating%20Volcanic%20CO2%20Emission%20Rates%20from%20Atmospheric%20Measurements%20on%20the%20Slope%20of%20Mauna%20Loa%20(2001).pdf

La « courbe de Keeling » , retenue aujourd’hui par l’IPCC comme l’image exacte de la moyenne globale planétaire des variations du taux de CO2 depuis 1958, est le résultat de l’interprétation des données relevées au Mauna Loa, après corrections du CO2 volcanique.

Bien que la courbe de Keeling soit gravée dans le marbre ( au sens propre ) elle ne fait pas l’unanimité au sein de la communauté scientifique. L’augmentation du taux de CO2 qu’elle révèle n’est cependant pas contestée, ce qui est tout de même l‘essentiel.

La recherche des causes de cette augmentation est une autre histoire……

Justement, pour écrire la suite de l’histoire, il est devenu nécessaire de disposer de méthodes de mesure du CO2 plus modernes et ne prêtant pas le flanc à la critique. Ces méthodes sont en cours de développement, et sont basées sur des relevés satellitaires . Le CO2 sera ainsi mesuré en tous points de la planète avec un maillage très serré permettant de situer précisément et de quantifier les sources et les puits de carbone.

 

 

 

 

 

 

Repost 0
5 novembre 2010 5 05 /11 /novembre /2010 11:02

5 Novembre 2010

Le mouvement écologique a permis d’identifier les dangers que l’Humanité doit affronter pour assurer sa survie à long terme:

Surpopulation, famines, pénurie d’eau potable, guerres, pollutions, pauvreté, maladies, atteinte à la biodiversité, catastrophes naturelles, etc, etc…..

Parmi toutes ces menaces , dont chacune suffirait à mobiliser les énergies, les gouvernements de la planète ont décidé qu’il était urgent de s’occuper du changement climatique . Cette décision a été prise sur la foi de rapports alarmistes sur le réchauffement climatique laissant présager les pires catastrophes naturelles à brève échéance, et désignant l’Homme comme unique responsable du cataclysme annoncé.

Le système Terre est extraordinairement complexe, impossible à décrire simplement; pour emporter l’adhésion des décideurs de la planète, et l’approbation des populations, il fallait donc exposer un concept simple, compréhensible du plus grand nombre et aisément quantifiable. On désigna donc un agent perturbateur principal, le dioxyde de carbone, et son acolyte , l’Homme. Celui-ci fournissant celui-là par la consommation excessive des énergies carbonées.

L’Homme fut donc prié de cesser d’émettre du CO2.

Toute quête du graal est un parcours initiatique semé d’embûches. En l’occurrence on s’aperçu assez rapidement que toutes les mesures visant à réduire le rythme des émissions de CO2 auraient pour résultat d’étaler la pollution sur une période plus longue , mais ne changeraient en rien la quantité de gaz émis. Le principe de réalité ne peut pas être contourné.

Restait alors une seule solution: glisser le CO2 sous le tapis, c’est-à-dire s’en débarrasser d’une manière ou d’une autre.

Il fut vite évident que la seule méthode envisageable à moyen terme était de l’enfouir dans le sous-sol de la planète.

De nombreux milliards furent alors distribués pour mettre sur pied les projets adéquats et monter des démonstrateurs, suivis plus tard des réalisations industrielles.

Survinrent alors deux problèmes:

L’enfouissement du CO2 dans le sous-sol n’est pas sans risque. les défenseurs de la Nature eurent vite fait de dénoncer cette nouvelle pollution, arguant de possibles fuites et déstabilisations des terrains. Ce qui n’est pas faux si l’on considère les quantités énormes concernées à long terme.

Par ailleurs la mise à l’index du CO2 sous-entendait de facto le recours au nucléaire comme énergie de remplacement dans le futur, un véritable sacrilège pour la communauté écologiste. On comprend leur émoi, même si on ne le partage pas complètement.

Cette diabolisation du CO2 eut pour résultat de placer ce dioxyde sur un pied d’égalité avec le nucléaire au plan des nuisances. On avait donc le choix entre la peste et le choléra.

Aussi, certains se résolurent-ils à aller voir de plus près cette histoire de réchauffement anthropique. Peut-être qu’après tout la menace pourrait ne pas être aussi catégorique ni aussi urgente, et la culpabilité « anthropique »  plus nuancée.

Le doute est une graine difficile à planter, mais qui , une fois germée, devient vite envahissante pour peu qu’elle reçoive une nourriture de bon aloi.

On ouvrit donc la boîte de Pandore.

Il s’ensuivit la polémique que l’on sait , d’une part sur la validité des modèles climatiques accusateurs, et d’autre part sur l’interprétation à l’usage des «décideurs de la planète » . Sans entrer dans les détails ( on a déjà précédemment évoqué quelques points) disons qu’il devint nécessaire d’intervenir en haut lieu. L’IAC ( Inter Academy Council ) servit d’arbitre dans ce conflit d’experts.

Le prochain rapport d’avancement de l’IPCC ( GIEC) , prévu pour 2014, devrait présenter un tableau de la situation plus réaliste, et surtout tenant compte de tous les résultats scientifiques , y compris ceux qui ne vont pas dans le sens du politiquement correct, ce qui n’était pas le cas jusqu’à présent.

La découverte de ce dysfonctionnement d’un organisme intergouvernemental politico-scientifique a jeté , pour longtemps, le trouble dans la communauté scientifique et semé un ferment de méfiance dans les populations vis-à-vis de la Science en général et des instances de décision en particulier.

On peut toutefois en tirer quelques leçons :

- Les découvertes scientifiques ne sont jamais le résultat d’un consensus.

( ce n’est pas un vote qui a décidé que la Terre tourne autour du Soleil )

- Le principe de non recouvrement des magistères ne doit jamais être violé.

( On ne mélange pas la Science avec la Politique) .

- Les modèles mathématiques ne sont que des outils, ils ne peuvent pas remplacer l’observation, la théorie, l’analyse et la compréhension des phénomènes.

- Un résultat scientifique doit toujours pouvoir être remis en cause, la connaissance scientifique n’est jamais figée, sinon elle devient une religion.

Il nous reste à espérer que ces « quatre piliers de la sagesse » soutiendront les futurs débats « intergouvernementaux » dont l’IPCC a le secret.

Gageons par ailleurs que nos gouvernants y regarderont désormais à deux fois avant de se lancer tête baissée dans des actions planétaires fort coûteuses , sur la base d’affirmations fondées sur des données discutables et des modèles mathématiques abscons.

Repost 0
4 novembre 2010 4 04 /11 /novembre /2010 18:28

5 Novembre 2010

La réunion plénière de l’IPCC ( GIEC) s’est tenue à Busan ( Corée du Sud ) la semaine dernière. Le programme portait sur la prise en compte des recommandations de l’IAC ( Inter Academic Council ) et la mise en œuvre des dispositions adéquates.

Rajendra Pachauri a été maintenu dans ses fonctions, contre les attentes d’une partie de la communauté. L’éventualité de son remplacement n’aurait même pas été évoquée.

Il a été décidé de constituer de nouveaux groupes de travail et d’implémenter la méthodologie recommandée par l’IAC. Ces groupes et leurs programmes de travail seront présentés lors de la prochaine session plénière en Mai 2011 à Abu Dhabi.

Le cinquième rapport d’avancement ( AR 5 ) reste planifié pour fin 2014.

Il ne faut pas attendre de grands changements de cette « révolution douce » . Sauf si la « bronca » qui monte de la communauté scientifique indépendante se révèle suffisamment forte pour ébranler les convictions politiques des décideurs de la planète. Il faudra bien, alors, ouvrir la boîte de Pandore….

 

Repost 0
15 octobre 2010 5 15 /10 /octobre /2010 19:51

15 Octobre 2010

On peut lire sur le site de Greenpeace cette injonction pour le moins surprenante:

«Pour Greenpeace, le captage et le stockage du charbon ne peuvent pas être une solution. C'est une option à abandonner » .

( Lire bien sûr « carbone » à la place de « charbon ». Traduttore, traditore. ).

 

http://www.greenpeace.org/france/campagnes/energie-et-climat/fiches-thematiques/captage-et-stockage-du-co2

Quelques motivations sont fournies sommairement sans justification, qualifiant la technique CSC (Capture et Séquestration du CO2) de trop lointaine, trop énergivore, trop chère, et trop dangereuse.

Nous voilà donc habillés pour l’hiver.

Pour une fois que les industriels prennent au sérieux les menaces du GIEC et entreprennent des travaux pour limiter les dégâts d’un excès de CO2, cela ne convient pas à Greenpeace.

Bien évidemment cette honorable organisation ne propose aucune solution de rechange, le réalisme n’étant pas sa tasse de thé.

En fait on connait très bien sa solution de rechange, c’est l’arrêt du progrès lié à l’énergie, qui sous tend l’arrêt du progrès tout court. Ce sont les fondements de la « Deep Ecology », qui prône le renoncement au développement, même durable, et le retour à une économie de subsistance pour ne pas dire de survie. La suggestion de remplacer les combustibles fossiles par l’éolien et le photovoltaïque ne méritent même pas nos commentaires….

Cette opposition aux projets CSC s’est trouvé un gourou en la personne de Gary Shaffer, de l’Université de Copenhague. Il a commis un article très médiatisé, dans lequel il détaille différents scénarios de CSC et tente d’en montrer l’inconsistance. En fait il s’agit d’un plaidoyer sans fondement sérieux, qui exacerbe les craintes des populations en présentant comme des menaces certaines des éventualités qui sont des risques potentiels parfaitement connus des responsables , et dont l’analyse préventive fait l’objet de nombreux projets pilotes de par le monde. Faire passer les scientifiques et les ingénieurs de recherche et développement pour des charlots inconscients est une posture populiste dont la portée ne dépasse pas les limites des comptoirs de bistrots ou des revues de vulgarisation complaisantes.

Arrêter les émissions anthropiques de CO2 dans un court délai est un souhait parfaitement utopique. Autant chercher à imposer à la Chine, à l’Inde, à l’Afrique et à d’autres le renoncement immédiat à leur développement économique et donc à l’accès à l’énergie. Certes, dans vingt ou trente ans, les énergies propres seront en mesure de participer significativement à certains besoins de la planète, mais rien ne permet d’affirmer que l’on pourra se passer complètement des énergies traditionnelles, surtout pendant la période intermédiaire.

Alors, puisque le CO2 continuera d’être émis, n’est-il pas légitime de chercher à le mettre quelque part ?

Repost 0