Overblog Suivre ce blog
Administration Créer mon blog
11 mars 2012 7 11 /03 /mars /2012 18:37

 

11 Mars 2012

Sans refaire l’analyse des causes du réchauffement climatique, il n’est pas inutile de rappeler deux ou trois choses sur les échanges entre la Terre et l’espace.

Le globe terrestre possède une source colossale de chaleur interne dont l’origine et la distribution sont encore controversées ( Eh oui, encore une controverse !).

Plusieurs phénomènes participent à ce dégagement de chaleur: L’agrégation initiale des particules qui ont formé le globe, les réactions exothermiques qui se déroulent dans le noyau, les mouvements de convection du magma, la désintégration des éléments radioactifs, la tectonique, etc…

Ce globe se refroidit à un rythme évalué à 70 à 130 °C par milliard d’années, donc insensible à notre échelle de temps.

Cette chaleur se dissipe à l’extérieur sous forme de rayonnement infrarouge conformément à la Loi de Kelvin, corrigée de l’émissivité.

Le Soleil , qui est un réacteur nucléaire, rayonne de l’énergie, dont la Terre bénéficie et qui va augmenter sa température de surface.

Cette température de surface dépend de l’équilibre thermique établi entre l’énergie reçue, l’énergie réfléchie, et l’énergie émise.

Si l’atmosphère n’existait pas, cet équilibre ne dépendrait que du rayonnement des deux corps et de l’albedo de la Terre. Il en résulterait une température moyenne de surface terrestre d’environ - 18°C.

L’atmosphère modifie ce bilan radiatif en piégeant une partie des infrarouges émis par la Terre ( Effet de serre), et en modulant le rayonnement solaire par les réflexions sur les couches nuageuses.

Ce qui permet à la température moyenne de surface d’atteindre + 15°C.

Les paramètres qui contribuent au bilan radiatif sont très nombreux. Ils ne sont pas tous encore identifiés et leurs interactions demeurent insuffisamment quantifiées. La liste ci-dessous n’est pas exhaustive:

- Energie rayonnée par le Soleil.

- Distance Terre-Soleil.

- Albedo de la Terre.

- L’émissivité de la Terre.

-Concentration dans l’atmosphère des gaz à effet de serre:

- Vapeur d’eau.

- Dioxyde de Carbone.

- Méthane.

- Ozone.

- Oxydes de soufre.

- Oxydes d’Azote.

- Gaz anthropiques.

-Etc…

- Formations nuageuses.

- Précipitations.

- Vents.

- Pression.

- Aérosols .

- Cycle de l’eau.

- Particules naturelles et anthropiques .

- Rayons cosmiques.

- Magnétisme terrestre.

- Paramètres océaniques:

- Température des eaux.

- Salinité des eaux.

- Concentration en gaz dissous.

- Concentration en minéraux.

- Ph.

- Courants marins.

- Phytoplancton et zooplancton.

- Volcanisme.

- Position du système solaire dans la galaxie.

- Processus végétaux d’échanges gazeux.

- Composition et évolution de la zoosphère.

- Activités anthropiques:

- Bilan énergétique.

- Emissions de gaz et de particules.

- Influences sur l’albedo.

- Influences sur l’émissivité.

- Influences sur le bilan carbone.

Ces paramètres ne sont pas constants dans le temps ni dans l’espace géographique, et de plus il existe entre eux des relations d’interactions assez mal identifiées.

Leur action conjuguée se traduit pas une élévation de température de

33 °C au niveau des basses couches de l’atmosphère, dans les conditions actuelles, et il en résulte une température moyenne de + 15°C.

Pour déterminer l’évolution dans le temps du bilan radiatif, donc de la température moyenne de la surface de la Terre, il est nécessaire de construire un modèle et de le faire tourner sur des ordinateurs puissants.

Ce modèle doit tenir compte de tous les paramètres influents, de leurs interactions, et de leurs variations propres, et ceci en chaque point du système Terre-Atmosphère.

Ceci est évidemment impossible car la complexité du calcul serait infinie, et de plus les conditions initiales ne sont jamais connues avec une telle précision. Il faut donc procéder comme en météorologie, découper l’espace en mailles de taille compatible avec les possibilités des calculateurs du moment.

En plus de cette simplification du maillage, il faut également simplifier la prise en compte des paramètres pour rendre le calcul possible.

Il existe donc deux limites:

Le choix d’un maillage trop fin, qui conduit à une impossibilité de définir les conditions initiales de chaque maille au même moment, et à un calcul si lourd qu’il dépasse les possibilités des l’ordinateurs.

Le choix d’intégrer un grand nombre de paramètres, qui

conduit au même résultat.

Il faut donc se satisfaire d’un compromis dans lequel on maîtrise les conditions initiales et la puissance de calcul, mais sachant que la marge d’erreur est importante.

Un modèle, quel qu’il soit, doit être validé.

Il est facile de valider un modèle lorsqu’il représente des phénomènes de courtes durées. Il suffit de comparer les résultats du modèle avec les phénomènes réels et de répéter l’expérience aussi souvent que nécessaire pour affiner le modèle.

Un modèle climatique se donne pour objectif de prédire l’évolution du climat sur de longues périodes, plusieurs dizaines d’années.

Sa validation doit donc être effectuée sur des périodes comparables. Par exemple les prévisions d’un modèle établi en 2010 doivent être comparées au climat effectif de 2020 ou 2040, afin de le valider ou d’apporter des corrections qui seront à leur tour validées en 2050 ou 2060, et ainsi de suite.

La machine à voyager dans le temps n’existant pas encore, notre modèle de 2010 ne peut donc pas être validé, ce qui est évidemment fâcheux.

Comme il n’est pas sérieux de faire confiance à un modèle non validé, qui n’aurait aucune crédibilité, on utilise un artifice qui consiste à effectuer une rétro validation sur une séquence climatique passée.

(C’est un peu l’histoire de l’homme qui a perdu sa clé dans l’obscurité, et qui va la chercher sous un réverbère parce que là il y a de la lumière…)

Ce tour de passe-passe n’abuse que les béotiens, les scientifiques ne sont pas dupes, mais tout le monde est d’accord pour reconnaitre qu’il n’y a pas d’autre méthode, alors on s’en contente.

Car le problème n’est pas seulement de principe, il existe une difficulté intrinsèque:

la climatologie est une science récente, et il n’existe pas de base de données suffisamment précise et étendue pour des périodes antérieures de quelques dizaines d’années au temps présent. Encore aujourd’hui les recherches climatologiques apportent tous les jours des nouvelles découvertes et de nouvelles bases de données, notamment satellitaires.

Faire tourner un modèle de 2010 sur des données approximatives et incomplètes du passé n’est pas satisfaisant.

Il y a d’autre part une impossibilité de principe à connaître les conditions initiales autrement qu’approximativement.

Nous avons donc un modèle impossible à valider dans son domaine temporel de fonctionnement, et un corpus de données du passé impropres à fournir une validation consistante.

Pour sortir de cette impasse, il a été décidé de faire développer plusieurs modèles par différentes équipes de scientifiques. Chaque équipe conçoit son modèle sur la base d’hypothèses qui lui sont propres, et réalise ses propres simulations. Ces résultats sont ensuite comparés afin d’en tirer des enseignements.

C’est la démarche qui a été adoptée par le GIEC, et qui a permis d’obtenir un ensemble de courbes d’évolution de la température terrestre, qui sont le résultat d’un consensus et ne doivent pas être considérées comme gravées dans le bronze.

Il reste que les modèles actuels devront être validés un jour ou l’autre. La procédure consistera à suivre en temps réel l’évolution du climat et à comparer les prévisions des modèles avec la réalité. Les écarts seront interprétés pour corriger les modèles au fur et à mesure et à procéder par itérations.

De nombreux programmes de recherches et de mesures sont en cours pour faire progresser la science climatologique. Les nouveaux résultats seront intégrés aux modèles de prévisions qui eux-mêmes seront confrontés aux relevés de mesures climatiques sur de longues périodes.

La prévision de l’évolution climatique sera donc plutôt un suivi permanent. Comme en météorologie, nous aurons plusieurs types de prévisions:

- Prévisions à dix ans, avec une très bonne fiabilité.

- Prévisions à moyen terme, trente à cinquante ans, avec une fiabilité moyenne.

- Prévisions à long terme, un siècle ou deux, non directement exploitables mais indicatives.

La science peut nous délivrer des prévisions variables selon diverses hypothèses, mais elle ne saura jamais nous donner la recette politique pour que les sociétés humaines choisissent l’hypothèse la plus sage…

 

 

 

 

 

Repost 0
9 mars 2012 5 09 /03 /mars /2012 18:30

 

9 Mars 2012

L’idée que la Terre tourne autour du Soleil, et non l’inverse, a mis longtemps à s’imposer, car en fait pour le commun il s’agissait d’une abstraction sans aucune conséquence pour les sociétés humaines. Seuls étaient concernés évidemment l’Eglise et quelques rats de bibliothèques ou quelques astronomes un peu curieux. Et de plus, à l’époque la curiosité était un vilain défaut.

Notre époque nous confronte à un nouveau changement de paradigme, dont cette fois les conséquences sont susceptibles d’impacter directement nos sociétés, voire même la survie de l’espèce humaine.

Il s’agit bien sûr du changement climatique.

Nos ancêtres ont longtemps vécu dans la tranquille certitude de l’immuabilité des choses de la nature. Le déroulement des saisons souffrait bien parfois de quelques sautes d’humeur, mais les années de vaches maigres étaient suivies d’années de vaches grasses, en sorte que sur une période de trois ou quatre générations le climat paraissait constant. Une fois disparu l’arrière grand père, la mémoire du climat passé s’estompait et le climat présent devenait le climat de toujours. C’est d’ailleurs encore vrai de nos jours tant la mémoire collective est courte; les hivers considérés comme froids aujourd’hui font sourire les anciens qui ont connu les années cinquante.

Nous savons maintenant que les variations climatiques de fortes amplitudes ont toujours existé, et peut-être même ont-elles favorisé l’expansion de l’espèce humaine en stimulant les capacités adaptatives de nos lointains parents et en les incitant à parcourir le monde pour découvrir des territoires plus cléments.

Cependant, depuis environ 10 000 ans, la température moyenne du globe s’est maintenue dans une fourchette de 2°C, avec de fortes variations régionales il est vrai. Le dernier épisode remarquable, le « petit âge glaciaire », du XVIè au XIXè siècle, est resté gravé dans les écrits du temps malgré une baisse de température moyenne faible, environ 1°C par rapport à l’optimum médiéval.

Aujourd’hui nous sommes confrontés à une menace autrement plus sérieuse, celle d’un réchauffement d’une ampleur et d’une rapidité sans précédents dans le passé, entre 2 et 6°C, voire même davantage selon certaines évaluations, et ceci en seulement un siècle.

Une telle montée en température, sur une période aussi courte, serait une catastrophe planétaire entrainant des bouleversements géopolitiques susceptibles de compromettre la fragile stabilité de nos sociétés.

Il est facile de comprendre que plus la montée en température sera grande, et plus grands seront les bouleversements. Il n’est donc pas indifférent de savoir si la hausse sera de 2°C ou de 6°C; dans le premier cas la situation sera difficile mais gérable, dans le second cas c’est l’apocalypse qui nous guette…

Dans l’un ou l’autre cas nous avons des dispositions à prendre et les décideurs de la planète doivent savoir à quels types de catastrophes ils auront à faire face afin de prendre des mesures pour minimiser les dégâts.

L’oracle de Delphes ayant fermé boutique, nous devons nous adresser aux mages modernes que sont les scientifiques. Ils ne lisent pas l’avenir dans les entrailles de mouton, ils disposent de truchements en principe plus crédibles, ils interrogent même les cieux par l’intermédiaire de satellites, ils refont le monde avec leurs ordinateurs. De la connaissance du passé ils estiment pouvoir prédire l’avenir ( Ah, se prendre pour le créateur…).

Les mages officiels ont délivré des prédictions à tiroirs. Plusieurs options sont proposées, selon la sagesse des hommes. Nous retrouvons là l’expression d’un plan divin laissant à l’Homme une part de libre arbitre.

Seulement la recette pour rendre les hommes plus sages n’est pas fournie…

A coté de cette « magie d’Etat » il existe une magie dissidente qui propose d’autres prédictions reposant sur une autre façon d’interroger les entrailles de mouton , pardon, les ordinateurs. Leurs crédibilité est aussi bonne que celle des mages officiels, car les diplômes dont ils sont bardés sont délivrés par les mêmes druides.

Faire confiance aux uns ou aux autres, c’est donc un peu jouer le destin de la planète au tric trac, ce qui fait désordre. Qui a dit « Dieu ne joue pas aux dés ? ».

Certains décideurs de la planète, et non des moindres, ont rapidement réalisé que les perspectives d’évolution du climat décrites par les experts n’étaient que des prédictions et qu’il y avait lieu de leur accorder l’importance que l’on accorde habituellement aux prédictions, c’est-à-dire une écoute bienveillante accompagnée d’une croyance conditionnelle et d’un engagement limité et prudent.

( Voir protocole de Kyoto et sommet de Durban)

Sans aller jusqu’à cautionner la déclaration de Corinne Lepage à l’AFP:

« Dans le monde politique tout le monde s’en fout complètement », il faut admettre que les décideurs de la planète ont tendance à traiter le problème « par-dessous la jambe ».

Il est vrai que s’occuper à la fois des problèmes urgents et des problèmes du prochain siècle nécessite de pratiquer un grand écart intellectuel pour lequel nos structures de gouvernement ne sont pas préparées.

Peut-être aussi faudrait-il commencer par le commencement: Avant de penser à organiser l’avenir, il ne serait pas absurde de commencer par mettre de l’harmonie dans le présent.

Du pain sur la planche….

Repost 0
1 février 2012 3 01 /02 /février /2012 18:43

1er Février 2012

On peut lire, sur le site de BOSCH, les informations suivantes à destination des professionnels du secteur automobile:

«Les systèmes de climatisation des véhicules particuliers et utilitaires d’un poids total inférieur à 3,5 tonnes, dont l’homologation de type a été délivrée depuis début 2011, doivent contenir le nouveau réfrigérant R1234yf. Le réfrigérant R134a employé ultérieurement est devenu quant à lui obsolète suite aux normes plus strictes du nouveau règlement européen sur les produits chimiques et la protection du climat qui fixe une valeur limite pour le potentiel de réchauffement planétaire (PRP) des substances utilisées. Le réfrigérant R1234yf, est donc plus écologique que son prédécesseur mais reste hautement inflammable et doit donc être manipulé selon des règles de sécurité drastiques » .

Source: Communiqué de Presse AA 11.30 HF/ND du 11/09/2011.

La dernière phrase confirme sans ambigüité le caractère hautement inflammable du produit, car on ne peut mettre en doute la compétence de Bosch dans ce domaine. Voilà qui met fin au débat, au moins sur ce point de « détail ».

Par ailleurs, pour des raisons mécaniques ( Entrainement du compresseur de climatisation, qui « pompe » jusqu’à plusieurs Kilowatts et ne saurait être alimenté par l’électricité), et pour le refroidissement du gaz comprimé, le circuit de climatisation se trouve dans le compartiment moteur. Le tout fonctionnant à haute pression comme chacun sait.

Dans le compartiment moteur, le collecteur d’échappement atteint normalement des températures supérieures à plusieurs centaines de degrés ( 500 à 600 °C parfois).

En cas de fuite significative de gaz réfrigérant, il y a donc un risque d’incendie difficilement niable.

Les fuites légères sont systématiques , on estime que 60 à 100 g de fluide s’échappent annuellement, rendant nécessaire la recharge du circuit.

Des fuites plus importantes peuvent résulter d’un défaut d’étanchéité en un point quelconque du circuit.

Le risque le plus évident est bien sûr l’accident qui donne lieu à une fuite massive de produit ( pas toujours heureusement !). Dans ce cas, deux conséquences sont à redouter:

Décomposition du gaz en composés contenant de l’acide fluorhydrique hautement toxique, et/ou inflammation pouvant se propager au véhicule entier.

Les instances professionnelles responsables des analyses et tests de sécurité ont estimé que le risque évoqué ci-dessus est négligeable.

Les tests de sécurité du R1234yf ayant conduit à l’homologation par le SAE ont été effectués par Honeywell et Dupont, qui sont également les fabricants du produit, dont ils détiennent les brevets.

Au-delà du questionnement au sujet de la validité de tests effectués par le vendeur de la substance, il se pose le problème d’une éventuelle entente illicite entre les duettistes Honeywell et Dupont , afin de s’approprier ce marché très juteux .

Le challenger ARKEMA ( Importante société Française parmi les leaders mondiaux notamment en produits fluorés) a développé de son côté un produit similaire vendu sous le nom de FORANE 1234yf, et voit d’un mauvais œil une possible entente entre les deux susnommés, entente en vue de fausser la concurrence. Il s’en est ouvert auprès de la Commission Européenne ( Dépôt d’une plainte en Avril 2011), qui a ouvert en Décembre 2011 une procédure à l’encontre des susdits pour « Entente et abus de position dominante » . L’objectif de cette procédure est de « clarifier l’environnement juridique autour des brevets de Honeywell et Dupont ».

Il est donc probable que nous entendrons reparler de cette affaire, soit au plan juridique, soit au plan de la sécurité, soit au plan de la pollution environnementale.

 

 

 

 

 

 

 

Repost 0
24 janvier 2012 2 24 /01 /janvier /2012 12:00

 

24 Janvier 2012

Dans l’article précédent nous évoquions la directive européenne relative au remplacement du fluide frigorigène utilisé dans les climatiseurs de nos automobiles.

Le nouveau produit homologué, R1234yf , initié par Honeywell et DuPont, doit remplacer le R134a, puissant gaz à effet de serre.

L’approche de l’échéance a suscité une vive réaction des écologistes, qui reprochent au nouveau produit d’être inflammable et générateur de gaz toxiques, et exigent son abandon immédiat.

Michèle RIVASI, député européenne EELV, a porté l’affaire à Bruxelles. Attendons les suites.

Mais lorsque l’on examine les propriété du R134a, on constate qu’il n’est pas innocent lui non plus:

- Mis au contact d’une surface chaude ( > 250 °C) il se décompose en donnant notamment lui aussi du Fluorure d’Hydrogène, lequel donne de l’acide Fluorhydrique au contact de l’eau, par exemple par contact avec les tissus vivants.

Il est particulièrement virulent pour la cornée et les tissus pulmonaires. Il entraîne de sévères brûlures par contact avec la peau, même sur de faible surfaces. Ces brûlures ne sont pas douloureuses sur le moment, mais les dégâts internes peuvent entraîner la mort si des soins immédiats ne sont pas prodigués. Le produit perturbe le métabolisme du Calcium, ce qui induit des troubles cardiaques sévères voire mortels si les traitement appropriés ne sont pas entrepris rapidement.

Le R134a n’est pas inflammable ( Source: INRS/ Institut National de Recherche et de Sécurité, Doc 969 ).

Le produit de remplacement, R1234yf, n’est donc pas plus dangereux que son prédécesseur, du point de vue toxicité des produits de décomposition.

Par contre, il est inflammable, ce qui peut faire la différence pour une utilisation en automobile, en cas d’incendie.

Le nouveau fluide réfrigérant R1234yf est donc objectivement potentiellement plus dangereux que l’actuel R134a, mais les tests conduits depuis plusieurs années n’ont pas permis de mettre en évidence cette sur-dangerosité sur le terrain.

On peut toujours contester la validité de n’importe quel test, à condition de pouvoir apporter des éléments concrets susceptibles d’invalider les résultat du test.

Le fond de la querelle n’est pas dans le remplacement du R134a par le R1234yf, mais plutôt dans le rejet de la solution de remplacement R744

( à base de CO2) qui supprime tout risque de toxicité et de dangerosité, même en cas d’incendie.

Le R744 est utilisé depuis plusieurs années dans des camions et des autobus, avec satisfaction.

Son seul inconvénient est que sa mise en œuvre est compliquée, techniquement difficile, c’est donc une solution chère non seulement à l’installation, mais aussi pour la maintenance, nouvelles machines, personnel plus qualifié, etc…Pour ces raisons le R744 a été majoritairement rejeté par les constructeurs.

Et c’est bien sûr la solution qui a les faveurs des écologistes.

Affaire à suivre…

Repost 0
18 janvier 2012 3 18 /01 /janvier /2012 15:37

18 Janvier 2012

Dans un article du 11 Mars 2011 nous présentions le problème de pollution liée aux climatiseurs de nos automobiles. Le fluide de refroidissement utilisé ( R 134) finit toujours par s’échapper dans l’atmosphère, sous forme de gaz à effet de serre dont le pouvoir de nuisance ( PRP) est 1 430 fois supérieur à celui du CO2, ce qui fait désordre.

Une directive Internationale fut donc prise, limitant le PRP ( Potentiel de Réchauffement Planétaire) à 150 pour les nouveaux types d’automobiles à partir de 2011, et pour toutes les voitures neuves à partir de 2017.

Des recherches furent donc diligentées, dans deux directions:

- Utiliser carrément du CO2 pour faire du froid. C’est possible, mais les contraintes sont lourdes, traduisez c’est plus cher et plus difficile à fabriquer. Cette voie a été abandonnée, sauf peut-être chez certains constructeurs allemands, à vérifier.

- Concocter en labo un produit dans la lignée des précédents, mais avec un PRP plus faible. Nous présentions alors le candidat R 1234 yf, dont le PRP est de 4 seulement. Difficile de faire mieux.

C’est ce dernier qui a finalement été adopté par les instances internationales, et qui se trouvera sur nos voitures à partir de dorénavant.

( l’échéance de 2011 a dû être reportée d’un an ).

Le R 1234 yf, alias HFO 1234yf, est une HydroFluoroOlefine, de formule

CH2=CFCF3.

Comme les autres, sa destinée est de s’échapper par les micro fuites et de se disperser dans l’atmosphère. Il doit son faible PRP au fait que son cycle atmosphérique est très court, seulement onze jours.

En fait il se décompose rapidement pour donner le TFA.

Le TFA ( Tri Fluoro Acetic acide ) , de formule CF3- COOH, est non dégradable et demeure dans l’écosystème pendant des siècles. Il doit à son affinité avec l’eau d’être présent partout dans l’hydrosphère où il constitue un facteur de toxicité. Les océans en contiennent en moyenne 0,2 microgrammes par litre.

Les mécanismes de la toxicité du TFA sont encore mal connus, mais son accumulation dans l’environnement et son affinité avec l’eau en font un produit à priori dangereux qui devrait être caractérisé par des études complémentaires. Le moins que l’on puisse faire est de déterminer des seuils de dangerosité, ce qui n’a pas été fait.

Ajoutons que le produit miracle dégage de l’acide fluorhydrique en cas de combustion ( feu de voiture par exemple) qui lui est bien connu pour être mortel à faible dose.

Le HFO 1234 yf est un remède utile contre le réchauffement climatique, mais les écologistes considèrent à juste titre que l’autorisation de mise sur le marché a été délivrée un peu rapidement. Le rapport bénéfice-risques est inconnu, et il existe un fort soupçon de possibles dégâts collatéraux.

C’est Michèle Rivasi, eurodéputé EELV, qui a soulevé ce lièvre, qui jusqu’à présent menait sa petite vie tranquille à l’abri des projecteurs de l’actualité.

Il se confirme une fois de plus qu’en matière d’écologie il faut souvent choisir entre la peste et le choléra.

 

 

Repost 0
6 mai 2011 5 06 /05 /mai /2011 11:00

6 Mai 2011


Dans un article du 17 Novembre 2010 « Variation des niveaux marins » nous présentions succinctement l’état des connaissances permettant l’établissement des cartes de variations du niveau des océans.


Ce paramètre étant un témoin direct du réchauffement climatique, il est de la plus haute importance de le mesurer avec la plus grande exactitude possible.


Il est assez rapidement apparu que les anciennes méthodes de mesures basées sur les marégraphes ne sont pas suffisamment précises à l’échelle de la planète, et ne permettent pas l’analyse fine des variations lentes des niveaux marins.


C’est pourquoi, dès l’apparition des premiers satellites, on a décidé de les utiliser pour obtenir une connaissance précise des paramètres géodésiques de la Terre.


La série des satellites des missions Topex Poseidon, Jason 1, Jason 2, ont permis d’améliorer considérablement la précisions des mesures.


Les niveaux marins ne sont plus seulement mesurés par rapport à des repères terrestres ( qui sont eux-mêmes instables), mais par rapport à un repère fixe défini internationalement, qui est un éllipsoïde, surface mathématique virtuelle positionnée sur le centre de la Terre, lui-même défini par rapport à des repères astronomiques fixes ( Quasars).


Les paramètres de l’ellipsoïde sont définis pour que la surface virtuelle coïncide avec la surface moyenne du géoïde ( pour faire court ).


Le géoïde étant la surface équipotentielle de gravité, qui présente des irrégularités dûes aux variations du gradient de pesanteur.


Les satellites procèdent à des mesures altimétriques du niveau de la mer ( de la portion d’océan qu’ils survolent à un instant donné), tout en mesurant leur position par rapport à des balises référencées sur l’ellipsoïde ( Réseau DIDON ).


Par différence on obtient la hauteur du niveau marin par rapport à l’ellipsoïde.


Tout ceci est extrêmement complexe, mais c’est à cette condition que l’on peut obtenir des relevés avec une précision de quelques centimètres.


Comment peut-on prétendre connaître des variations de niveau de quelques millimètres par an avec un système dont la précision n’est « que » de quelques centimètres, sachant que ce niveau est lui-même variable en fonction des marées, de la houle, du vent, des courants, et de la température de l’eau ?


Le secret réside dans la multiplication des mesures qui permet d’obtenir de longues séries temporelles desquelles ont peut extraire les tendances à long terme.


Ces méthodes, dont la complexité dépasse l’entendement, ont permis d’obtenir des résultats intéressants:


- Le niveau moyen des océans est en augmentation régulière d’environ 3,8 mm par an .


- Ce facteur d’augmentation, relativement modéré, cache de grande disparités. La carte insérée dans l’article cité montre que certaines régions du globe subissent une augmentation de niveau importante, plus de 10 mm/an, alors que d’autres ne sont pas concernées.


De plus, le gradient de variation du niveau dans une région donnée n’est pas constant, il peut varier dans le temps.


Ces résultats sont essentiels car ils montrent que les stratégies de protection contre l’augmentation du niveau de la mer devront être adaptées localement.


Ces campagnes de mesures confirment le grand intérêt de la connaissance précise du globe terrestre, et donc la nécessité de les poursuivre en améliorant leur efficacité.


Dans ce but, l’ESA ( European Space Administration) a initié une série de missions satellitaires qui s’inscrivent dans le cadre du programme « Living Planete » .


Le satellite GOCE ( Gravity and Oceanic Circulation of Earth ) , lancé le 17 Mars 2009, est la première mission de base du programme Living Planete. 45 entreprises européennes ont participé à sa réalisation.


De plus d’une tonne, il évolue à une altitude de 254 km.


( Cette faible altitude le rend sensible au freinage atmosphérique. Pour compenser cet effet, il est muni d’un moteur ionique ).


Sa mission principale est de relever la carte exacte de la gravité terrestre, c’est-à-dire la forme précise du géoïde afin d’améliorer la précision des mesures géodésiques.


Ce géoïde amélioré permettra d’augmenter la précision des mesures du niveau des océans. Le satellite permet également de surveiller la circulation océanique et la dynamique des calottes polaires.


Les premières cartes du géoïde ont été délivrées en Avril 2011 par l’ESA.


Elles apportent une précision jamais atteinte qui permettra d’améliorer la résolution des relevés océaniques, et de suivre l’évolution du changement climatique.



 


 


 


 


 


 


 


 


 


 


 


 


 


 


 

Repost 0
16 mars 2011 3 16 /03 /mars /2011 19:10

16 Mars 2011


Le CO2 a jusqu’à présent constitué la cible préférée dans la campagne contre le réchauffement climatique. Deux grands axes ont été tracés pour mener à bien ce combat:


D’une part, réduction drastique des consommations de sources d’énergie fossile carbonée et optimisation des rendements des moteurs et chaudières utilisant ces énergies. Les actions les plus spectaculaires étant la règlementation des émissions de CO2 et le développement de la voiture électrique.


D’autre part, développement des applications utilisant des énergies propres et durables. Essentiellement solaire thermique et photovoltaïque, et éolien.


Pour accompagner ces deux programmes industriels visant à combattre le CO2 à sa source, et ainsi réduire le taux d’accroissement de sa concentration dans l’atmosphère, deux axes complémentaires de recherche ont été privilégiés:


En premier lieu un programme d’encadrement des applications utilisant l’énergie de la biomasse ( Bois essentiellement ), donc intégrant le cycle naturel du carbone, programme visant à améliorer les rendements et à réduire les émissions polluantes.


En second lieu, un ensemble de programmes de recherche orientés vers la capture et la séquestration du carbone ( CSC).


A travers ces programmes, de nombreux secteurs de la recherche et de l’industrie se trouvent ainsi mobilisés sur des actions pluriannuelles motivées par la lutte contre le CO2.


Mais ce gaz , bien qu’étant considéré comme le principal facteur anthropique du réchauffement climatique, n’est pas le seul en cause.


D’autres composés gazeux, également d’origine partiellement anthropique, et présents dans l’atmosphère, sont impliqués dans les phénomènes climatiques ainsi que dans la pollution atmosphérique.


Parmi eux se trouvent  le dioxyde de soufre SO2, alias anhydride sulfureux, et le dioxyde d’azote NO2.


Ces deux compères ont la fâcheuse tendance, en présence d’eau, à donner de l’acide sulfurique (vitriol) et de l’acide nitrique ( acide azotique), tous deux violemment toxiques. Ces acides se forment soit dans l’atmosphère, soit dans les poumons des individus qui ont la malchance de se trouver là.


Ils sont, entre autres dégâts, à l’origine des pluies acides de sinistre réputation. Rappelons que ces pluies détruisent la végétation et provoquent une acidification des océans, ce qui porte un préjudice grave au plancton (qui fabrique notre oxygène) , aux organismes à coquilles calcaires ( dont les barrières coralliennes), et au cycle de solubilité du CO2 dans l’eau.


En plus de ces dégâts, qui suffiraient en eux-mêmes à justifier une lutte sans merci, ces gaz sont des précurseurs d’aérosols sulfatés qui constituent d’excellent noyaux de condensation notamment pour les brouillards toxiques. Le NO2 participe de plus aux réactions atmosphériques qui donnent l’Ozone.


Ces brouillards, dopés à l’acide sulfurique et à l’acide nitrique, sont à l’origine de plusieurs dizaines de milliers de morts chaque année.


Une raison supplémentaire de leur faire la guerre.


Mais, car il y a toujours un mais,


Etant à l’origine de noyaux de condensation, on leur doit une  partie des formations nuageuses de la basse troposphère, nuages qui ont la propriété de faire baisser la température, par des mécanismes assez mystérieux dont seuls les spécialistes pourraient nous dévoiler les arcanes.


Toujours est-il que, par ce biais, ils acquièrent un statut de gaz climato-influents, donc à manipuler avec précaution.


Le SO2 naturel provient essentiellement du volcanisme, et de la végétation. Par exemple le Phytoplancton est à l’origine de sulfure de diméthyle, qui s’oxyde en SO2.


En version anthropique, le SO2 est issu des transformation de produits soufrés dégagés par la combustion des combustibles fossiles (spécialement du charbon) et des raffineries. Des sulfures proviennent aussi du fumier animal, et de certaines industries ( pâte à papiers ).


L’augmentation du taux de SO2 dans a suivi la croissance de l’activité industrielle. Le pic est apparu en 1970-80, suivi d’une décrue due aux mesures de dépollution mises en place à cette époque.


Actuellement la production est repartie à la hausse, en rapport avec le décollage industriel de la Chine, accompagné de la mise en service de nombreuses centrales au charbon.


On notera le facteur d’accroissement de 70 fois par rapport à 1850, à rapprocher de celui du CO2, qui est de 1,25 «seulement» .


NO2 est surtout d’origine anthropique, issu des combustions ( transports, centrales au fuel et au charbon, incinérateurs), et des décompositions.


En tant que précurseurs d’aérosols, SO2 et NO2 sont impliqués dans la formation des couches nuageuses, et donc du climat.


L’effet de serre conduit à un équilibre radiatif entre les différents gaz de l’atmosphère. Si l’on modifie significativement la concentration de l’un des gaz actifs, l’équilibre est rompu, dans un sens qu’il est très difficile de prévoir exactement.


Certains experts estiment qu’il est hasardeux de chercher à réduire fortement SO2 et NO2 car leurs modèles indiquent que leur effet sur la température peuvent être contraire à celui du CO2.


La stratégie à propos des dioxydes de soufre et d’azote n’est donc pas évidente, il est souhaitable de chercher à en savoir plus avant d’agir.


La première démarche consiste à évaluer avec précision les rôles respectifs des GES dits « secondaires » dans la variation de température moyenne du globe, et particulièrement ceux qui participent au processus de nucléation.


Ce processus de nucléation devra être étudié dans ses effets sur la formation des couches nuageuses de la basse troposphère, et donc sur les variations de température.


Dans ces études on peut inclure le projet CLOUD ( Cosmics Leaving Outdoor Droplets) qui se propose d’analyser l’influence des rayons cosmiques galactiques sur le processus de nucléation autour des aérosols sulfatés. Il s’agit de chercher à mettre en évidence l’influence des rayons cosmiques sur la température moyenne du globe, par l’intermédiaire de ces gaz considérés jusqu’à présent comme de simples polluants à éliminer.



 


 


 


 


 


 



 


 


 


 


 


 


 


 


 


 


 


 


 


 


 

 
Repost 0
26 novembre 2010 5 26 /11 /novembre /2010 11:53

26 Novembre 2010

Pour espérer gagner une guerre, il faut d’abord connaître son ennemi. Dans le contexte de la menace de changement climatique catastrophique, le dioxyde de carbone a été élu ennemi public numéro un , une guerre contre ce gaz est donc envisagée à l’échelle de la planète.

Avant de déclencher les hostilités contre un agresseur, il est indispensable de connaître ses forces, ses intentions, ses modes d’action, ses alliés, ses points faibles.

Or, en matière de CO2, il subsiste de graves lacunes dans nos connaissances:

De la totalité du carbone émis par les activités humaines depuis 1750 jusqu’à nos jours, seulement 40% sont demeurés dans l’atmosphère. Les 60% restant ont été soit absorbés par les océans et les continents, soit ont disparu ( durée de vie longue mais limitée ). On estime que la partie absorbée se partage 50% dans les océans, et 50% sur les continents. Nos connaissances des sources et des puits de carbone est très insuffisante.

Il nous faut répondre aux questions suivantes:

- Quels sont les processus naturels d’absorption des émissions anthropiques de carbone ?

- Ces processus vont-ils continuer comme aujourd’hui à limiter l’accroissement du taux de CO2 ?

Ou bien, vont-ils s’arrêter ou même s’inverser dans le futur ?

- Le carbone manquant a-t-il été absorbé par les océans et par les continents ? Et dans quelles proportions ?

- Quels continents absorbent davantage que d’autres ?

- Pourquoi le taux d’accroissement du CO2 varie-t-il d’une année sur l’autre alors que les émissions augmentent uniformément ?

- Comment les puits de carbone répondront-ils aux changements climatiques et/ou aux changements d’utilisation des sols ?

- Quels sont les processus qui contrôlent le taux d’accroissement du CO2 ?

- Quelles sont les sources du CO2 ?

- Quelle est la distribution géographique et l’importance des émissions de CO2 provenant de la combustion des combustibles fossiles, et des sources moins bien connues comme le dégazage des océans, la déforestation, la combustion des biomasses ?. Comment cette distribution évolue-t-elle avec le temps ?

Questionnaire extrait de:

 

http://www.nasa.gov/mission_pages/oco/mission/index.html

 

La mise en place d’une stratégie cohérente anti-carbone exige évidemment de pouvoir répondre à ces questions, non pas avec des approximations mais avec des explications claires et des données chiffrées.

Dans le cadre des études sur les cycles du carbone, la NASA prépare le lancement du satellite OCO-2 ( Orbital Carbon Observatory ) . Le lancement est prévu pour 2013, en remplacement de OCO-1, dont le lancement en 2009 a échoué.

Ce satellite a pour mission d’établir une carte mondiale du CO2, remise à jour tout les 16 jours, avec identification des sources naturelles et anthropiques, les variations saisonnières, identification des puits, surveillance permanente de leur évolution.

Aujourd’hui , une centaine de stations terrestres effectuent des observations du CO2, mais sans possibilité d’identifier les puits de carbone. Seule une observation spatiale pourra apporter des réponses précises.

OCO-2 prendra place dans le train de satellites d’observation de la NASA, composé aujourd’hui de cinq satellites d’observation groupés sur la même orbite.

 

 

 

 







 

 

Repost 0
25 novembre 2010 4 25 /11 /novembre /2010 18:42

25 Novembre 2010

On évalue à trois milliards le nombre de personnes qui n’utilisent pas les combustibles fossiles pour cuisiner ou se chauffer. Leurs combustibles naturels sont le bois de coupe, le petit bois, les brindilles, les résidus de récoltes, ou les bouses séchées. Ces produits sont brûlés dans des dispositifs rudimentaires tels que feux ouverts ou fourneaux en boue séchée, qui sont fortement émetteurs de produits de combustion incomplète: particules de suie ( carbone noir ), méthane, et autres précurseurs d’ozone, dont de nombreux toxiques. En sus du dioxyde de carbone bien entendu.

Malgré leur faible durée de vie dans l’atmosphère ( quelques semaines ) , le volume considérable émis se traduit par une couverture permanente ( car renouvelée ) visible depuis l’espace ( voir photo ). Le nuage stagnant au-dessus de la région Inde-Chine s’étend sur une surface comparable à celle des Etats-Unis, sur une épaisseur de deux à trois kilomètres.

 

Brown-cloud_nasa-image.jpg

 

 

Il est composé pour 2/3 des résidus de combustion de biomasse, et pour 1/3 de la combustion des énergies fossiles.

Ces composants polluants contribuent à la part anthropique de l’effet de serre à hauteur de 30 à 50%, le reste étant la part du CO2. Les chiffres exacts de la répartition sont encore imprécis et font l’objet de programmes de mesures par satellites.

Ce fameux nuage brun d’Asie ignore évidemment les frontières. La circulation atmosphérique se charge d’en faire profiter le reste du monde au gré des courants et des turbulences.

Dans les régions comme l’Inde et la Chine, où la concentration humaine est maximale, le nuage est présent en permanence, avec des effets « secondaires » néfastes. Fonte des neiges et glaces par noircissement et changement d’albedo, déforestation induisant un déficit du bilan CO2, mais aussi fort impact sur la santé des populations. Les Nations Unies évaluent à un million et demi le nombre de morts causés chaque année par cette pollution.

Le programme SURYA , soutenu par les Nations Unies, se propose d’apporter une solution à ce problème par une modification des conditions d’utilisation de l’énergie. Il s’agit essentiellement de promouvoir des méthodes « propres » pour le chauffage et la cuisson. L’idée n’est pas neuve, mais elle a toujours été appliquée à petite échelle et de manière sporadique.

 

cuisine-tradirionnelle.png

 

four-solaire-familial.jpg

 

 

 Le projet SURYA est un programme scientifique de grande échelle qui sera décomposé en trois phases:

Une première phase pilote 2009/2010 , pour la validation des procédures. Cette phase est terminée.

Une seconde phase, 2011/2013, intéressant un ensemble de 50 000 personnes dans le Nord de l’Inde.

Une troisième phase, 2014/2020, visant à l’élargissement de la zone de confirmation, avec extension à d’autres régions comme l’Afrique, l’Asie, et l’Amérique latine.

De nombreux scientifiques de toutes disciplines sont impliqués dans ce projet , de nombreuses stations de mesures au sol sont prévues, en liaison avec le « petit train de la NASA » . Pour les détails, voir ici:

 

http://www.projectsurya.org/

 

http://csc.gallaudet.edu/soarhigh/A-TrainExplain.html

 

L’intérêt d’un tel projet, outre une amélioration du confort et de la santé des populations, et une action contre l’effet de serre anthropique, est l’obtention d’un résultat quasi immédiat et palpable.

En effet, alors que le CO2 possède une très longue durée de vie, et donc ne pourra diminuer que dans très longtemps, les produits sales de combustion ont une durée de vie très courte. Une action contre ces produits donnera des résultats quasi immédiats, facilitant l’adhésion des populations aux efforts demandés.

 

 

 

 

Repost 0
23 novembre 2010 2 23 /11 /novembre /2010 15:38

23 Novembre 2010

L’arrêt de non lieu pris par la Ministre Valérie Pécresse à l’issue d’une instruction menée à huis clos dans le procès intenté au Soleil dans l’affaire du changement climatique , ne mettra pas un terme à l’action des parties civiles, lesquelles parties persistent à acter , arguant du caractère purement local et gaulois de la portée de cette décision, qui par ailleurs ne saurait engager les parties non directement inféodées au gouvernement de la Gaule.

En conséquence, rien de nouveau sous le Soleil, les projets en cours continuent, et des projets nouveaux voient le jour.

Voici un petit aperçu des programmes de recherche portant sur l’étude du Soleil dans ses relations avec la Terre .

 

- D’abord la mission SOHO ( Solar and Heliospheric Observatory) , collaboration entre l’ESA et la NASA; lancé en Décembre 1995, le satellite emporte douze instruments d’observation et de mesure du Soleil. Son orbite, synchrone de celle de la Terre, le situe sur une ligne entre Terre et Soleil. Cette station fonctionne toujours, la dernière prolongation s’étend jusqu’en 2012 et en fait un instrument encore actuel malgré ses quatorze années de service.

Tous les détails ici:

 

http://smsc.cnes.fr/SOHO/Fr/

- La mission CLUSTER, de l’ESA, comporte quatre satellites dont chacun porte onze instruments de mesures du Soleil. Plus particulièrement destinés à l’étude des interactions entre vents Solaires et magnétosphère Terrestre.

Commencée en 2000, la mission a été également prolongée jusqu’en 2012.

Voir détails ici:

 

http://smsc.cnes.fr/CLUSTER/Fr/

SOHO et CLUSTER font partie du programme « HORIZON 2000 » de l’ESA pour la partie STSP ( Solar Terrestrial Science Program ).

- La mission DOUBLE STAR, de l’Agence Spatiale Nationale Chinoise, en collaboration avec l’ESA et le CNES. Deux satellites, lancés en 2003 et 2004, portant 17 instruments pour l’étude détaillée de certaines régions de la magnétosphère. Fonctionnent en synchronisme avec CLUSTER.

 

http://smsc.cnes.fr/DBSTAR/Fr/

- La mission HINODE ( ex SOLAR B ), collaboration entre l’Agence Spatiale Japonaise, la NASA, l’ESA, et la Grande Bretagne. Satellite qui succède à YOKO (ex SOLAR A) perdu prématurément. Transporte trois instruments pour l’étude du Soleil: Télescope dans le visible, et analyse UV et rayons X.

Lancé en 2006.

 

http://solarb.msfc.nasa.gov/

- La mission STEREO, de la NASA, comporte deux satellites pour l’études des éruptions solaires et de leurs effets sur l’environnement terrestre, en liaison avec les stations terrestres ( NOAA, CNES, etc…). Instrumentation en ^partie fournie par le CNES. Lancement en Oct. 2006.

 

http://smsc.cnes.fr/STEREO/Fr/

- La mission PICARD, un satellite du CNES ( de la famille des micro-satellites) lancé en Juin 2010 pour l’observation du Soleil dans la phase ascendante du 24è cycle .

 

http://smsc.cnes.fr/PICARD/Fr/GP_satellite.htm

- Nous avons déjà présenté le programme « CLOUD » ( voir article du 22/11), portant sur le rôle du rayonnement cosmique sur les nuages et les aérosols, avec le Soleil en coulisses , pour son action sur les rayons cosmiques par l‘intermédiaires des vents solaires.

Les résultats consolidés doivent être obtenus en 2011/2012, la partie mise en œuvre et expérimentation étant à peu près terminée.

 

http://public.web.cern.ch/public/en/Research/CLOUD-en.html

- Le programme Russe « ASTROMETRIA » se propose d’étudier le Soleil lui-même. L’expérience sera embarquée sur la station spatiale internationale. Son but est l’étude de l’ensemble des processus qui se déroulent dans le Soleil et de leur influence sur les variations des processus physiques du système Soleil/Terre, et l’analyse fine des structures et de la dynamique des régions actives et des régions calmes de la photosphère ainsi que leurs variations cycliques.

Il s’agit d’une station de mesure long terme qui devra recueillir des longues séries temporelles de relevés.

Détails du projet ASTROMETRIA ici:

 

http://195.201.30.3/english/astrometr/index1_eng.html

Détails techniques sur le Limbograph SL-200 ici

 

http://www.gao.spb.ru/english/astrometr/1_eng.html

- Le programme NASA LWS ( Living With a Star ) .

Le nom du programme suffit à décrire les intentions.

La première partie du programme est supportée par la mission SDO ( Solar Dynamics Observatory ) , embarquée sur un satellite mis sur orbite en Février 2010.

Il s’agit d’étudier les processus de génération du champ magnétique solaire, ses structures et ses modes d’action à travers l’héliosphère et le géospace.

Il s’agit d’une mission à long terme, typiquement la durée du cycle solaire.

Tout sur cette mission ici:

 

http://sdo.gsfc.nasa.gov/mission/about.php

 

Cet aperçu limité montre qu’une activité scientifique considérable est déployée au niveau internationale pour l’étude du Soleil et de ses interactions avec notre planète.

La France est présente dans beaucoup de ces missions « solaires », ce qui témoigne de l’intérêt porté par nos scientifiques à l’étude du système Terre-Soleil et aux interactions entre activité solaire et environnement terrestre.

On peut d’autant plus s’étonner de l’attitude du Ministre de la Recherche, qui semble ignorer cette activité dans son domaine de responsabilité.

 

 

 

 

 

 

Repost 0