Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog
11 mars 2012 7 11 /03 /mars /2012 18:37

 

11 Mars 2012

Sans refaire l’analyse des causes du réchauffement climatique, il n’est pas inutile de rappeler deux ou trois choses sur les échanges entre la Terre et l’espace.

Le globe terrestre possède une source colossale de chaleur interne dont l’origine et la distribution sont encore controversées ( Eh oui, encore une controverse !).

Plusieurs phénomènes participent à ce dégagement de chaleur: L’agrégation initiale des particules qui ont formé le globe, les réactions exothermiques qui se déroulent dans le noyau, les mouvements de convection du magma, la désintégration des éléments radioactifs, la tectonique, etc…

Ce globe se refroidit à un rythme évalué à 70 à 130 °C par milliard d’années, donc insensible à notre échelle de temps.

Cette chaleur se dissipe à l’extérieur sous forme de rayonnement infrarouge conformément à la Loi de Kelvin, corrigée de l’émissivité.

Le Soleil , qui est un réacteur nucléaire, rayonne de l’énergie, dont la Terre bénéficie et qui va augmenter sa température de surface.

Cette température de surface dépend de l’équilibre thermique établi entre l’énergie reçue, l’énergie réfléchie, et l’énergie émise.

Si l’atmosphère n’existait pas, cet équilibre ne dépendrait que du rayonnement des deux corps et de l’albedo de la Terre. Il en résulterait une température moyenne de surface terrestre d’environ - 18°C.

L’atmosphère modifie ce bilan radiatif en piégeant une partie des infrarouges émis par la Terre ( Effet de serre), et en modulant le rayonnement solaire par les réflexions sur les couches nuageuses.

Ce qui permet à la température moyenne de surface d’atteindre + 15°C.

Les paramètres qui contribuent au bilan radiatif sont très nombreux. Ils ne sont pas tous encore identifiés et leurs interactions demeurent insuffisamment quantifiées. La liste ci-dessous n’est pas exhaustive:

- Energie rayonnée par le Soleil.

- Distance Terre-Soleil.

- Albedo de la Terre.

- L’émissivité de la Terre.

-Concentration dans l’atmosphère des gaz à effet de serre:

- Vapeur d’eau.

- Dioxyde de Carbone.

- Méthane.

- Ozone.

- Oxydes de soufre.

- Oxydes d’Azote.

- Gaz anthropiques.

-Etc…

- Formations nuageuses.

- Précipitations.

- Vents.

- Pression.

- Aérosols .

- Cycle de l’eau.

- Particules naturelles et anthropiques .

- Rayons cosmiques.

- Magnétisme terrestre.

- Paramètres océaniques:

- Température des eaux.

- Salinité des eaux.

- Concentration en gaz dissous.

- Concentration en minéraux.

- Ph.

- Courants marins.

- Phytoplancton et zooplancton.

- Volcanisme.

- Position du système solaire dans la galaxie.

- Processus végétaux d’échanges gazeux.

- Composition et évolution de la zoosphère.

- Activités anthropiques:

- Bilan énergétique.

- Emissions de gaz et de particules.

- Influences sur l’albedo.

- Influences sur l’émissivité.

- Influences sur le bilan carbone.

Ces paramètres ne sont pas constants dans le temps ni dans l’espace géographique, et de plus il existe entre eux des relations d’interactions assez mal identifiées.

Leur action conjuguée se traduit pas une élévation de température de

33 °C au niveau des basses couches de l’atmosphère, dans les conditions actuelles, et il en résulte une température moyenne de + 15°C.

Pour déterminer l’évolution dans le temps du bilan radiatif, donc de la température moyenne de la surface de la Terre, il est nécessaire de construire un modèle et de le faire tourner sur des ordinateurs puissants.

Ce modèle doit tenir compte de tous les paramètres influents, de leurs interactions, et de leurs variations propres, et ceci en chaque point du système Terre-Atmosphère.

Ceci est évidemment impossible car la complexité du calcul serait infinie, et de plus les conditions initiales ne sont jamais connues avec une telle précision. Il faut donc procéder comme en météorologie, découper l’espace en mailles de taille compatible avec les possibilités des calculateurs du moment.

En plus de cette simplification du maillage, il faut également simplifier la prise en compte des paramètres pour rendre le calcul possible.

Il existe donc deux limites:

Le choix d’un maillage trop fin, qui conduit à une impossibilité de définir les conditions initiales de chaque maille au même moment, et à un calcul si lourd qu’il dépasse les possibilités des l’ordinateurs.

Le choix d’intégrer un grand nombre de paramètres, qui

conduit au même résultat.

Il faut donc se satisfaire d’un compromis dans lequel on maîtrise les conditions initiales et la puissance de calcul, mais sachant que la marge d’erreur est importante.

Un modèle, quel qu’il soit, doit être validé.

Il est facile de valider un modèle lorsqu’il représente des phénomènes de courtes durées. Il suffit de comparer les résultats du modèle avec les phénomènes réels et de répéter l’expérience aussi souvent que nécessaire pour affiner le modèle.

Un modèle climatique se donne pour objectif de prédire l’évolution du climat sur de longues périodes, plusieurs dizaines d’années.

Sa validation doit donc être effectuée sur des périodes comparables. Par exemple les prévisions d’un modèle établi en 2010 doivent être comparées au climat effectif de 2020 ou 2040, afin de le valider ou d’apporter des corrections qui seront à leur tour validées en 2050 ou 2060, et ainsi de suite.

La machine à voyager dans le temps n’existant pas encore, notre modèle de 2010 ne peut donc pas être validé, ce qui est évidemment fâcheux.

Comme il n’est pas sérieux de faire confiance à un modèle non validé, qui n’aurait aucune crédibilité, on utilise un artifice qui consiste à effectuer une rétro validation sur une séquence climatique passée.

(C’est un peu l’histoire de l’homme qui a perdu sa clé dans l’obscurité, et qui va la chercher sous un réverbère parce que là il y a de la lumière…)

Ce tour de passe-passe n’abuse que les béotiens, les scientifiques ne sont pas dupes, mais tout le monde est d’accord pour reconnaitre qu’il n’y a pas d’autre méthode, alors on s’en contente.

Car le problème n’est pas seulement de principe, il existe une difficulté intrinsèque:

la climatologie est une science récente, et il n’existe pas de base de données suffisamment précise et étendue pour des périodes antérieures de quelques dizaines d’années au temps présent. Encore aujourd’hui les recherches climatologiques apportent tous les jours des nouvelles découvertes et de nouvelles bases de données, notamment satellitaires.

Faire tourner un modèle de 2010 sur des données approximatives et incomplètes du passé n’est pas satisfaisant.

Il y a d’autre part une impossibilité de principe à connaître les conditions initiales autrement qu’approximativement.

Nous avons donc un modèle impossible à valider dans son domaine temporel de fonctionnement, et un corpus de données du passé impropres à fournir une validation consistante.

Pour sortir de cette impasse, il a été décidé de faire développer plusieurs modèles par différentes équipes de scientifiques. Chaque équipe conçoit son modèle sur la base d’hypothèses qui lui sont propres, et réalise ses propres simulations. Ces résultats sont ensuite comparés afin d’en tirer des enseignements.

C’est la démarche qui a été adoptée par le GIEC, et qui a permis d’obtenir un ensemble de courbes d’évolution de la température terrestre, qui sont le résultat d’un consensus et ne doivent pas être considérées comme gravées dans le bronze.

Il reste que les modèles actuels devront être validés un jour ou l’autre. La procédure consistera à suivre en temps réel l’évolution du climat et à comparer les prévisions des modèles avec la réalité. Les écarts seront interprétés pour corriger les modèles au fur et à mesure et à procéder par itérations.

De nombreux programmes de recherches et de mesures sont en cours pour faire progresser la science climatologique. Les nouveaux résultats seront intégrés aux modèles de prévisions qui eux-mêmes seront confrontés aux relevés de mesures climatiques sur de longues périodes.

La prévision de l’évolution climatique sera donc plutôt un suivi permanent. Comme en météorologie, nous aurons plusieurs types de prévisions:

- Prévisions à dix ans, avec une très bonne fiabilité.

- Prévisions à moyen terme, trente à cinquante ans, avec une fiabilité moyenne.

- Prévisions à long terme, un siècle ou deux, non directement exploitables mais indicatives.

La science peut nous délivrer des prévisions variables selon diverses hypothèses, mais elle ne saura jamais nous donner la recette politique pour que les sociétés humaines choisissent l’hypothèse la plus sage…

 

 

 

 

 

Partager cet article
Repost0

commentaires