Overblog Suivre ce blog
Administration Créer mon blog
15 septembre 2010 3 15 /09 /septembre /2010 19:03

15 Septembre 2010

Nous vivons donc sous la menace d’une grave pénurie de pétrole. Le pic de Hubbert serait derrière nous. Mais au fait, qui est ce Monsieur Hubbert ?

Monsieur Hubbert avait signalé, dans les années quarante, que la production d’une réserve exploitée pouvait être modélisée par une courbe en cloche, dont l’expression mathématique est connue. Appliquée au pétrole, cette théorie est censée permettre de prévoir et de chiffrer le pic de production et la baisse suivant ce pic, pourvu que l’on connaisse les chiffres de la partie croissante de la courbe.

On sait ce que valent les modèles mathématiques, la récente polémique sur les prévisions climatiques s’est chargée de nous rappeler qu’un modèle ne vaut que s’il incorpore toutes les variables du système et leurs interactions.

Or, en matière de production pétrolière, des variables il y en a beaucoup. La courbe de Hubbert donne certes de bonnes prévisions pour le cas d’une exploitation d’un gisement donné dans des conditions données. Mais si l’on modifie un ou plusieurs paramètres, le modèle n’est plus valable.

La partie croissante de la courbe de Hubbert concerne l’extraction du pétrole facilement accessible, et les chiffres de production permettent effectivement de prévoir la fonction de décroissance. Sauf que, après épuisement de ce pétrole facilement accessible, il en reste encore beaucoup dans la Terre.

En période d’abondance, quand un puits est vidé de son pétrole « facile » il suffit de creuser un peu plus loin pour en trouver d’autre, tout aussi facile à extraire.

Mais lorsque la denrée se fait rare, on a recours à des méthodes plus musclées pour extraire les fonds de gisement, ce qui modifie les paramètres du modèle de Hubbert , et fausse la notion de réserves. Parmi les paramètres modifiés il y a bien sûr le prix, dont l’augmentation permet de recourir à des méthodes d’extraction plus coûteuses ( interaction des paramètres) .

Il faut donc se méfier du modèle de Hubbert dans la mesure où il n’intègre pas forcément les paramètres tenant compte des procédés d’extraction récemment mis en œuvre.

Certes, cela ne veut pas dire que la pénurie de pétrole est un mythe, mais cela permet de pondérer le risque de catastrophe économique imminente, et de prendre le temps de mettre en place des mesures adéquates sans céder à la panique qui est toujours mauvaise conseillère.

La consommation de pétrole ne semble pas affectée par ces rumeurs de pénurie. La graphique suivant montre la croissance régulière de la demande depuis les années 80:

 

 

 

 Consommation-mondiale-petrole.gif

 

  

 

La crise de 2008 est marquée par un léger fléchissement de la demande, vite corrigé selon les prévisions de l’AIE pour 2011.

Que nous réserve l’avenir ?

Le docteur tant mieux nous prédit un avenir radieux, avec une consommation continuant à croître selon la courbe A.

Le docteur tant pis nous prédit le clash pour 2015/2020, avec un retournement drastique de la situation suggérant une très grave crise économique.

La réalité sera probablement entre les deux, mais bien présomptueux sera celui qui annoncera la couleur des dix prochaines années.

 

 

 

 

 

Repost 0
13 septembre 2010 1 13 /09 /septembre /2010 11:51

13 Septembre 2010

Petite exploration chez un éditeur numérique, la société NUMILOG, qui revendique un catalogue de 60 000 titres:

Auteur recherché: Claude Allègre ( eh oui, nobody is perfect )

13 titres sont proposés en téléchargement.

Petite recherche au hasard:

« Vous avez dit matière grise »

Pas de chance, il ne figure pas dans le catalogue.

« L’imposture climatique »

Même punition.

« Un peu de science pour tout le monde »

Fayard, 2003

Version papier: Prix unique: 20 e

Prix courant: 19 e

Téléchargement: 17 e

« Introduction à une Histoire naturelle »

Fayard, 2001

Version papier livre de poche: Prix unique: 6,95 e

Téléchargement: 16,99 e

Et le reste à l’avenant.

Nous avons donc le choix entre des livres sortis il y a sept ou dix ans « offerts » en téléchargement avec 10% de réduction par rapport à la version papier grand format, des titres sortis en livre de poche il y a dix ans et « offerts » en ligne 250% plus chers que la version papier poche, ou pas de titre du tout.

Je voudrais bien savoir qui sont les mécènes qui achètent des ouvrages dans ces conditions.

Repost 0
12 septembre 2010 7 12 /09 /septembre /2010 19:11

12 Septembre 2010

Comme il fallait s’y attendre, la guerre fait rage sur le marché des dispositifs de lecture des livres numériques ( voir l’article du 26 Mai 2010).

Deux options principales s’affrontent pour conquérir le cœur des clients. La première option est l’appareil simple dédié quasi uniquement à la lecture ( Lecteur de e-paper), avec un objectif de prix public inférieur à cent euros au moins pour l’entrée de gamme. La deuxième option ( tablette tactile) est un appareil multi-applications, sorte de micro PC, dont l’exemple typique est l’IPad, de prix très supérieur à celui du lecteur simple.

Les grands du livre ( Amazon, Barnes & Noble ) ont mené une offensive de baisse du prix des lecteurs de e-paper, en se positionnant à 150 euros en entrée de gamme, donc nettement inférieur aux tablettes tactiles. Cette offre devrait intéresser de nombreux lecteurs, mais le marché ne peut pas démarrer réellement faute de contenu ( livres numériques) clairement disponible.

Ce marché des contenus est plombé par plusieurs problèmes non encore résolus:

La surabondance de formats d’e-books, qui ne peut que donner une impression de manque de maturité, voire même d’amateurisme.

 

Le manque de clarté sur la politiques des DRM.

Le prix du livre numérique, qui n’en finit pas de finir de se définir.

Le manque de clarté sur l’offre.

Le manque de clarté sur la modèle commercial.

 

En attendant une éventuellement mise en ordre de ces problèmes, le client préfère s’orienter vers les tablettes tactiles, la lecture n’étant alors qu’un accessoire.

Il faudrait pour sauver les lecteurs dédiés que l'offre de tous les éditeurs soit centralisée sur une seule et même plate-forme, que les prix soient largement inférieurs aux prix du papier, que l'offre papier existe systématiquement en version numérique. Bref, une offre simple, lisible, très séduisante par rapport au papier, voilà tout simplement ce qui manque aux lecteurs e-paper pour avoir une chance d'exister.

Si rien n’est fait pour structurer l’offre de livres numériques dans un délai raisonnable, on peut craindre la disparition des lecteurs de e-paper à brève échéance.

 

 

 

Le manque d’intéropérabilité.

 

 

Repost 0
11 septembre 2010 6 11 /09 /septembre /2010 15:39

10 Septembre 2010

La stratégie musclée mise en oeuvre par Google lui a permis de conquérir une place de leader sur le terrain de la numérisation des ouvrages. .

La tactique de Google était ( est encore ? ) extrêmement simple : numériser tout ce qui passe à sa portée et mettre des extraits en accès libre à disposition des lecteurs , au mépris total des ayants droit.

Certes les stratèges de Google n’ignoraient rien de tout ce qui touche aux droits d’auteurs, mais ils ont préféré la méthode hussarde, beaucoup plus économique et rapide que les classiques ( et longues) négociations avec les ayants droit, reportant à plus tard les chicaneries inévitables. Il fut donc décidé d’utiliser le principe de l’Opt-out ( Option de retrait).

Un ayant droit découvrant que son œuvre est dans le catalogue Google peut demander son retrait ( merci mon bon maître , vous êtes trop aimable….).

Oui mais, encore faut-il que l’on puisse faire cette découverte au milieu d’un catalogue de plusieurs millions d’ouvrages. Et vous pensez bien que rien n’est fait pour faciliter la recherche.

Comme il fallait s’y attendre les concurrents ont réagi avec retard mais ont fini par se manifester. D’abord aux Etats-Unis, où le second accord de règlement oblige Google à revenir à l’Opt-in pour les œuvres toujours commercialisées, tout en conservant l’Opt-out pour le reste ( L’Opt-in impose à Google une demande d’autorisation préalable).

La seconde version du « Règlement Google Books » a été examinée par la justice américaine en Février 2010, et malgré la demande du « Department of justice » d’abandonner l’Opt-out et de généraliser l’Opt-in, Google a persisté dans sa décision.

Après les Etats-Unis le reste du monde est entré dans la contestation, et Google doit maintenant faire face à une fronde généralisée.

Un premier procès Google-La Martinière a été perdu par Google.

La société des auteurs Chinois a obtenu que la liste des ouvrages numérisés lui soit communiqué.

En acceptant de remettre une liste, Google facilite grandement le travail des titulaires de droit et, sans remettre en cause l’opt-out, il en fragilise la portée pratique.

On peut donc s’attendre dans l’avenir à un retour au droit, mais en attendant Google aura atteint son objectif qui est d’occuper une position dominante sur ce marché.

 

 

 

 

Repost 0
9 septembre 2010 4 09 /09 /septembre /2010 19:04

Jeudi 9 Septembre 2010

La Société française TMG ( Trident Media Guard ) a été choisie en Janvier 2010 pour développer le logiciel visant à empêcher la copie illicite de fichiers sur Internet, l’objectif étant de relever les infractions dans le cadre de la loi HADOPI.

Ce logiciel est opérationnel depuis Avril 2010 , et fonctionne pour surveiller les échanges de données utilisant le protocole P2P et bloquer les téléchargements .

Aucun logiciel n’est installé à l’insu de l’internaute et aucune information n’y est collectée.

Pour que le relevé d’une infraction puisse légalement donner lieu à poursuites, l’internaute doit pouvoir disposer d’un moyen de ne pas commettre cette infraction. Pour cela l’HADOPI doit fournir un logiciel de sécurisation, ou indiquer une liste de logiciels homologués. L’internaute suspecté devra prouver que le logiciel était activé au moment du relevé de l’infraction.

L’installation de ce logiciel n’est pas obligatoire, pour le moment.

Il n’existe actuellement aucun logiciel de sécurisation homologué.

L’HADOPI a lancé fin Juillet 2010 une consultation publique ouverte jusqu’au 30 Octobre 2010, pour l’établissement d’un projet de logiciel de sécurisation. On peut prendre connaissance du cahier des charges sur ce site:

 

http://www.ecrans.fr/Securisation-Hadopi-futur-arbitre,10526.html

Ce logiciel sera autonome ou intégré dans les antivirus ou les logiciels parentaux. Il devra analyser les flux et les protocoles, et bloquer ou avertir l’utilisateur lors de trafics suspects.

Il pourra également analyser la configuration informatique de l’ordinateur, ce qui concerne aussi bien les logiciels installés - comme ceux de peer-to-peer - ou l’utilisation du wifi en mode non sécurisé.

Enfin, il enregistrera tous les événements ayant lieu sur l’ordinateur dans un double journal — exception faite de l’historique de navigation - dont une partie sera cryptée et transmise à l’Hadopi en cas de litige.

Ce logiciel, conjointement avec le logiciel de TMG, constituera clairement un

« Big Brother » susceptible de permettre une surveillance 24h/24 de toutes les activités de l’internaute, bien au-delà de la lutte contre les téléchargements pirates.

On peut s’attendre à une très forte opposition de la part des associations de défense des libertés, et à des empoignades juridiques musclées si ce procédé est mis en application.

 

 

Repost 0
8 septembre 2010 3 08 /09 /septembre /2010 10:29

8 Septembre 2010

 

L’IAC recommande une réforme des structures Du GIEC.

 

 

7 Septembre 2010

Rappelons que l’IAC ( Inter Academy Council ), missionné par le Secrétariat Général de l’ONU, a été chargé par ce dernier d’effectuer un audit des méthodes et procédures de l’IPCC ( GIEC ) et d’émettre des recommandations s’il y a lieu.

Le rapport de L’IAC vient de sortir le 31 Août 2010 comme prévu, et nous analysons ci-dessous les principales remarques et recommandations qui devront être prises en compte pour la suite des activités de l’IPCC/GIEC.

La mission de l’IAC ne portait pas sur la valeur des travaux scientifiques ni sur les résultats fournis par les différentes équipes, mais uniquement sur les méthodes et procédures de gestion , la communication, la prise en compte des débats contradictoires, et l’interprétation finale à l’usage des décideurs de la planète.

Nous avons fait figurer , dans leur version originale, les paragraphes qui nous ont paru les plus représentatifs, accompagnés de notre propre traduction . Le lecteur est invité à se reporter au texte intégral disponible sur internet.

Extraits:

Recommendation:

The IPCC should establish an Executive Committee to act on its behalf between Plenary sessions. The membership of the Committee should include the IPCC Chair, the Working Group Co-chairs, the senior member of the Secretariat, and 3 independent members, including some from outside of the climate community. Members would be elected by the Plenary and serve until their successors are in place.

Tr. L’IPCC devra mettre en place un Comité Exécutif pour agir en son nom entre les sessions plénières. Ce comité sera composé du président de l’IPCC, des présidents des groupes de travail, du secrétaire principal, de trois membres indépendants dont certains n’appartenant pas à la communauté climatique. Les membres seront désignés en assemblée plénière et resteront actifs jusqu’à leur remplacement.

 

p6

climate science has become so central to important public debates that accountability and transparency must be considered as a growing obligation, and this alone would require revisiting IPCC’s processes and procedures.

Tr. La science climatique occupe aujourd’hui une place si importante dans les grands débats publics que la responsabilité et la transparence doivent être de plus en plus respectées, ce qui en soi suffirait à reconsidérer les méthodes et les procédures de L’IPCC.

The intersection of climate science and public policy is certain to remain a controversial arena for some time as so many competing interests are at stake, including the interests of future generations and the diverse interests of different nations, regions, and sectors of society around the world.

Tr. Les interférences entre la science climatique et la politique publique resteront longtemps un domaine de controverses , eu égard aux nombreux intérêts concurrentiels en jeu , comme ceux des générations futures, et des différentes nations, régions, et secteurs de la société de par le monde.

 

P10

 

Executive Committee should be relatively small with ideally no more than 12 members. Its membership would include selected IPCC leaders as well as individuals from academia, nongovernmental organizations, and/or the private sector who have relevant experience and who are not connected with the IPCC or even climate science. Their participation would improve the credibility and independence of the Executive Committee.

Tr. Le comité exécutif devra être relativement réduit et idéalement ne pas comporter plus de douze membres. Ses membres devront être des leaders choisis de l’IPCC aussi bien que des individualités issues d’organisations académiques non gouvernementales, et/ou du secteur privé ayant l’expérience nécessaire et n’ayant aucun lien avec l’IPCC ou même la science climatique. Leur participation sera de nature à améliorer la crédibilité et l’indépendance du comité exécutif.

 

 

p12

Recommendation:

The IPCC should encourage review editors to fully exercise their authority to ensure that reviewers’ comments are adequately considered by the authors and that genuine controversies are adequately reflected in the report.

Tr. Recommendation:

L’IPCC devra encourager le comité de relecture à exercer pleinement son autorité pour s’assurer que les commentaires des relecteurs sont normalement pris en compte et que les discussions contradictoires sont normalement reproduites dans le rapport.

Recommendation:

The IPCC should adopt a more targeted and effective process for responding to reviewer comments. In such a process, Review Editors would prepare a written summary of the most significant issues raised by reviewers shortly after review comments have been received. Authors would be required to provide detailed written responses to the most significant review issues identified by the Review Editors, abbreviated responses to all non-editorial comments, and no written responses to editorial comments.

Tr. Recommendation:

L’IPCC devra adopter une procédure plus ciblée et efficace pour répondre aux commentaires des relecteurs. Dans une telle procédure, le comité de relecture préparera un résumé écrit des sujets les plus significatifs soulevés par les relecteurs sitôt après réception de leurs commentaires . Les auteurs devront fournir des réponses détaillées écrites sur les problèmes les plus significatifs identifiés par les relecteurs, des réponses brèves aux commentaires non-éditoriaux, et aucune réponse écrite aux commentaires éditoriaux.

p16

Recommendation:

All Working Groups should use the qualitative level-of-understanding scale in their Summary for Policy Makers and Technical Summary, as suggested in IPCC’s uncertainty guidance for the Fourth Assessment Report. This scale may be supplemented by a quantitative probability scale, if appropriate.

Tr. Tous les groupes de travail devront utiliser l’échelle qualitative de niveau de compréhension dans leur résumé pour les décideurs politiques et dans le résumé technique, comme proposé dans le « guide pour la gestion de l’incertitude » de l’IPCC pour le quatrième rapport d’avancement. Cette échelle pourra être complétée par une échelle quantitative de probabilité, si nécessaire.

 

Recommendation:

Quantitative probabilities (as in the likelihood scale) should be used to describe the probability of well-defined outcomes only when there is sufficient evidence.

Authors should indicate the basis for assigning a probability to an outcome or event (e.g., based on measurement, expert judgment, and/or model runs).

Tr. Des probabilités chiffrées ( comme dans l’échelle de vraisemblance ) ne pourront être utilisées pour décrire la probabilité de résultats précis seulement si les preuves sont suffisantes.

Les auteurs devront préciser sur quelles bases sont déterminées les probabilités de tel évènement ou de telle valeur chiffrée.

p17

Recommendation:

The IPCC should complete and implement a communications strategy that emphasizes transparency, rapid and thoughtful responses, and relevance to stakeholders, and which includes guidelines about who can speak on behalf of IPCC and how to represent the organization appropriately.

Tr. L’IPCC devra définir et mettre en place une stratégie de communication mettant l’accent sur la transparence, sur des réponses rapides et approfondies consistantes pour les parties prenantes, incluant des directives précisant qui peut parler au nom de l’IPCC et comment représenter l’organisation de manière appropriée.

 

If adopted in their entirety, the measures recommended in this report would fundamentally reform IPCC’s management structure while enhancing its ability to conduct an autoritaire assessment.

However, no matter how well constructed IPCC’s assessment practices may be, the quality of the result depends on the quality of the leaders at all levels who guide the assessment process.

the traditional approach may not be the best model for future assessments.

 

Tr. Si les mesures recommandées dans ce rapport sont intégralement adoptées, les structures de management de l’IPCC seront fondamentalement réformées, et son aptitude à mener une évaluation de poids sera renforcée.

Cependant, quelle que soit la qualité des pratiques d’évaluation de l’IPCC, La qualité des résultats dépend de le la qualité des leaders à tous les niveaux, qui conduisent les procédures d’évaluation.

L’approche traditionnelle ne peut pas être le meilleur modèle à suivre pour les futures évaluations.

Fin des extraits.

Commentaires:

L’IAC a donc pointé les défauts de la gestion mise en place par l’IPCC et propose des mesures correctrices:

 

Création d’un comité exécutif incorporant des membres non liés à l’IPCC et issus d’organismes non gouvernementaux.

 

Mise en place d’une procédure de relecture transparente, publique, et contradictoire.

Mise en place d’une stratégie de communication claire et transparente , avec justification de toutes les décisions.

Mise en place d’une exigence de précision et de justification quant aux évaluation des probabilités d’évènements et/ou de mesures.

 

Ces mesures permettront de relever le degré de crédibilité de l’IPCC grâce à une plus grande transparence.

Le prochain rapport de l’IPCC doit sortir en 2012/2013 ( Fifth Assessment report ) . Compte tenu de l’ampleur de la polémique actuelle il serait souhaitable qu’une mise au point rapide soit publiée avant cette échéance , afin de calmer le jeu, si toutefois il n’est pas déjà trop tard…..

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

Repost 0
7 septembre 2010 2 07 /09 /septembre /2010 10:02

7 Septemvre 2010

 

Les raisons de la polémique autour des déclarations alarmistes du GIEC/IPCC doivent être recherchées à l’intérieur même des rapports émis par cette organisation.

Nous présentons ici quelques extraits du dernier rapport ( AR4/Fourth assessment report ) tirés du document original . IPCC/AR4/WG1/Chapter 8/

Climate models and their evaluation.

8.1.1

Les auteurs ( Lead authors ) de ce chapitre posent d’emblée le problème de la validation d’un modèle de prévision climatique portant sur plusieurs dizaines d’années, pour lequel il n’existe aucune possibilité de test en grandeur réelle, contrairement aux modèles de prévision du temps qui peuvent être rapidement confrontés à la réalité:

« Weather forecasts are produced on a regular basis, and can be quickly tested against what actually happened.

In climate change simulations, on the other hand, models are used to make projections of possible future changes over time scales of many decades and for which there are no precise past analogues.

Confidence in a ( climate ) model can be gained through simulations of the historical record, or of palaeoclimate, but such opportunities are much more limited than are those available through weather prediction. »

Traduction:

«  Les prévisions météorologiques sont couramment fournies, et peuvent être rapidement vérifiées en les confrontant à la réalité.

Par contre, les simulations de changement climatique sont réalisées grâce à des modèles appliqués à des échelles de temps de plusieurs décades pour lesquelles il n’existe aucune séquence passée comparable .

La confiance dans un modèle climatique peut être obtenue en l’appliquant à des périodes historiques connues, mais de telles possibilités sont beaucoup plus limitées que pour les prévisions météo. »

Le WG1 reconnait donc l’impossibilité de valider rigoureusement un modèle de prévision climatique, et la nécessité qui en découle de se contenter d’une approximation par comparaison avec une séquence temporelle passée, non forcément représentative de la future séquence objet de la prévision.

 

8.1.2

Dans ce paragraphe les auteurs insistent encore sur la nécessité de tester un modèle climatique en le confrontant à la réalité des observations:

« A climate model is a very complex system, with many components. The model must of course be tested at the system level, that is, by running the full model and comparing the results with observations. »

« Un modèle climatique est un système très complexe, avec beaucoup de composantes. Ce modèle doit être évidemment testé au niveau système en comparant ses résultats avec les observations. »

Comme il est rappelé au paragraphe 8.1.1 , une telle confrontation est impossible s’agissant du futur lointain pour lequel il n‘existe aucun relevé, par définition .

En d’autres termes il est rappelé qu’en matière de prévisions climatiques l’expérimentation est impossible.

Or, que vaut un calcul prévisionnel sans la possibilité d’expérimenter et de valider la formule qui conduit au résultat ?

8.1.2.2.

Après avoir établi les bases d’une modélisation numérique assise sur les connaissances actuelles de la physique des composantes et de leurs interactions, il faut donc passer à l’étape suivante qui est le test et la validation des simulations. Cette étape est évidemment essentielle pour établir la fiabilité du procédé de prévisions climatiques.

Le WG1 prend acte que cette étape de validation vient de commencer au moment de la rédaction du document AR4:

 

« What does the accuracy of a climate model’s simulation

of past or contemporary climate say about the accuracy of its

projections of climate change? This question is just beginning

to be addressed, exploiting the newly available ensembles of

Models ».

« Que peut-on déduire de la validation de modèles climatiques sur des périodes passées ou contemporaines, au sujet de cette même validation pour des prévisions de changement climatique ?

Cette question soulève un problème dont l’étude vient juste de commencer sur la base de l’ensemble de modèles récemment disponibles. »

Comment l’IPCC peut-il dans ce cas fournir, dans le même document, des prévisions climatiques sérieuses puisque, de son propre aveu, les modèles mathématiques ne sont pas encore validés?

Les auteurs posent un avertissement clair sur le caractère spéculatif des prévisions présentées dans l’AR4 :

« The above studies show promise that quantitative metrics for the likelihood of model projections may be developed, but because the development of robust metrics is still at an early stage, the model evaluations presented in this chapter are based primarily on experience and physical reasoning, as has been the norm in the past. »

En clair il faut comprendre que les prévisions climatiques présentées dans le document AR4 sont essentiellement le résultat de l’expérience et du raisonnement , et sont donc de nature à évoluer selon les progrès de l’expérience et la proposition de nouveaux raisonnements argumentés.

8.2

Les auteurs rappellent les nombreuses améliorations qui ont été apportées à la compréhension des phénomènes et des interactions depuis le précédent rapport (TAR, Third Assessment Report ). Ils soulignent l’imperfection subsistante des modèles actuels et les progrès restant à accomplir:

« Despite the many improvements, numerous issues remain.

Many of the important processes that determine a model’s

response to changes in radiative forcing are not resolved by (now) ».

« Malgré les nombreuses améliorations, beaucoup de questions demeurent en suspens. De nombreux processus importants, qui déterminent la réponse d’un modèle aux changements d’un forçage radiatif, ne sont pas encore résolus. »

Il est donc clair , de l’aveu même des rédacteurs du rapport, que les modèles comportent des lacunes sur certains processus importants, en particulier leur réponse à un forçage radiatif.

Cette partie du rapport n’appelle aucune critique, elle présente l’état des travaux et n’élude pas les difficultés posées par la validation des modèles climatiques.

La suite du rapport est en complète contradiction avec ce qui précède.

 

FAQ 8.1. Frequently Asked Questions

Ce chapitre prend le contre-pied de ce qui est exposé ci-dessus.

« There is considerable confidence that climate models provide

credible quantitative estimates of future climate change, particularly

at continental scales and above. This confidence comes from the

foundation of the models in accepted physical principles and from

their ability to reproduce observed features of current climate and

past climate changes. Confidence in model estimates is higher

for some climate variables (e.g., temperature) than for others

(e.g., precipitation). Over several decades of development, models

have consistently provided a robust and unambiguous picture of

significant climate warming in response to increasing green house

gases. »

«  On peut affirmer, avec un très haut niveau de confiance, que les modèles climatiques fournissent des estimations quantitatives crédibles du changement climatique futur, particulièrement aux échelles continentales et au-dessus. Cette confiance repose sur le fait que les modèles sont bâtis sur des principes physiques reconnus, et sur leur capacité à reproduire les changements climatiques observés dans le passé et actuellement.

Le degré de confiance dans les estimations données par les modèles est plus grand pour certaines variables climatiques ( par exemple la température ) que pour d’autres ( par ex. les précipitations ). Au cours de plusieurs décades de développement, les modèles ont constamment fourni un tableau solide et sans ambigüité d’un réchauffement climatique significatif en réponse à l’accroissement des gaz à effet de serre. « 

Cette ligne résolument affirmative laisse penser que ce sous-chapitre aurait été rédigé par une équipe différente. Peut-être sous l’influence du bureau politique du GIEC ?

« considerable confidence »

« credible quantitative estimates »

« robust and unambiguous picture »

Sont des termes qui laissent peu de place au doute tel qu‘il est exprimé dans les analyses précédentes par les spécialistes eux-mêmes .

Les auteurs de ce sous-chapitre étrange basent leur confiance dans la validité de leurs prévisions climatiques des modèles numériques sur trois points:

1 - « model fundamentals are based on established physical laws, such as conservation of mass, energy and momentum, along with a wealth of observations. »

Ce qui est la moindre des choses pour une étude scientifique!

2 - « A second source of confidence comes from the ability of models to simulate important aspects of the current climate. »

Les experts du WG1 disent exactement le contraire dans le même document, voir les extraits précédents.

 

3- » A third source of confidence comes from the ability of models

to reproduce features of past climates and climate changes. »

Affirmation contredite par les experts de l’IPCC dans les paragraphes précédents.

 

« Nevertheless, models still show significant errors. Although these are generally greater at smaller scales, important largescale problems also remain. For example, deficiencies remain in the simulation of tropical precipitation, the El Niño-Southern Oscillation and the Madden-Julian Oscillation (an observed variation in tropical winds and rainfall with a time scale of 30 to 90 days). The ultimate source of most such

errors is that many important small-scale processes cannot be represented explicitly in models, and so must be included in

approximate form as they interact with larger-scale features. »

« This is partly due to limitations in computing power, but also results from limitations in scientific understanding or in the availability of detailed observations of some physical processes.

Significant uncertainties, in particular, are associated with the representation of clouds, and in the resulting cloud responses to climate change. »

( Cependant, les modèles présentent encore des erreurs significatives. Bien qu’elles soient généralement plus importantes à petite échelle, il subsiste également d’important problèmes à grande échelle.

Par exemple, il subsiste des insuffisances dans la simulation des précipitations tropicales, des oscillations El-Niño, et de l’oscillation Madden-Julian ( Variations observées des vents tropicaux et des précipitations avec une périodicité de 30 à 90 jours ).

L’origine profonde de la plupart de ces erreurs est que beaucoup de processus importants se déroulent à petite échelle et ne peuvent être représentés explicitement dans les modèles. Mais, comme ils interfèrent avec les processus à plus grande échelle, ils doivent alors y être inclus sous une forme approximative.

Ceci est dû en partie aux limitations de la puissance de calcul, mais aussi aux insuffisance de connaissances scientifiques et d’observations de certains processus physiques.

En particulier, la représentation des nuages présente des incertitudes significatives, et donc également leur influence sur le changement climatique.)

Ce dernier paragraphe est suffisamment explicite quand à la confiance que l’on doit accorder aux modèles dans leurs formes actuelles.

Il y a, dans ce seul chapitre 8, suffisamment de contradictions et d’ambigüités pour nourrir une vigoureuse polémique.

 

Et maintenant ?

Les experts de l’IPCC/GIEC se trouvent confrontés à la nécessité d’arbitrer entre de nombreux modèles climatiques ( 23 modèles dans le dernier rapport !!! ). La situation ne va pas s’améliorer si l’on en juge par le passage suivant, extrait du programme de travail de la réunion d’experts début 2010:

« Since participation in the IPCC process is important for modelling centres, the number of models and model versions is likely to increase in CMIP5.

Some groups may submit multiple versions of the same model with different parameter settings.

The new generation of models is likely to be more heterogeneous than ever, as some but not all of the new models will include interactive représentations of biogeochemical cycles, chemistry, ice sheets, land use or interactive vegetation.

This makes a simple model average increasingly difficult to defend and to interpret. Many models are not independent and some are clearly more robust than others when compared with selected observations »

( Pour les centres de modélisation la participation à l’IPCC est importante. Le nombre et les versions de modèles différents vont probablement augmenter dans l’avenir.

Plusieurs groupes de travail vont proposer différentes versions du même modèle, avec des paramètres différents.

La nouvelle génération de modèles sera probablement plus hétérogène que jamais, car certains modèles, mais pas tous, incluront des représentations interactives de cycles biogéochimiques, de phénomènes chimiques, les glaciers, l’utilisation des sols, la végétation interactive.

Cette situation rend incroyablement difficile la recherche d’un consensus sur un modèle moyen représentatif. Certains modèles ne sont pas indépendants, et certains sont clairement plus valides que les autres par rapport aux observations.)

En clair, il faut s’attendre à devoir interpréter un nombre de modèles encore plus nombreux et compliqués, ce qui rend de plus en plus improbable la convergence vers un modèle unique pour la prévision climatique.

Ces nombreux modèles ne pourront être utilement considérés qu’à la condition de disposer d’un système de classement, qui n’est pas encore disponible.

Et qui décidera que tel modèle est meilleur que tel autre ?

La vague de contestation soulevée dans le milieu scientifique indépendant par le rapport du GIEC/IPCC ne peut plus désormais être ignorée. Compte tenu des enjeux considérables d’une politique mondiale de gestion des modifications climatiques, il est apparu essentiel de fonder cette gestion sur des bases scientifiques solides acceptées par l’ensemble de la communauté scientifique, ce qui n’est pas le cas aujourd’hui .

Les conclusions du GIEC/IPCC à l’usage des décideurs de la planète sont perçues comme peu représentatives des connaissances scientifiques actuelles , et surtout présentées comme ayant un caractère dogmatique, ce qui est à l’opposé de toute démarche scientifique digne de ce nom.

Le 10 Mars 2010, à la demande du Secrétariat Général des Nations Unies et avec le consentement (forcé) du bureau de l’IPCC/GIEC, l’IAC a été sollicité pour entreprendre une analyse indépendante des procédures et des méthodes de travail de l’IPCC/GIEC.

L’IAC ( Inter Academy Council) est une organisation internationale qui réunit les Académies des Sciences de nombreux pays.

Créé en 2000, cette organisation a pour mission de fournir aux organismes internationaux comme les Nations Unies ou la Banque Mondiale , des rapports scientifiques sur les problèmes mondiaux de tous ordres.

Suite à cette demande, l’IAC a constitué un groupe d’experts dans les domaines concernés ( Independant Expert Group, IEG) qui aura pour tâche de mener un audit à l’issu duquel seront éventuellement proposées des révisions des pratiques et des procédures de l’IPCC.

Rappelons que l’IPCC ( GIEC) a été créé en 1988, par le WMO ( World Meteorological Organization), et le Programme des Nations Unies pour l’Environnement, donc avant l’existence de l’IAC.

Compte tenu de l’état d’avancement du cinquième rapport de l’IPCC ( attendu pour 2012/2103 ), le groupe d’experts pour l’audit devra fournir ses conclusions pour le 31 Août 2010.

Note: Le rapport de l’IAC est sorti à la date prévue. Nous en donnerons une analyse dans un prochain article.

 

 

 

 

Repost 0
28 juin 2010 1 28 /06 /juin /2010 17:20

Qu’est-ce qu’un climatologue prévisionniste ?

Les polémiques autour des rapports successifs du GIEC ont placé sur le devant de la scène une espèce nouvelle , le climatologue.

On connaissait jusqu’à présent diverses spécialités traitant des domaines particuliers des sciences de la nature:

L’océanographie, qui réunit des disciplines aussi diverses que l’étude du milieu marin, des fonds sous-marins, des courants, des températures, des variations de niveau de la mer, de la structure des couches océaniques, et bien sûr des échanges entre le milieu océanique et l’atmosphère, études auxquelles il faut ajouter l’immense domaine de la biologie marine , de la sédimentation, et des interactions physico-chimiques entre la mer , l’atmosphère, et les continents.

La physique du globe, qui traite entre autres des phénomènes de la croute terrestre, la tectonique des plaques, la volcanologie, la glaciologie, l’orogénie, et bien sur le cycle de l’eau et beaucoup d’autres domaines dont la météorologie avec l’étude de l’atmosphère, les vents, les nuages, les courants aériens, les phénomènes atmosphériques divers.

L’astronomie, particulièrement le système solaire, le soleil lui-même, les interactions entre les planètes et le soleil, les rayons cosmiques, le système Terre-Soleil, etc…

Toutes ces sciences, et bien d’autres, traitent à un moment ou à un autre de phénomènes d’interactions avec l’atmosphère et donc d’influences sur le climat de la planète. L’étude du climat suppose donc une connaissance approfondie des sciences de la nature . Ces connaissances sont réparties entre les nombreux centres de recherches de la planète , et leur progression est le résultat des travaux de milliers de scientifiques oeuvrant chacun dans sa spécialité.

Le climatologue est un généraliste qui s’appuie sur les travaux des divers spécialistes des sciences de la Terre pour poser un diagnostic sur le climat de la planète.

Les données dont il dispose ne valent que ce que valent celles qui lui sont transmises par les différents spécialistes. De la pertinence de ces données et de leur bon usage dépend la pertinence de ses conclusions.

Son rôle consiste à rechercher, dans l’ensemble des domaines des sciences de la nature, les phénomènes influant sur le climat. Cette recherche doit être évidement exhaustive sous peine de n’obtenir qu’une représentation fausse de la réalité. Cette approche nécessite une collaboration étroite avec les spécialistes des diverses disciplines de la nature, sans en exclure une seule, ainsi qu’une grande ouverture d’esprit.

Lorsque les phénomènes climato-influents sont identifiés, il faut analyser leur mode d’action, rechercher les paramètres représentatifs, les caractériser, et rechercher les interactions entre les différents phénomènes.

Ces travaux mettent en évidence la nécessité d’entreprendre de nouvelles recherches dans des domaines inattendus, ou pour approfondir la connaissance de phénomènes anciens insuffisamment caractérisés.

Il s’agit donc d’un travail de longue haleine qui ne peut être mené à bien que progressivement, par étapes, chaque étape posant de nouvelles questions nécessitant de nouvelles recherches.

On aura compris que la climatologie est une science de l’interprétation , une sorte d’exégèse du corpus de données disponibles « à un moment donné », sans qu’il soit possible se savoir si ces données sont représentatives de la réalité, ni de quelle réalité l’on parle.

Aussi longtemps que le climatologue s’occupe du passé, voire du présent, il est sur un terrain relativement solide car il dispose de données vérifiables à la fois sur les paramètres du climat, et sur le climat lui-même. Les erreurs peuvent être facilement corrigées.

Mais, tenter de travailler sur le climat futur en élaborant des prévisions, c’est prendre le risque que ces prévisions ne soient que de banales prédictions.

Pour recueillir des données sur les climats du passé le spécialiste ne peut certes pas remonter le temps, mais il peut recueillir des témoignages de ce passé et ainsi reconstituer tant bien que mal les climats anciens.

Mais le futur reste une énigme opaque qui ne peut que faire l’objet de conjectures entachées de grandes incertitudes.

Pour tenter d’explorer ce futur , le climatologue utilise le seul véhicule à sa disposition, le modèle mathématique.

Tout le monde connait le « modèle mathématique » de Drake pour établir la probabilité d’existence de mondes habités. Un certain nombre de paramètres qui interviennent dans une équation simple avec des coefficients de pondération . Le résultat dépend évidemment d’une part de la pertinence des paramètres et de leurs interactions, et d’autre part des coefficients de pondération « choisis ». Comme on ne connait ni les uns ni les autres, le résultat est quelconque, selon les choix de l’opérateur. Il s’agit en fait d’une prédiction déguisée d’un ornement mathématique.

Le « challenge » est donc d’éviter que le modèle mathématique du climat ne tombe dans le même travers. Or, si le modèle de Drake ne contient que quelques paramètres, un modèle climatique en contient plusieurs centaines dont la liste n’est pas exhaustive à ce jour. De plus ces paramètres interagissent selon des lois encore très imprécises car leur étude ne peut tirer profit de l’expérimentation , et pour cause !

Pour accroitre encore la difficulté , il semble que le climat constitue un système complexe chaotique. Il n’est donc pas possible de se baser sur les résultats d’un modèle mathématique simplifié pour tirer des conclusions sur le comportement du système complexe réel.

Les modèles mathématiques sont couramment utilisés dans l’industrie et la recherche et ont fait la preuve de leur utilité comme outil de travail , mais ils ne sont qu’une étape dans le processus scientifique.

La mise au point d’un modèle mathématique s’effectue par étapes en comparant les résultats du calcul avec la réalité , dans un processus d’action-réflexion qui aboutit ( ou n’aboutit pas) à une représentation acceptable du phénomène étudié.

Un modèle mathématique qui ne pourrait être testé en confrontation avec la réalité serait donc sans intérêt.

La validité de tout modèle mathématique de prévision climatique doit donc pouvoir être vérifiée par comparaison avec l’évolution réelle du climat. La mise au point du modèle doit être une démarche dynamique fondée sur un processus d’itérations sur des intervalles de temps convenablement choisis .

Par exemple, s’agissant de prévisions climatiques à l’échéance du siècle, des intervalles itératifs de dix ans paraissent raisonnables.

A l’issue de chaque période de dix ans l’écart entre la prévision et la réalité est mesuré, et les progrès réalisés dans la connaissance du problème sont intégrés au modèle pour la période suivante.

La prévision climatique est donc une démarche à très long terme qui exclue toute précipitation .

La principale qualité du climatologue prévisionniste doit donc être la modestie.

Modestie devant l’ampleur du problème, il s’agit quand même de prévoir l’avenir ….Modestie devant la complexité des interactions en jeu , modestie devant les immenses lacunes de nos connaissances des mystères climatiques.

La seconde qualité , mais celle-là doit être partagée par tout scientifique digne de ce nom, c’est l’honnêteté intellectuelle et le rejet de toute idée préconçue. Si cette qualité est absente alors il ne faut rien attendre du résultat, sinon une décision politique.

La troisième qualité, qui devrait être partagée par tout honnête homme, c’est le rejet de tout dogmatisme. Le dogmatisme, c’est le « latch-up » du cerveau. Une fois investi par un dogme, le cerveau ne peut plus fonctionner librement et les facultés de raisonnement restent fermées ( latched ) aux idées qui ne soutiennent pas le dogme.

La climatologie prévisionnelle est donc une activité ingrate car, par définition, la validité des prévisions ne sera vérifiée que par les générations futures. Le climatologue, même s’il aura eu raison, n’en tirera qu’une gloire posthume.

Par contre, de son vivant, il devra faire face à de nombreux contradicteurs dont certains seront de bonne foi, et d’autres de simples opposants politiques. Il devra faire preuve de discernement pour trier le bon grain de l’ivraie afin de ne pas passer à coté d’une information de grande valeur , et adopter une méthode de travail rigoureuse sous peine de voir ses prévisions errer au gré des influences politiques et des pressions des lobbies économico-financiers.

La climatologie prévisionnelle est une science très vulnérable aux pressions extérieures car les enjeux économiques et sociaux sont considérables. L’Humanité est confrontée à trop de problèmes de survie pour se permettre de se tromper d’objectifs.

 

 

Repost 0
10 juin 2010 4 10 /06 /juin /2010 18:23

10 Juin 2010

Lentement, mais sûrement, le numérique pénètre l’univers de l’Education Nationale.

La première démarche a concerné le déploiement des ENT ( Environnements Numériques de travail) , dans l’enseignement secondaire.

Au quatrième trimestre 2009 l’état des lieux était le suivant:

- Généralisation à plus de 50% dans 17 départements.

- Généralisation à moins de 50% dans 29 autres départements.

- Expérimentation dans 15 départements.

- Etudes préalables dans 26 départements ( dont l’ensemble de la Bretagne).

- Pas d’intérêt, dans 13 départements.

( Source: http://www.educnet.education.fr/services/ent/scolaire/deploiement/hist-carto-ent/carte-co-T4-2009/ )

La seconde démarche a été le lancement de l’expérimentation du manuel scolaire en sixième, à la rentée 2009.

325 classes sont concernées, avec 8 000 élèves.

Cette expérimentation sera vraisemblablement étendue dans le cadre du grand plan numérique du Ministre Luc Chatel.

Ce « grand plan numérique pour l’école » , qui doit être précisé en 2010, marque la volonté des pouvoirs publics d’inciter l’Education Nationale à effectuer son virage vers les technologies numériques. Une partie du grand emprunt serait consacrée à ce projet.

Il apparaît donc un nouveau marché qui suscite les convoitises des industriels déjà présents dans les secteurs concernés. En effet, il ne s’agit plus de fournir « seulement » des manuels papier, mais de proposer un ensemble de services « clé en main » incluant les matériels, les logiciels, l’intéropérabilité, et pas seulement du contenu pédagogique. Sans oublier la formation des enseignants à ces nouveaux médias.

Le livre de grand-papa a vécu, il faut désormais apporter l’interactivité, le son et l’image, et l’ouverture sur le réseau internet.

Les grands du multimédia et de l’informatique sont évidemment déjà en piste, et en premier lieu Microsoft:

- En 2003, signature s’un accord-cadre avec l’Education Nationale pour la fourniture de logiciels . Un avenant 2006 précise les conditions d’application de cet accord.

- Pour les enseignants, mise à disposition gratuite du logiciel MS Office 2007.

- Etablissement de partenariat avec le monde associatif enseignant.

- Adaptation au contexte français du programme international «  Partners in Learning ».

- Initiation et financement partiel du « forum des enseignants innovants » à Rennes en 2008.

- Diverses autres actions comme des offres de formations .

L’objectif de Microsoft est bien évidemment de se tailler une position de leader incontournable dans le domaine du logiciel éducatif , ce que sa force de frappe l’autorise à envisager raisonnablement.

Beaucoup regrettent le choix de Microsoft par l’EN, au détriment d’autres solutions logicielles ouvertes. Encore faudrait-il que ces hypothétiques autres solutions soient supportées par une logistique à la hauteur, ce qui ne s’est pas présenté.

Face à cette offensive de Microsoft, dont les ambitions vont au-delà de la fourniture de logiciels, les éditeurs scolaires ne pouvaient pas rester inactifs sous peine de disparaître purement et simplement.

En 2003, sous l’impulsion du Ministère de la Jeunesse, de l’Education Nationale et de la Recherche, trente et un éditeurs se sont associés pour créer le CNS ( Canal Numérique des Savoirs) . Le CNS est une plateforme de distribution de ressources numériques éducatives destinées à l‘ensemble des niveaux des écoles, collèges et lycées, opérationnelle depuis la rentrée 2005. La nouvelle plateforme CNS V2 permet à chaque utilisateur d'accéder d'où qu'il se trouve (dans l'établissement ou au domicile), grâce à un identifiant et un mot de passe uniques, à l'ensemble des ressources acquises au sein du catalogue du CNS.

D’autres éditeurs ont effectué la même démarche, toujours dans le cadre des directives ministérielles, pour créer une autre plateforme, le KNE ( Kiosque Numérique de l’Education). Les objectifs sont les mêmes, dans le respect de l’interopérabilité.

Les éditeurs traditionnels d’ouvrages scolaires se sont donc donné les moyens de préserver leur activité grâce à une diversification dans le numérique. Pour le moment les éditions papier ne sont pas menacées car les deux versions coexisteront pendant quelques années. Mais il ne fait pas de doute que le succès du livre scolaire numérique multimédia entraînera le désintérêt pour le manuel papier, sauf dans quelques cas particuliers.

Il existe une source émergente de concurrence dans le domaine des contenus éducatifs numériques, ce sont les contenus développés par les enseignants eux-mêmes et mis gratuitement à disposition de la communauté. Les matériels et les logiciels existent, qui permettent la réalisation de ces supports de cours sans difficultés particulières, et donc sans la nécessité d’une logistique que seule une grande maison peut offrir.

Depuis Jules Ferry les enseignants peuvent choisir librement leurs manuels, pourvu qu’ils soient conformes aux programmes et respectent quelques règles de base imposées par le Ministère.

S’il existe des sources gratuites de contenus éducatifs numériques fiables, on peut penser que de nombreux enseignants les choisiront pour des raisons budgétaires.

A moins qu’une règlementation draconienne n’intervienne pour rendre incontournable le recours aux grandes maisons…..

 

 

 

Repost 0
9 juin 2010 3 09 /06 /juin /2010 15:28

7 Juin 2010

Le Ministre Luc Chatel laissera donc sa marque sur la première expérimentation en vraie grandeur du manuel scolaire numérique.

Lancé à la rentrée 2009, ce projet est la première pierre d’un édifice ambitieux concernant à terme tous les établissements d’enseignement. Il est la continuité logique de la création des ENT ( Environnements Numériques de Travail) déjà fortement implantés.

Pour construire dans la continuité il était normal de commencer par les classes de sixième, qui sont la porte d’entrée des collèges.

Par ailleurs seuls les établissements ayant développé l’ENT ont été sollicités pour expérimenter les manuels numériques.

64 Collèges dans 12 Académies sur 21 Départements ont accepté de participer à l’opération, ce qui représente 325 classes de sixième , soit 8 000 élèves et leurs enseignants.

Quatre matières sont concernées: Français, Mathématiques, Histoire-Géographie, et Sciences de la Vie et de la Terre.

L’accession aux manuels numériques se fait à travers l’ENT du Collège, soit en classe, soit en étude, soit depuis le domicile.

Les manuels papiers ont été conservés pour cette première expérience, pour tenir compte du manque d’accès internet dans certains foyers.

Il faut saluer cette initiative d’une certaine ampleur, dont les résultats seront analysés à l’issue de l’année scolaire. D’après les premiers résultats très encourageants déjà obtenus, il a été décidé de poursuivre l’expérience en cinquième et de l’étendre progressivement à tous les collèges.

Au-delà de l’allègement du cartable, un résultat déjà appréciable, il faut voir dans cette réalisation l’amorce d’un changement de paradigme. En entrant à l’école, le monde numérique abandonne définitivement son statut de gadget pour être admis dans le monde des médias nobles et incontournables.

 

Repost 0