Overblog Suivre ce blog
Administration Créer mon blog
21 novembre 2010 7 21 /11 /novembre /2010 12:07

21 Novembre 2010

Madame Valérie Pécresse, Ministre de l’Enseignement Supérieur et de la Recherche, reconduite dans ses fonctions dans le nouveau gouvernement Fillon, inquiète de la bronca surgie de la communauté scientifique indépendante au sujet des positions du GIEC, et surtout de la démarche de L’IAC, dont la crédibilité ne peut être mise en doute, a demandé à l’Académie des Sciences un rapport sur la question des variations climatiques.

Ce rapport a été remis le 28 Octobre 2010.

Avant de lire les interprétations qui en sont données par les médias , interprétations qui dans l’ensemble font une exégèse en faveur de la thèse politiquement correcte, l’honnêteté intellectuelle la plus élémentaire nous impose de lire en premier lieu le rapport lui-même, disponible ici:

 

http://www.academie-sciences.fr/publications/rapports/pdf/climat_261010.pdf

Chacun pourra constater que ce rapport se veut factuel et neutre. Il expose de manière synthétique l’état des connaissances actuelles, en insistant sur l’ampleur des travaux qu’il reste à accomplir pour préciser de nombreux points litigieux.

Nous citons ci-après quelques extraits significatifs:

« Au cours des dernières décennies cependant, les changements climatiques semblent s’être accélérés. »

«la Science peut tenter d’apporter des réponses autorisées, même si elles ne sont que partielles ou temporaires, dès lors qu’elles sont guidées par le souci d’objectivité qui doit présider à toute démarche scientifique. »

«(Le débat) il a permis de confronter les différents points de vue, de dégager des points de convergence et d’identifier les divergences et incertitudes qui persistent. Il est le point de départ d’une réflexion qui sera prolongée ultérieurement. »

«Malgré les nouveaux outils d’investigations dont on dispose aujourd’hui et malgré le volume considérable de données accumulées ces vingt dernières années, il faut souligner que la Science ne peut répondre à tout »

«Tous les mécanismes de transmission et d’amplification du forçage solaire, et en particulier de l’activité solaire, ne sont pas encore bien compris. Il faut noter que si le cycle de 11 ans de l’activité du Soleil tendait à diminuer d’intensité, comme cela a été le cas dans le passé, un ralentissement graduel du réchauffement global pourrait se produire. »

«Un réchauffement dans l’Antarctique précède de 800 ans une augmentation du CO2 « 

«Les effets potentiels de l’activité du cycle solaire sur le climat sont l’objet de controverses mais donnent lieu à des recherches actives. Certains mécanismes invoqués concernent l’effet du rayonnement cosmique galactique, fortement modulé par le vent solaire qui pourrait affecter la formation des nuages ; des couplages supplémentaires entre la stratosphère et la troposphère associés à des

courants électriques sont également évoqués. Ces effets, secondaires par rapport à l'effet des conditions atmosphériques telles que la teneur en vapeur d'eau, la stabilité et la circulation générale de l'atmosphère, etc., dépendent d’une physique sous-jacente qui fait actuellement l’objet d’études expérimentales au CERN. »

«D’autres mécanismes, qui mettent en jeu l’évolution importante de la composante UV au cours du cycle et qui modifient la distribution d'ozone stratosphérique, sont actuellement à l'étude. »

« Des couplages de l’océan avec l’atmosphère, encore insuffisamment connus, … »

«La connaissance des mécanismes d’échanges océan-atmosphère et continent-atmosphère a fait de grands progrès mais reste encore incertaine pour des prédictions plus précises à l’échelle du siècle. »

«Les incertitudes sur l’effet global indirect d’un changement de concentration du CO2, avec toutes les rétroactions prises en compte, font l’objet de débats au sein de la communauté des climatologues. »

«Les modèles climatiques se sont perfectionnés depuis 30 ans, prenant en compte de nombreux mécanismes ignorés dans les premiers modèles. Cependant, l’évaluation des incertitudes est au centre des débats. »

«La modélisation des processus doit tenir compte de deux types de mécanismes: tout d’abord ceux pour lesquels les processus physicochimiques sont bien compris et peuvent être traduits en équations, et les autres, trop complexes, qui ne peuvent être actuellement décrits que par des relations phénoménologiques fondées sur des observations. »

«Le second groupe de processus demande une part de modélisation empirique. »

«la description de l’évolution de la nébulosité reste unanimement reconnue comme la partie la plus incertaine. »

«Les variations multidécennales de l’océan (Oscillations Nord-Atlantique, El Niño, …) sont encore difficiles à modéliser. »

«Les effets de la végétation ou de la biologie marine, qui affectent directement l’albédo des surfaces continentales ou marines, ne peuvent être modélisés à partir de processus biologiques fondamentaux. »

«La capacité des modèles climatiques à reproduire les évolutions passées du climat à l’échelle pluridécennale est limitée par le fait que des données homogènes ne sont apparues que dans les années 1970. »

«La validité des projections pour les décennies à venir et leurs incertitudes sont une question centrale. »

«les mécanismes non encore identifiés ne sont naturellement pas inclus dans les modèles . »

«Les corrélations directes purement statistiques entre deux quantités sont utiles pour mettre en évidence des couplages non modélisés ou mal représentés, mais non pour tester précisément les mécanismes internes aux modèles et leur pertinence quant à la simulation des variations du climat. C’est une partie des débats actuels entre scientifiques. »

«Les éventuels comportements fortement instables ou chaotiques du système atmosphère-océan-cryosphère-surfaces continentales sont un autre facteur important d’incertitude. »

«La nature des comportements chaotiques ou de bifurcations entre états bien distincts du système climatique demeure ouverte et fait l’objet d’un intense effort de recherche au niveau international. »

« Les mécanismes pouvant jouer un rôle dans la transmission et l’amplification du forçage solaire et, en particulier, de l’activité solaire ne sont pas encore bien compris. »

« Des incertitudes importantes demeurent sur la modélisation des nuages, l’évolution des glaces marines et des calottes polaires, le couplage océan-atmosphère, l’évolution de la biosphère et la dynamique du cycle du carbone. »

« Le caractère interdisciplinaire des problèmes rencontrés impose d’impliquer davantage encore les diverses communautés scientifiques pour poursuivre les avancées déjà réalisées dans le domaine de la climatologie et pour ouvrir de nouvelles pistes aux recherches futures »

Nous pensons qu’avant de lire la Presse il était bon de prendre connaissance de ce florilège.

Nous tenons à saluer l’impartialité de ce rapport, dans lequel on trouve à la fois les éléments justifiant les appréhensions liées au changement climatique, mais aussi les mises en garde contre des conclusions prématurées fondées sur des connaissances scientifiques insuffisantes.

Repost 0
19 novembre 2010 5 19 /11 /novembre /2010 15:49

19 Novembre 2010

La stratégie CSC ( Capture et Séquestration du Carbone ) est beaucoup critiquée, elle doit donc être justifiée.

Pour des raisons ( sur lesquelles nous ne reviendrons pas ici ) la communauté internationale a décidé de développer une stratégie de réduction du taux de CO2 dans l’atmosphère. Ce taux est actuellement de 380 ppmv, la valeur limite fixée comme objectif est 450 ppmv en 2050.

Pour atteindre un tel objectif il est donc obligatoire de réduire drastiquement les émissions de ce gaz. Les moyens à mettre en œuvre sont connus :

- Réduction de la consommation énergétique .

- Amélioration des rendements.

- Développement des énergies propres et durables.

- Etc….

Sauf à plonger l’économie mondiale dans le marasme générateur de troubles sociaux majeurs ( ce qui serait une autre stratégie…) il n’est pas question d’arrêter les usines, les transports, les raffineries, les chauffages individuels et collectifs, les cimenteries, les centrales électriques, demain matin. Pas question non plus d’interdire aux pays émergents de mettre en œuvre leurs plans de développement.

La stratégie de réduction des émissions ne peut donc être qu’une action sur le long terme, dont les effets ne se feront sentir significativement que dans dix ou vingt ans.

Au rythme actuel des émission de carbone, la limite de 450 ppmv sera franchie bien avant l’échéance de 2050.

C’est pourquoi, si l’on veut respecter cette limite, il est impératif de prendre d’autres mesures correctrices pendant la période critique des vingt prochaines années.

La seule méthode disponible , pouvant être mise en œuvre rapidement, est d’enfouir le maximum possible de CO2 dans le sol.

Il est évident que si un chercheur découvrait rapidement une autre méthode plus soft et aussi efficace, il serait le bienvenu, avec un prix Nobel à la clé.

On reproche souvent au CSC de séquestrer le CO2 dans des sites qui sont éloignés des sites producteurs.

Est-il bien nécessaire de rappeler à ces détracteurs que les sites d’extraction du pétrole sont également très éloignés des sites de consommation, et que cela ne gêne personne….

Pour conclure, la stratégie CSC comporte certes des inconvénients, mais c’est la seule stratégie capable, sur le court terme, de réduire le taux de CO2 atmosphérique.

Il paraît difficile d’y échapper , tant que le CO2 restera l’ennemi public numéro un.

Bien sûr, s’il s’avérait que le danger a été surévalué , il sera toujours temps d’adopter une stratégie moins ambitieuse.

Mais ceci est une autre histoire…..

Repost 0
19 novembre 2010 5 19 /11 /novembre /2010 14:18

19 Novembre 2010

Voici donc venir le sommet de Cancoon, duquel nous espérons voir sortir un accord planétaire sur la gestion des émissions de carbone.

A première vue Monsieur Candide peut se demander: pourquoi un sommet mondial pour si peu de chose ? Il suffit ( Ya ka ) de fixer des quotas « per capita » et le tour est joué.

Mais , en grattant un peu, Monsieur Candide constate rapidement que derrière ce problème de carbone se trouve une boîte de Pandore ( encore une !…) dont l’ouverture libère des démons que l’on n’est pas sûrs de pouvoir maîtriser. Un minimum de réflexion s’impose.

En premier lieu, pourquoi le carbone ?

Notre homme, faussement naïf, voudrait en savoir plus. Il n’est pas sans avoir eu quelques échos de la bronca qui s’élève d’une partie de la communauté scientifique libre, ce qui le conforte dans son attitude de curiosité. Pour le malheur de ceux qui voudraient monopoliser l’information, il y a internet; cet outil merveilleux permet d’aller à la source de l’information et de se l’approprier avant qu’elle soit prédigérée par les faiseurs d’opinions .

Longtemps réservée aux lecteurs familiers de la langue anglaise ( pour cause de censure des médias français ), l’information libre est maintenant disponible en français, pour peu qu‘on se donne la peine de la chercher.

Notre lecteur curieux s’aperçoit alors, avec effarement, que le réchauffement climatique pourrait bien être remplacé par un « petit âge glaciaire » pour les vingt prochaines années. En prime on lui annonce que le responsable de tout çà n’est probablement pas le CO2, mais tout simplement le Soleil ….Bien sûr il n’a pas la compétence pour juger lui-même qui a tord et qui a raison, mais la question est incontestablement posée très officiellement. Son honnêteté intellectuelle l’oblige à prendre acte de la polémique.

Monsieur Candide n’est évidemment pas le seul à constater ce flottement ; les conseillers scientifiques des chefs d’Etats, qui ont le devoir de s’informer, suivent la polémique de très près. Leurs convictions seront celles du groupe d’experts dont ils se seront entourés. Aujourd’hui le CO2 reste officiellement l’ennemi publique numéro un, mais gageons que ce consensus commence à se fragiliser dans l’esprit de certains responsables décideurs…..

Cette polémique autour du responsable du changement climatique introduit un vers dans le fruit. C’est donc un fruit à moitié pourri qu’il faudra manger à Cancoon.

En second lieu, quel type d’accord ?

Dans ce genre de grandes manœuvres, l’Europe a montré la voie ( une voie) en mettant sur pied le SCEQE ( Système Communautaire d’Echanges de Quotas d’Emissions ) , opérationnel depuis 2005. La seconde phase ( 2008-2012 ) permettra de juger de l’efficacité de la chose, au plan de la réduction des émissions, mais aussi au plan de l’impact socio-économique. Dans ce système « Cap and Trade », on apprécie le « Cap », on redoute le « Trade ». Plusieurs points sont discutables et discutés:

- L’attribution de quotas gratuits, un peu à la tête du client ?

- La titrisation des permis de polluer, que vient faire la finance là-dedans ?

- Le risque de fermeture de sites et/ou de délocalisations lorsque les quotas seront mis aux enchères en 2013, compromettant le bilan de certaines entreprises.

Ce système a l’avantage d’exister, mais il faudra étudier attentivement les risques de dégâts collatéraux.

Il sera évoqué à Cancoon, bien que le contexte soit totalement différent.

L’Europe est une entité économique, ce n’est pas le cas du reste du monde.

La fixation de quotas pour chaque pays en voie de développement sera nécessairement perçue comme du néo-colonialisme.

La gestion des émissions de carbone suppose le transfert des technologies ad-hoc, ce qui pose le problème de la propriété industrielle, et du retour sur investissements.

Il s’agit ni plus ni moins d’instaurer un nouveau système de gouvernance mondiale.

Les contraintes inévitables ne seront acceptées que si les enjeux sont indiscutables.

Beaucoup de grain à moudre , mais qui mettra le grain, et qui fera tourner la meule ?…

Repost 0
17 novembre 2010 3 17 /11 /novembre /2010 19:23

16 Novembre 2010

Avec la mesure des variations de température moyenne de la basse atmosphère, la surveillance des niveaux marins est un autre témoin très important du réchauffement climatique.

Jusqu’à l’ère des satellites, les niveaux marins étaient mesurés par les marégraphes.

Ces mesures classiques ne sont pas suffisantes , eu égard à la précision exigée aujourd‘hui. En effet, ce système ( s’il est utilisé seul ) présente plusieurs inconvénients:

Les mesures sont relatives, le référentiel étant le lieu géographique sur lequel la station est implantée. Ce référentiel n’est pas stable, et ses déplacements ( rebonds post-glaciaires, affaissements locaux, effet des marées terrestres, volcanisme, etc…) ne sont pas connus avec précision. Or leur valeur est du même ordre de grandeur que les variations de niveau recherchées.

Les marégraphes ne constituent pas un réseau planétaire homogène, ils sont disposés en majorité dans l’hémisphère Nord, dans les régions de forte densité de population.

Les niveaux estimés n’étaient pas rapportés à un référentiel géodésique universel.

Dès les premières missions spatiales, les satellites ont été mis à contribution pour constituer un système global planétaire . Rappelons les missions TOPEX/POSEIDON, puis JASON 1 et JASON 2, et bien d’autres, qui ont permis progressivement la mise en place d’un maillage global constituant un réseau de mesure en concertation avec les stations terrestres de repérage géodésique.

Depuis 1993 on dispose de séries continues de mesures du niveau moyen des océans:

La courbe ci-dessous est extraite de:

 

http://www.aviso.oceanobs.com/fr/actualites/indicateurs-des-oceans/niveau-moyen-des-mers/index.html

 

Niveau-moyen-oceans_1993_2010.gif

 

Cette courbe présente une pente constante à +3,28 mm/an.

Il reste maintenant à identifier et comprendre les phénomènes qui sont à l’origine de cet accroissement de niveau.

Cet accroissement de niveau moyen, une trentaine de centimètres par siècle, peut paraître relativement bénin. Mais , comme toujours en matière de climatologie, ce n’est pas la valeur moyenne qui est importante, ce sont les variations régionales.

la courbe suivante est une cartographie des gradients régionaux des variations du niveau:

( Document de la même origine)

 

Variations-niveau-des-oceans.gif

 

 

On peut en tirer plusieurs enseignements:

Le gradient de variation du niveau marin n’est pas constant, il varie fortement d’une région à l’autre, de - 12 mm/an jusqu’à +12 mm/an. Certaines régions sont donc plus affectées que d’autres.

Les côtes Ouest Europe et Ouest Afrique sont affectées d’une légère augmentation de niveau, de l’ordre de 1 mm/an, facilement gérable si ce gradient n’augmente pas.

La région Sud-Ouest Pacifique par contre est fortement affectée par un accroissement de niveau très important.

Le Nord de l’Océan Indien est remarquablement stable, ce qui contredit certaines affirmations catastrophiques concernant le golfe du Bengale.

Une éventuelle stratégie de gestion des variations des niveaux marins devrait donc être essentiellement régionale.

Cette cartographie désigne clairement les zones exposées. Elle devra être confirmée par des relevés supplémentaires sur des périodes longues , au moins plusieurs décennies, pour vérifier qu’il s’agit bien de tendances de fond, et non de phénomènes à caractère oscillatoire.

Repost 0
11 novembre 2010 4 11 /11 /novembre /2010 18:44

11 Novembre 2010

Le réalisme nous oblige à prendre acte de la situation conflictuelle qui s’est créée autour du changement climatique. D’un côté les adeptes de la thèse de la responsabilité de l’Homme qui serait, seul , à l’origine du réchauffement de la planète. De l’autre, les tenants d’une thèse plus modérée, qui lie en grande partie les variations climatiques à certaines causes naturelles, en particulier la variabilité de l’irradiance solaire, mais pas seulement.

Des arguments respectables sont avancés de part et d’autre, sans qu’il soit possible, dans l’état actuel de la science climatique, de savoir où est la réalité. En fait tout tourne autour de l’interprétation d’un vaste corpus de données, qu’il faut préalablement corriger de la part des erreurs systématiques , elles-mêmes sujettes à interprétation…..Ce n’est plus du raisonnement scientifique, mais de l’exégèse de données plus ou moins anciennes qu’il faut décrypter et desquelles on peut extraire n’importe quel scénario, depuis la glaciation jusqu‘au réchauffement .

Les deux camps sont au moins d’accord sur un point: L’incertitude est en grande partie liée à l’insuffisance de nos connaissances des paramètres climatiques du système Terre-Soleil.

Cette lacune sera progressivement comblée dans les prochaines années grâce aux nombreux programmes de recherches et de mesures en cours ou en préparation, dont la liste est trop longue pour qu’ils soient cités ici.

L’objectif de ces programmes est, entre autres, de déterminer la part des causes naturelles et des causes anthropiques dans le changement climatique. Si l’on ne peut rien pour modifier les premières, les secondes peuvent être amendées, encore faut-il les identifier et mesurer leur impact pour mettre en place une riposte proportionnelle.

Il est assez vraisemblable que, dans le tableau final enfin découvert, on trouve à la fois des causes naturelles et des causes anthropiques, les secondes servant de faire-valoir aux premières. La réconciliation serait alors possible autour d’un projet planétaire avec deux objectifs: D’une part mettre en place les mesures de protection pour gérer les changements climatiques naturels inévitables, et d’autre part définir et mettre en œuvre les processus de réduction des forçages anthropiques.

Rendez-vous en 2020 ?

Repost 0
11 novembre 2010 4 11 /11 /novembre /2010 11:58

11 Novembre 2010

Déjà brocardée sous le sobriquet de « Loi prisunic », la loi sur le prix unique du livre numérique a donc été adoptée par le Sénat le 27 Octobre 2010.

Voici le contenu in-extenso des trois premiers articles:

« Article 1er

La présente loi s’applique au livre numérique lorsqu’il est une œuvre de l’esprit créée par un ou plusieurs auteurs et qu’il est à la fois commercialisé sous sa forme numérique et publié sous forme imprimée ou qu’il est, par son contenu et sa composition, susceptible de l’être, nonobstant les éléments accessoires propres à l’édition numérique.

Un décret précise les caractéristiques des livres entrant dans le champ d’application de la présente loi. »

Remarque:

Il apparaît donc, contrairement à ce qu’on a pu lire ici ou là, que toutes les formes de livres numériques sont concernées, et pas seulement les livres numériques homothétiques. L’expression « ou qu’il est,……,susceptible de l’être » ne laisse pas place au doute.

Le décret annoncé ne pourra pas modifier l’esprit de cette loi.

« Article 2

Toute personne qui édite un livre numérique dans le but de sa diffusion commerciale en France est tenue de fixer un prix de vente au public pour tout type d’offre à l’unité ou groupée. Ce prix est porté à la connaissance du public.

Ce prix peut différer en fonction du contenu de l’offre, de ses modalités d’accès ou d’usage.

Un décret fixe les conditions et modalités d’application du présent article. »

Remarque:

Ici également, contrairement à ce qu’on a pu lire dans la presse, un prix de vente public devra être fixé et respecté, dès lors que l’ouvrage est commercialisé en France. Par exemple le fait qu’il soit acheté au Canada ne permettra pas de contourner la loi.

« Article 3

Le prix de vente, fixé dans les conditions déterminées à l’article 2, s’impose aux personnes proposant des offres de livres numériques aux acheteurs situés en France. »

Cet article ne fait que préciser le champ de l’article 2.

Bien noter que cette version de la loi diffère de la version du 8 Septembre 2010, notamment en ce qui concerne les prêts aux bibliothèques.

Cette loi soulève déjà de vives protestations, la lecture des décrets d’application sera très distrayante…..

 

Repost 0
11 novembre 2010 4 11 /11 /novembre /2010 10:55

11 Novembre 2010

En ce jour symbolique il fallait annoncer une victoire, bien pacifique, celle du livre numérique.

Après avoir été longtemps brocardé, puis combattu ( il l’est encore en France ), il est enfin adopté. Le graphique ci-dessous se passe de commentaire; il est extrait de:

 

http://actu-des-ebooks.fr/2010/11/09/le-livre-numerique-adopte-plus-vite-que-prevu/

 

Livre-numerique-aux-USA.jpg

 

Atteindre 9% des ventes en deux années de réel démarrage, et avant les fêtes de fin d’année, c’était inespéré.

Certes, il s’agit des USA, mais on sait que tout ce qui se passe là-bas , bon ou mauvais, arrive chez nous quelques années plus tard.

En France, pays de l’exception culturelle, l’édition est aux mains de quelques maisons qui entendent bien conserver leur quasi monopole. Les combats d’arrière-garde comme la loi sur le prix unique du livre numérique, la loi Hadopi, ou la fixation de prix de vente dissuasifs, peuvent retarder la progression du marché du numérique, mais certainement pas le marginaliser durablement.

Repost 0
9 novembre 2010 2 09 /11 /novembre /2010 18:12

9 Novembre 2010

Le désormais célèbre consensus a donc décrété que les variations de l’activité solaire n’ont aucune influence sur les changements climatiques.

Les non croyants, curieux et sceptiques de nature, n’étant pas tenus de respecter ce dogme, se sont posé certaines questions et ont entrepris de fouiller dans les bases de données, heureusement encore librement accessibles. C’est un comportement qui est encore recommandé dans le cursus de formation des chercheurs, mais peut-être plus pour longtemps.

Ces bases de données sont une vraie caverne d’Ali Baba.

Par exemple, on peut récupérer les datas sur les variations de l’irradiance solaire de 1610 à 2000 sur le site suivant:

 

http://www1.ncdc.noaa.gov/pub/data/paleo/climate_forcing/solar_variability/lean2000_irradiance.txt

D’autre part les datas sur les variations de température moyenne du globe traînent partout.

En comparant les deux on trouve des choses curieuses. Le résultat est visible sur ce site:

 

http://www.pensee-unique.fr/index.html

 

 

 

solar-cycle-length-vs-temperature.jpg

C’est une corrélation au moins aussi belle qu’entre le taux de CO2 et la température.

Il ne « reste » plus qu’à trouver le ( ou les) phénomène(s) qui pourraient expliquer cette corrélation. Au moins ici on est sur que, si il y a une relation de cause à effet, c’est bien le Soleil qui sera la cause.

 

Repost 0
9 novembre 2010 2 09 /11 /novembre /2010 11:34

9 Novembre 2010

Dans notre article du 22 Mai 2010 nous dénoncions la tentative de prise de contrôle de l’internet par la mise en place obligatoire du logiciel Hadopi dans nos ordinateurs.

Cette menace n’a bien sûr pas échappé aux internautes, ni aux professionnels du secteur qui y voient une entrave à la liberté du marché.

Le CCIA ( Computer & Communication Industry Association) vient d’adresser un courrier à l’HADOPI:

 

http://www.ccianet.org/CCIA/files/ccLibraryFiles/Filename/000000000406/CCIA%20HADOPI%20Letter.pdf

Voici la traduction de quelques-unes des remarques:

« - Nous « encourageons » HADOPI à ne pas gêner les solutions technologiques nécessaires au développement du marché.

- Le cahier des charges provisoire ( du logiciel) souffre de plusieurs déficiences.

- L’ « invitation » à installer le logiciel ( de protection Hadopi) sous peine de poursuites légales peut difficilement être considérée comme une option, cette « invitation » est susceptible d’avoir diverses conséquences imprévisibles, y compris celle d’encourager un comportement indésirable de la part de certains gouvernements répressifs ( référence à Green Dam ).

- ( Le logiciel de protection) stigmatise les protocoles internet neutres.

- Les usagers peuvent ressentir une présomption de culpabilité de piratage.

-Le système sera inévitablement imparfait.

- L’installation d’un logiciel de contrôle sur les ordinateurs des usagers, en l’absence de preuve d’activité criminelle, n’est pas une option politique acceptable, quel que soit l’objectif officiel.

- Ce marché ( CCI ) , qui fonctionne normalement, n’a nul besoin qu’une autorité gouvernementale prescrive des spécifications techniques d’un logiciel.

- Le cahier des charges provisoire ( du logiciel Hadopi) devrait être modifié pour préciser clairement que seuls les administrateurs du secteur privé et les usagers puissent décider à quels contenus un ordinateur peut accéder.

- Le cahier des charges provisoire paraît fondé sur le postulat erroné qui considère les transferts de fichiers « peer-to-peer » à priori illégaux.

- La proposition ( de contrôle) paraît devoir s’étendre au-delà du « peer-to-peer » , et est susceptible d’entraver plus largement l’innovation.

- Je vous demande instamment de reconsidérer cette proposition de cahier des charges. »

Voici l’HADOPI habillée pour l’hiver !

Si le Gouvernement Français persiste dans son projet de contrôle du net, la France, pays des droits de l’Homme, sera le premier pays au monde à instaurer une telle censure officielle.

Rappelons que même le Gouvernement Chinois a retiré son projet « Green Dam » sous la pression de l’Organisation Mondiale du Commerce.

 

 

Repost 0
8 novembre 2010 1 08 /11 /novembre /2010 18:06

 

 

8 Novembre 2010

Il existe une polémique autour d’un lien de cause à effet qui pourrait exister entre la température et le taux de CO2. Certains affirment que c’est l’élévation de la température qui cause l’accroissement du taux de CO2, d’autres soutiennent le contraire, évoquant l‘effet de serre.

Qu’en pensent ceux dont le métier est de mesurer l’un et l’autre ?

Voici un extrait des bases de données de la NOAA qui devraient apporter un éclairage scientifique à cet épineux problème:

http://www.ncdc.noaa.gov/paleo/icecore/antarctica/vostok/vostok_co2.html

Fischer et al. 1999

Abstract:

 Air trapped in bubbles in polar ice cores constitutes an archive for the reconstruction of the global carbon cycle and the relation between greenhouse gases and climate in the past. High-resolution records from Antarctic ice cores show that carbon dioxide concentrations increased by 80 to 100 parts per million by volume 600 +/- 400 years after the warming of the last three deglaciations. Despite strongly decreasing temperatures, high carbon dioxide concentrations can be sustained for thousands of years during glaciations; the size of this phase lag is probably connected to the duration of the preceding warm period, which controls the change in land ice coverage and the buildup of the terrestrial biosphere.

Traduction du passage concerné:

«  Les enregistrements haute résolution des carottes glaciaires de l’Antarctique montrent que la concentration du dioxyde de carbone augmente de 80 à 100 ppm 600+/-400 ans après le réchauffement des trois dernières déglaciations. »

Le graphique suivant, montrant le taux de CO2 et la température tels qu’ils sont estimés à partir des mesures de carottes glaciaires sur 400 000 ans, n’est pas très concluant sur ce point. Certains auteurs proposent le scénario inverse. Il est vrai qu’un décalage de quelques centaines d’années ne peut pas apparaître clairement sur une échelle de temps aussi grande.

 IceCores1.gif

D’autre part, comme déjà vu précédemment, la datation des échantillons de glace manque d’autant plus de la précision nécessaire que l‘on s‘éloigne dans le passé.

Les données actuelles ne permettent donc pas d’affirmer qui, de la poule ou de l’œuf, a commencé le premier….

Encore une incertitude qui devra être levée au cours de la prochaine décennie.

 

 

Repost 0