Overblog Suivre ce blog
Administration Créer mon blog
31 mai 2010 1 31 /05 /mai /2010 12:04

 

 

31 Mai 2010

 

La vie sur Terre n’existe que grâce à la présence du Soleil. Il nous inonde chaque jour d’une énergie colossale évaluée aujourd’hui à 1 367 W/m2 ( flux radiatif au-dessus de l’atmosphère).

Cette énergie réchauffe la Terre à travers l’atmosphère. La Terre à son tour renvoie cette énergie vers l’espace dans un bilan radiatif équilibré résultant en une température moyenne de 15 °C ( Le flux de chaleur d’origine interne est aujourd’hui très faible, environ 0,06 W/m2 ).

Cet équilibre radiatif est très variable selon les régions, selon les zones terrestres ou océaniques, selon la nature des sols ( déserts, forêts, sol neigeux,…), provoquant de grandes perturbations dans l’atmosphère , l’ensemble constituant le climat.

L’étude du climat et surtout les prévisions climatiques supposent donc une très bonne connaissance du fonctionnement du couple Terre-Soleil, de son environnement cosmique et, bien évidemment, du Soleil lui-même.

Or, aujourd’hui, ces connaissances sont fragmentaires, incertaines et imprécises, ce qui ôte toute crédibilité aux calculs de prévisions climatiques à long terme .

Cette lacune n’a bien sûr pas échappé à la communauté scientifique et plusieurs programmes d’études sont en cours , dans le but de comprendre le fonctionnement du système Terre-Soleil dans son environnement, de déterminer les paramètres influents et d’en mesurer la valeur et les variations.

Le satellite français PICARD , sous la responsabilité du CNES, sera lancé le 15 Juin 2010 depuis la base Yasny, en même temps que PRISMA, satellite Suédois.

Le but de cette mission est l’observation du Soleil pendant la phase ascendante de sa 24è période active qui a débuté en 2008 et qui doit culminer en 2013.

Cette mission s’inscrit dans un programme international de mesures solaires auquel participent les satellites SOHO , SORCE , Solar B, STERO, Solar Dynamics Obervatory, ainsi que la station spatiale internationale.

Ces mesures permettront de donner une base solide pour le calcul de l’influence du Soleil sur les variations du climat et donc de préciser l’importance des causes naturelles dans le réchauffement climatique.

 

 

Repost 0
29 mai 2010 6 29 /05 /mai /2010 18:49

 

29 Mai 2010

En prévision du grand match dans lequel doivent s’affronter les tenants du réchauffement anthropique , sous les couleurs de l’IPCC ( GIEC pour les gaulois), et les opposants à cette thèse , nous présentons dans cet article la principale équipe prête à relever le gant, sous les couleurs du NIPCC.

A l’origine se trouve le SEPP ( Science and Environmental Policy Project) , « Educational Group » au sens de l’article 501(C)3, plus ou moins équivalent à nos associations loi 1901, fondée en 1990 par Fred Singer.

Fred Singer est un physicien, spécialiste de l’atmosphère. L’objectif de ce groupe est d’étudier les problèmes variés auxquels notre planète doit faire face, et proposer des solutions à la fois efficaces et respectueuses des deniers publics.

Le SEPP fonctionne grâce à la participation « pro bono » d’un groupe de scientifiques du monde entier.

Le SEPP a commencé à s’intéresser de près au « global warming » en 1996, lorsque parut le rapport de l’IPCC « Climate change 1995, the science of climate change ». Le groupe alerta la communauté scientifique et les instances gouvernementales sur les irrégularités et les interprétations tendancieuses décelées dans l’exposé. Ces actions ne sont pas étrangères aux prises de position des gouvernements américains relativement au problème du réchauffement climatique.

C’est en 2003 qu’un groupe baptisé « Team B » fut crée au sein du SEPP pour s’occuper spécifiquement des problèmes liés aux activités du IPCC. Ce groupe devint par la suite le NIPCC.

En 2008 le NIPCC publia un premier rapport critique du FAR ( Fourth Assessment Record) du IPCC. 24 contributeurs de 14 pays ont participé à ce rapport.

A la même époque le NIPCC obtint la collaboration du « Center for the Study of Carbon Dioxide and Global Change » .

Le rapport complet de critique du FAR a été publié en 2009 sous le titre « climate change reconsidered »( 880 pages).

Ce rapport est disponible ici:

http://www.nipccreport.org/reports/2009/2009report.html

Cette présentation un peu indigeste vise à montrer que les thèses du IPCC ne sont pas acceptées par tout le monde , et que les contradicteurs ne sont pas simplement des illuminés incultes mais des scientifiques organisés en réseau mondial .

Les médias français ont mis une chape de plomb sur toutes les informations qui ne vont pas dans le sens du GIEC/IPCC , il faut donc se tourner vers les sites étrangers pour s’informer de l’état d’avancement du problème.

Les enjeux sont immenses car des centaines de milliards de dollars et d’euros vont d’être dépensés dans la mise en œuvre de mesures d’adaptation aux risques climatiques. Si ces risques sont mal évalués il en résultera non seulement un gaspillage financier inutile , mais une erreur de stratégie mondiale dont auront à souffrir une fois de plus les plus pauvres.

 

 

 

 

Repost 0
28 mai 2010 5 28 /05 /mai /2010 14:38

 

Le graphique suivant est extrait de la base de données NCDC/NOAA.

NCDC: National Climatic Data Center.

NOAA: National Oceanic and Atmospheric Administration.

 

 

http://www.ncdc.noaa.gov/paleo/globalwarming/temperature-change.html

Il donne la température et le taux de CO2 pour les 400 000 dernières années.

En Bleu: la température en °C

En rouge: le taux de CO2

 

 

Cycles de 100 000 ans temp CO2

 

Ces courbes nous apprennent plusieurs choses:

- Le climat terrestre n’est pas un long fleuve tranquille. Il oscille régulièrement entre des périodes chaudes et des périodes glaciaires avec une périodicité de 100 000 ans environ. Ces oscillations lentes sont causées par des évènements astronomiques récurrents qui ne seront pas évoqués dans cet article.

- Les températures oscillent entre -9°C et +3°C par rapport à la température actuelle.

- On observe des fluctuations à échelle de temps réduite, dans une fourchette d’environ 2°C. Ces causes sont probablement multiples: variation de l’activité solaire, volcanisme, rayons cosmiques, etc….

- La durée des période chaudes varie entre 10 000 et 20 000 ans environ.

- Nous sommes actuellement dans une période chaude qui dure depuis déjà 10000 ans.

- La température actuelle est inférieur de 0,6 °C au maximum constaté de notre période chaude qui eut lieu autour de 50 Av-JC.

- La courbe du taux de CO2 est similaire à celle de la température et en synchronisme autant qu’on peut le voir à cette échelle de temps..

- Le taux de CO2 actuel est normal par rapport aux autres périodes.

- Les phases de croissance des deux paramètres sont superposables.

- En phases de décroissance le taux de CO2 est en retard sur la température, ce qui suggère en première approximation que le taux de CO2 est assujetti à la température, ce qui est logique si les variations lentes de température sont essentiellement dues à des causes astronomiques.

Ces remarques, simplement déduites de la lecture des courbes, permettent d’établir un état des lieux du climat passé. Nous approchons probablement de la fin de notre période chaude, sans qu’il soit possible de préciser davantage. La température actuelle est normale sans plus en comparaison avec les cycles anciens.

Des mesures complémentaires sont en cours dans différents projets pour affiner ces résultats. Une dizaine d’années seront encore certainement nécessaires pour parvenir à une connaissance opérationnelle du climat permettant des prévisions fiables appuyées sur des modèles robustes.

En attendant il est prudent de développer un programme de contrôle et de maîtrise des paramètres anthropiques pouvant influencer le climat . L’importance de ces programmes devra être modulée en fonction de la progression des connaissances et des résultats actualisés.

Repost 0
28 mai 2010 5 28 /05 /mai /2010 10:20

Données extraites d’un carottage de mille mètres effectué au Goenland , dans le cadre du « Greenland Ice Sheet Project GISP2»

Source:

http://muller.lbl.gov/pages/iceagebook/history_of_climate.html

 

 last 2400 years climate

Cette courbe décrit les variations de température depuis 400 av-JC jusqu’à nos jours. Par rapport à la température de 1950 on constate que les écarts maximaux ont été de +0,85 °C en - 50 av-JC, et -1 °C en 1400 AD. Cet écart est aujourd’hui de + 0,45 °C, donc largement à l’intérieur de la fourchette observée sur les derniers 2400 ans.

On observe également de nombreuses séquences de variations brusques de la température, avec une pente ( vitesse de variation) plus forte qu’aujourd’hui et une périodicité apparente de 59 ans.

En première approximation la lecture de cette courbe donne à penser que la situation actuelle est normale, dans les limites des variations erratiques.

 

Par contre, si l’on ne s’intéresse qu’à la période récente ( de 1880 à nos jours) on peut être amené à tirer des conclusions différentes:

 

temp de 1880 à2000

 

Cette vision tronquée de l’évolution des températures met l’accent sur un réchauffement continu depuis 1910. Le fait que cette période correspond au développement de l’industrie suggère une relation de cause à effet.

Cette éventuelle relation de cause à effet est confortée par le constat de l’augmentation du taux de CO2 considérée comme la signature des activités humaines.

Il n’en faut pas plus pour mettre au compte des activités humaines un réchauffement climatique apparemment exceptionnel, en écartant la possibilité d’une simple variation de température inscrite dans la fourchette des variabilités erratiques prouvées depuis plusieurs milliers d’années, donc bien avant l’ère industrielle.

Nous sommes donc en présence de deux hypothèses:

1- La température actuelle se situe dans les limites de variabilité erratique constatée depuis 2400 ans. Si l’activité industrielle doit être considérée comme un forçage externe, ce forçage n’intervient qu’au second degré . Il doit être pris en compte , mais avec un degré d’urgence à pondérer en fonction des autres urgences mondiales.

2- L’augmentation de température constatée depuis le début de l’ère industrielle est clairement le résultat d’un forçage anthropique , cette élévation est dramatique à court terme à l’échelle du siècle, et des mesures correctrices sévères doivent être prises d’urgence, en faisant au besoin passer au second plan d’autres problèmes mondiaux.

Les éléments scientifiques disponibles ne permettent pas de trancher en faveur de l’une ou l’autre hypothèse. De nombreux travaux sont en cours dans le but d’approfondir notre connaissance des paramètres climatologiques et de leurs interactions.

Le prochain rapport du GIEC, prévu pour 2014, devrait intégrer ces nouveaux résultats et remplacer les nombreux « probable » par quelques « certain ».

Repost 0
27 mai 2010 4 27 /05 /mai /2010 17:49

Pour inaugurer cette modeste série d’articles sur le tintamarre climatologique ambiant, voici un extrait du quatrième rapport du GIEC ( 2001) , tiré du sous-chapitre 14.2.2.2:

«  In sum, a strategy must recognise what is possible. In climate research and modelling, we should recognise that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible. »

Traduction:

«  En fin de compte, une stratégie se doit de reconnaître ce qui est possible. En matière de recherche climatique et de modélisation , nous devrions reconnaître que nous avons affaire à un système non linéaire couplé chaotique, et que par conséquent la prédiction à long terme des futures conditions climatiques n’est pas possible. »

On ne peut être plus clair…..

Repost 0
26 mai 2010 3 26 /05 /mai /2010 18:26

 

26 Mai 2010

Le lancement du livre numérique a opportunément chamboulé le marché de la microinformatique et de l’internet, mettant l’usager branché devant la nécessité d’opérer un choix douloureux quant au renouvèlement de son matériel.

Bien sûr tout le monde a déjà lu un ouvrage numérique sur son PC, assez pour prendre conscience que cet appareil n’est pas l’engin idoine pour apprécier un roman dans la détente et le calme de son hamac, ou bien sur la plage.

C’est pourquoi les fabricants ont pensé à nous en développant des matériels adaptés . Leur démarche est bien sûr commerciale , il leur fallait donc œuvrer dans la continuité de leur métier de base et sans mettre en danger leur fonds de commerce.

C’est ainsi qu’ils nous ont placés en face de trois solutions, dont chacune offre des avantages propres rendant le choix difficile. Le but non avoué des fabricants étant évidemment de nous faire acheter les trois !

La première solution consiste en un appareil spécialisé dans la lecture des

e-books ( ou livrel pour les puristes). Il ne fait que cela, mais il le fait très bien avec un poids très réduit ( quelques centaines de grammes) , une très grande autonomie et un affichage très réaliste.

C’est par exemple le Kindle d’Amazon, le Sony reader, et quelques autres.

La deuxième solution consiste en un mini-PC aux fonctionnalités limitées mais au poids réduit ( de l’ordre de 1,3 kg ) avec un écran de 10 pouces et une autonomie de chameau ( plus de 10 heures !). On fait avec çà ce qu’on fait habituellement avec un PC portable, mais sans lecteur de disque.

Tout les fabricants de PC proposent ce produit, le leader étant Asus.

La troisième solution consiste en une sorte de mini-PC sans clavier et aux grandes possibilité tactiles, permettant la lecture des e-books bien sûr, mais aussi tout un tas d’autres applications multimédia.

Le champion de ce truc est Apple et son I-pad.

Les prix de ces merveilles s’échelonnent entre 150 euros et un millier d’euros, selon la solution choisie et les fonctionnalités.

Au début, les grands de ce marché naissant se tiraient des bourres et chacun tentait de s’approprier la plus grosse part, voire même la totalité du business, non seulement des matériels, mais aussi des ventes de téléchargements. On trouvait donc des produits ( matériels et logiciels ) dont la compatibilité éventuelle n’était que le résultat du hasard.

Cette situation ne pouvait que nuire au marché ou freiner sérieusement son développement. C’est pourquoi des actions de normalisation sont en cours pour converger vers une intéropérabilité des produits. Ceci sera détaillé dans un prochain article, il y sera également question des DRM.

Une fois cette interopérabilité obtenue , l’usager devra faire son choix parmi les trois solutions.

Pour lire des livre homothétiques ( Un livre homothétique est la transcription numérique d’un livre papier ) dans un fauteuil, pendant la sieste, dans le métro, dans le train, sur la plage, ou dans son lit, il faut un dispositif très léger et avec un affichage très confortable ; le lecteur dédié est la meilleure solution , sauf bien sûr si l’on est un inconditionnel du papier !

Pour lire des livres, mais aussi consulter des documents, les modifier, rédiger des lettres, des rapports, des tableaux, afficher des photos, les retoucher, composer des documents multimédia, surfer sur le net, etc…., il faut un ordinateur avec un clavier. Le mini-PC est alors une bonne solution si l’on recherche la mobilité sans l’encombrement et le poids. Le mini-PC est à l’ordinateur portable ce que le compact photo est à l’appareil reflex.

Pour les usagers qui recherchent à la fois la mobilité, la polyvalence, la simplicité d’utilisation, qui répugnent à tremper leurs mains dans des systèmes d’exploitation abscons et des logiciels incompréhensibles, et qui n’ont pas forcément besoin d’un clavier à plein temps, il y a la troisième solution tout en un sans clavier mais avec intégration de multiples applications clé en mains, écran tactile et joy-stick. C’est le principe du I-Pad, qui semble trouver une clientèle importante.

A considérer ces spécificités on constate vite que l’usager branché aura besoin des trois produits, un peu comme le couvreur a besoin de plusieurs échelles.

Il adviendra probablement de ces matériels ce qu’il est advenu des postes radio autrefois. Un seul appareil dans la maison, déjà un luxe, pour finir aujourd’hui avec une bonne douzaine de transistors de la cave au grenier en passant par la voiture, la chaîne Hi-Fi, les radio-réveils, les baladeurs, les lecteurs de CD, sans compter la télé.

Les querelles actuelles sur l’utilité de tel ou tel « gadget » High-Tech paraîtront bien désuètes à nos petits-enfants.

 

 

 

Repost 0
24 mai 2010 1 24 /05 /mai /2010 11:54

24 Mai 2010

On trouve sur le net de nombreuses « plateformes numériques » qui proposent des livres en téléchargement gratuit.

Avant de se précipiter pour constituer sa bibliothèque personnelle à peu de frais , il est prudent de se souvenir que la loi Hadopi est effective depuis le 29 Décembre 2009. Depuis cette date tout usager se livrant au téléchargement illégal d’une œuvre sous droits est passible de poursuites pénales et d’interruption de sa connexion internet.

Certaines plateformes avertissent les usagers. Par exemple sur « Project Gutenberg » on peut lire l’avertissement suivant:

« Our books are free in the United States because their copyright has expired. They may not be free in other countries. Readers outside of the United States must check the copyright laws of their countries before downloading or redistributing our ebooks. »

In french:

«  Nos ouvrages sont libres de droits aux Etats-Unis ( copyright expiré). Mais ils peuvent ne pas être libres dans d’autres pays. Les lecteurs situés hors des USA doivent contrôler la situation du copyright dans leur pays avant de télécharger un ouvrage ou de le redistribuer. »

Un lecteur averti en vaut deux.

Repost 0
24 mai 2010 1 24 /05 /mai /2010 11:04

24 Mai 2010

Le 27 Mai 2010 l’Institut français du Royaume-Uni inaugure la nouvelle plateforme numérique « Culturethèque » .

« Cet outil de coopération culturelle a pour vocation de présenter le meilleur de l’actualité culturelle française, des ressources inédites et de promouvoir la langue française sur internet. » (Source Latitudefrance.org)

Un abonnement annuel de 20 Livres donnera accès à tout le contenu, un grand nombre de documents restant accessibles gratuitement.

Plus de 5 000 books contemporains seront disponibles, ainsi que des classiques et des essais.

Pour y aller: www.culturetheque.org.uk

Repost 0
22 mai 2010 6 22 /05 /mai /2010 16:52

22 Mai 2010

Jusqu’à présent l’usager pouvait surfer sur internet avec désinvolture, sans souci des gendarmes, des lignes jaunes, ni de quelconques interdits. Bien sûr les abus les plus scandaleux étaient ponctuellement sanctionnés, justement, comme les pratiques pédophiles, mais pour le reste c’était le régime de la bonne franquette qui prévalait. Les services de la DST et de la DGSE faisaient leur affaire du terrorisme avec leurs propres moyens d’investigation.

Le réseau internet est une société à part entière, et comme dans toute société il s’y développe une délinquance. Tant que cette délinquance reste minoritaire elle est gérable avec des moyens ordinaires. Mais lorsqu’elle dépasse un certain seuil il devient nécessaire de mettre en place un outil policier spécifique.

Ce seuil d’intolérance a été atteint sur internet lorsque la délinquance est devenue financière par le piratage des fichiers contenant des œuvres sous droits.

L’Etat a donc décidé de créer un outil policier dont le rôle est de traquer et punir les délinquants du net ( c’est tout au moins son rôle officiel).

L’outil législatif est la loi « création et internet » , dite « loi Hadopi2 » votée selon la procédure règlementaire, le décret d’application est paru au JO le 29 Décembre 2009.

Ce décret signe le certificat de décès de l’internet libre.

L’application de la loi est confiée à la Haute Autorité pour la Diffusion des Œuvres et la Protection des droits sur Internet ( HADOPI).

L’usager devient responsable pénalement de tout abus perpétré sur sa ligne d’abonné , identifiée par son adresse IP.

Pour que cette responsabilité puisse être légalement établie, l’abonné doit disposer des moyens informatiques appropriés et homologués pour sécuriser sa ligne.

( En effet, avant de reprocher à quelqu’un d’avoir commis une infraction, il faut s’assurer qu’il avait les moyens de ne pas la commettre).

La loi fait obligation à l’Hadopi de lui fournir ces moyens, à charge pour l’usager de prouver qu’il les a bien mis en oeuvre.

 

La Haute Autorité a demandé à Michel Riguidel de définir, d’ici fin Septembre 2010, les fonctionnalités pertinentes que devront avoir les logiciels de sécurisation proposés aux abonnés à Internet.

( Michel Riguidel est enseignant-chercheur spécialiste de la protection informatique)

La liste de ces fonctionnalités servira de cahier des charges pour le développement des logiciels de sécurisation , dont l’utilisation deviendra quasi-obligatoire sur tout les terminaux raccordés à Internet.

Ces fonctionnalités pourront être implémentées dans les systèmes d’exploitation, chez les fournisseurs d’accès, ou achetées séparément par l’usager.

La loi Hadopi vise les téléchargements illégaux, mais les moyens dont elle va disposer permettent un contrôle total du trafic sur le réseau internet, une véritable police du net.

La détection des infractions reposera sur un filtrage DPI ( Deep Packet Inspection) auquel rien ne peut échapper.

Un tel outil entre des mains mal intentionnées peut devenir une menace pour les libertés individuelles.

N’est-ce payer bien cher notre soif de progrès ?

 

 

 

Repost 0
21 mai 2010 5 21 /05 /mai /2010 16:21

 

21 Mai 2010

Christine Albanel a remis son rapport sur le livre numérique au Premier Ministre le 16 Avril 2010.

Les propositions essentielles sont les suivantes:

- Extension au livre numérique de la loi Lang du 10 Août 1981 sur le prix unique du livre.

- Interdiction de pratiquer des rabais supérieurs à 50% pour éviter de concurrencer le livre de poche.

- Application au livre numérique du taux réduit de TVA à 5,5%.

- Création d’un GIE chargé de prendre en main tous les problèmes de mise en oeuvre d’une plateforme commune interprofessionnelle de distribution.

- Extension du concept Gallica vers un grand portail français du livre numérique ( Gallica 2).

- Appel aux éditeurs pour qu’ils se groupent au sein de l’ALPA ( Association de Lutte contre la Piraterie Audiovisuelle) , et qu’ils définissent leur politique de protection des œuvres afin que la loi Hadopi puisse s’appliquer.

Il ne reste plus qu’à légiférer pour que , au moins en France, le livre numérique soit fermement tenu par les éditeurs et encadré par l’Etat. Plus aucune tête ne devra dépasser.

Mais cela sera-t-il suffisant pour faire trembler Google, Amazon et Apple ?

 

 

 

 

Repost 0