Overblog Suivre ce blog
Administration Créer mon blog
24 septembre 2010 5 24 /09 /septembre /2010 17:07

24 Septembre 2010

Avant l’invention de Gutenberg, l’oralité était l’unique véhicule de transmission de la culture populaire. Les livres , recopiés sur parchemin, étaient réservés à l’élite.

Le procédé de Gutenberg permit de reproduire rapidement les ouvrages, mais le procédé resta longtemps artisanal, donc très onéreux.

La modernisation des procédés d’impression donna son essor au livre dans le milieu de la bourgeoisie, mais il fallut attendre le XIXè siècle pour le voir atteindre les classes populaires lorsque se répandit l‘apprentissage de la lecture.

L’usage du livre comme véhicule de la culture dans le peuple est donc récent à l’échelle historique.

Le livre audio est un retour à l’oralité, au temps des conteurs et des veillées au coin du feu. Ce retour aux sources est d’abord passé par la radio, tout le monde se souvient des « maîtres du mystère » et des pièces de théâtre régulièrement diffusées en soirée, que nous écoutions religieusement après le repas du soir. On ne peut mettre en doute le caractère émotionnel de l’écoute , il suffit de se rappeler la panique déclenchée par la diffusion de « La guerre des mondes » sur les radios américaines.

L’invention de la cassette et du baladeur a permis une diffusion plus large des productions audio. Les premiers livres audio étaient destinés aux personnes malvoyantes , mais ont très vite trouvé un plus large public notamment pour la diffusion des cours de langues.

Lors de l’arrivée du numérique c’est donc tout naturellement l’audio qui a bénéficié de ce progrès, grâce au CD qui a remplacé la cassette dans la continuité.

Les éditions de livres audio , d’abord destinées aux malvoyants, se sont ensuite orientées vers des productions pour la jeunesse , pour l’enseignement des langues, pour des dictionnaires interactifs. Une nouvelle clientèle s’est manifestée pour des productions plus généralistes d’ouvrages habituellement édités en format papier.

Le marché du livre audio devient significatif, il attire une clientèle plus réceptive à l’écoute , peut-être moins formée à la lecture. De plus , si l’édition est de qualité, le comédien lecteur donne vie au texte. Beaucoup de personnes viennent au livre audio, qui n’auraient pas fait la démarche d’acheter le livre papier.

Enfin, faut-il le rappeler, l’écoute d’un livre audio ne nécessite aucun matériel spécial onéreux , un simple lecteur MP3 suffit, ou même un vieux lecteur de CD.

En France le marché du livre audio est encore balbutiant, mais il représente déjà 10% du volume de l’édition aux USA, l’Angleterre et l’Allemagne sont également en plein développement.

La production d’un livre audio est onéreuse. Pour une lecture vivante donc attractive, il faut faire appel à un comédien de valeur , dont la rémunération sera en rapport. Rien à voir avec les livres audio gratuits enregistrés par des bénévoles dont les performances ne sont pas toujours à la hauteur de leur dévouement. De plus il faut ajouter la rémunération du propriétaire des droits , assurer la production soit sur CD, soit sur Internet au format MP3 et gérer la commercialisation sans oublier la TVA.

Les problèmes de contrefaçon sont les mêmes que pour les productions musicales et en général la diffusion des œuvres de l’esprit.

Il se pourrait donc que le livre audio, grâce à sa grande facilité d’utilisation, devienne un concurrent du livre homothétique, ou au moins se taille une part complémentaire de marché importante.

Affaire à suivre….

 

 

 

 

Repost 0
23 septembre 2010 4 23 /09 /septembre /2010 18:28

24 Septembre 2010

Dans l’euphorie de la période GIEC/IPCC boosté par les campagnes alarmistes des groupes écologistes, l’Humanité s’est trouvé un ennemi commun, le CO2.

Dès lors, combattre cet ennemi commun était ( est toujours) devenu un devoir sacré, justifiant l’organisation d’une croisade visant à sa neutralisation.

La première stratégie envisagée fut aussi la plus élémentaire: il fut décidé de combattre le CO2 à la source, en comptant sur l’épuisement rapide des réserves fossiles pour résoudre le problème. Les gourous prédisaient alors la fin du pétrole pour 2010 ou 2020 au plus tard.

Une première difficulté vint compromettre ce plan de bataille: Les spécialistes ( les vrais) attirèrent l’attention des stratèges sur le fait que la notion de réserves était extrêmement floue, et que, les améliorations technologiques aidant, il se pourrait bien que l’on ne puisse voir le fond du puits avant très longtemps , peut-être cinquante ans, peut-être cent….Et que, de toutes manières, il restait le gaz et le charbon pour prendre la relève pour les deux prochains siècles.

Par ailleurs , il devint vite évident que toutes ces réserves fossiles seraient consommées jusqu’à la dernière goutte et que le CO2 résultant se retrouverait dans l’atmosphère jusqu’à la dernière molécule.

Le seul paramètre inconnu étant le temps mis pour épuiser les réserves.

La seule stratégie de l’économie devient donc obsolète. Elle n’aurait pour résultat que d’étaler dans le temps les dégagements gazeux sans en affecter la quantité.

Un malheur n’arrive jamais seul. Le pétrole et le gaz sont devenus des denrées tellement indispensables à nos sociétés que nos scientifiques ont vite sorti de leurs manches des solutions de remplacement. Plus de combustible fossile ? Qu’à cela ne tienne, nous allons en fabriquer du synthétique. Non pas en transformant du charbon en essence comme le fit feu Adolf en son temps, mais en utilisant des méthodes plus subtiles.

Pour cela il est fait appel aux biotechnologies , des soupes mystérieuses sont concoctées à base d’algues et/ou de bactéries méthanogènes . Des centaines de millions de dollars sont investies chaque années pour financer ces recherches qui sont d’ores et déjà très prometteuses.

Citons par exemple la société « Synthetic Genomics » couverte de millions de dollars par le groupe ExxonMobil, un plaisantin en matière de carburant comme chacun sait. Un ambitieux programme de travail prévoit un aboutissement pour une solution industrielle avant 2020.

Il nous faut donc oublier ce vieux rêve écologiste de fin du pétrole, et édifier une autre stratégie tenant compte de cette nouvelle donne, puisque nous allons devoir vivre avec le CO2 pour de nombreuses années encore.

Cette nouvelle stratégie ne remet pas en question la nécessité de faire des économies, en réduisant les besoins énergétiques, en améliorant les rendements , et en ayant un large recours aux énergies propres. Il s’agit maintenant de reconnaître que ces mesures seules ne nous permettront pas de réduire nos émissions de CO2 à un niveau acceptable par le climat, et que la seule solution efficace sera le piégeage et la séquestration de ce gaz.

Des sommes considérables sont investies dans cette recherche, avec un objectif de piéger environ 50% des émissions vers 2050.

Plus d’informations sont disponibles sur les site de l’IFP et de Synthetic Genomics Inc.

Repost 0
19 septembre 2010 7 19 /09 /septembre /2010 19:30

20 Septembre 2010

Nous voulons présenter ici les recherches de Nicola Scafetta*, travaux présentés dans un article paru en Avril 2010 dans la revue « Journal of Atmospheric and Solar_Terrestrial Physics »

(* Department of Physics, Duke University, Durham, USA).

Ref: Scafetta, N., Empirical evidence for a celestial origin of the climate oscillations and its implications. Journal of Atmospheric and Solar-Terrestrial Physics (2010), doi:10.1016/j.jastp.2010.04.015

L’auteur propose une analyse mathématique de la courbe des températures afin de rechercher une corrélation entre les oscillations climatiques et les cycles astronomiques du système solaire.

Ce type de recherche est doublement justifié: D’abord par le constat d’ignorance actuelle des causes des oscillations climatiques constatées, et ensuite par référence aux travaux précédents, comme ceux de Milankovic qui ont permis d’expliquer les cycles glaciaires de cent mille ans par les influences conjuguées de Jupiter et Saturne. Ajoutons-y les travaux récents de divers auteurs sur les cycles solaires de onze années, dont l’importance sur le climat n’est pas contestée, et bien d’autres études du même type qui apportent la preuve d’une interaction entre les différents cycles astronomiques et le climat. Citons également les travaux récents sur l’influence des rayons cosmiques ( Svensmark ).

Voici les principales étapes de la réflexion de Nicola Scafetta:

Le graphique des relevés de température de la basse atmosphère depuis 1850 met en évidence deux phénomènes: D’une part une élévation de la température moyenne d’environ 0,8 °C, et d’autre part des fluctuations semi-périodiques autour de la courbe moyenne.

L’auteur étudie particulièrement ces fluctuations semi périodiques de température du point de vue de leur possible relation avec les fluctuations gravitationnelles induites par les phénomènes astronomiques du système solaire, essentiellement les couplages entre orbites planétaires.

L’examen de la courbe des fluctuations montre quatre caractéristiques remarquables: D’une part des cycles répétitifs d’une périodicité de soixante années, d’autre part une amplitude crète à crète de 0,4°C, la présence de composantes harmoniques dans le signal, et enfin une constance de forme et d’amplitude , au moins sur la période considérée.

Une première remarque concerne l’aspect du signal de fluctuation et son amplitude: ils sont à peu près constants sur toute la période considérée, sans aucune corrélation avec la courbe d’augmentation du taux de CO2, ce qui permet d’exclure ce GES ( Gaz à Effet de Serre ) et donc une quelconque influence anthropique.

L’auteur estime alors qu’il est légitime de rechercher une éventuelle cause astronomique, dans une démarche similaire à celles des auteurs précédents à propos des cycles climatiques anciens.

La méthode utilisée par l’auteur consiste d’une part en l’analyse spectrale du signal de fluctuation de température pour en extraire les fréquences particulières, et d’autre part en la comparaison de ces résultats avec les fréquences orbitales des différentes planètes et de leurs couplages, telles qu‘elles figurent dans les éphémérides classiques. Il s’agit donc d’une recherche de corrélation permettant, ou non, de mettre en évidence une synchronisation entre les mouvements planétaires et les fluctuations des variations climatiques pour la période historique englobant l‘ère industrielle.

L’analyse spectrale du signal représentant les fluctuations de la courbe des températures ( hors l’augmentation moyenne constatée) met en évidence plusieurs fréquences , les principales étant 60 ans, 20 ans, et 9 ans. Rappelons que ces résultats sont obtenus à partir des relevés de température officiels ayant servi de base aux conclusions de l’AR4/IPCC ( Quatrième rapport du GIEC) .

D’autre part la recherche des fréquences caractéristiques des fluctuations gravitationnelles du système Solaire est effectuée à partir des données classiques disponibles dans tout les éphémérides.

Les grosses planètes ( Jupiter et Saturne ) donnent , par la combinaison des orbitales, les périodes caractéristiques de 60 ans, 30 ans, 20 ans , 12 ans, et 10 ans, approximativement.

Il faut y ajouter le cycle solaire de Schwabe de 11 ans ( activité des taches solaires ) , le cycle solaire magnétique de Hale ( 22 ans), et le cycle lunaire.

Pour la recherche de corrélation entre ces deux groupes de données l’auteur propose d’utiliser un paramètre représentatif des fluctuations du système solaire ; le paramètre retenu est le mouvement du centre de masse du système solaire ( CMSS ) sur l’écliptique et plus particulièrement sa vitesse ( SCMSS, Speed of Center of Mass of Solar System ). Les valeurs utilisées sont établies à partir des éphémérides du Jet Propulsion Lab de la NASA.

La corrélation entre les deux types de données s’est révélée plus que satisfaisante, justifiant la poursuite des travaux de recherche des modes d’action de ces influences astronomiques sur le climat de la planète.

 

Ces résultats confirment la nécessité de prendre en compte les travaux récents en climatologie, tant il est vrai que les méthodes modernes d’investigation sont de nature à modifier les jugements précédemment établis sur des bases de données incomplètes.

Sous réserve de confirmation de ces résultats par la communauté scientifique, agissant en conformité avec les récentes recommandations de l’IAC ( Inter Academy Council ), il y a lieu de reconsidérer les causes des fluctuations de température en tenant compte des influences astronomiques.

 

Repost 0
18 septembre 2010 6 18 /09 /septembre /2010 19:11

 

 

18 Septembre 2010

En dépit des exhortations des organismes intéressés à la survie de l’humanité, et/ou de la planète ( ce qui n’est pas la même chose…), la consommation mondiale de pétrole ne cesse de croître linéairement au rythme de 1,7% par an. L’AIE prévoit 88 millions de barils par jour en 2011, malgré la crise dont les retombées ne semblent pas affecter les appétits de croissance. Oserions-nous en déduire que les victimes de la crise ne sont pas forcément les gros consommateurs de pétrole ?

Il faut donc se faire une raison, cette croissance ne s’arrêtera que lorsque le robinet ne coulera plus. Le pétrole est le sang de notre civilisation et, à moyen terme, rien ne peut remplacer ce sang dans les domaines clés que sont les transports par exemple. Ce n’est pas demain la veille que les camions, les voitures, les bateaux, les avions, fonctionneront avec autre chose que des dérivés du pétrole. Pour les transports l’électricité restera encore longtemps réservée au chemin de fer, malgré une timide percée dans les transports individuels. Ayons une pensée émue pour les navires à propulsion nucléaire, ils seront peut-être bien utile un jour….

Faute d’une politique mondiale de modération concertée de nos dépenses d’énergie , nous sommes donc condamnés à affronter durement la pénurie de pétrole qui ne manquera pas de survenir à plus ou moins brève échéance.

Le premier signe avant-coureur de l’orage sera vraisemblablement donné par l’envolée des cours du brut. D’ailleurs le drapeau à damiers est peut-être déjà sous nos yeux. Le graphique ci-dessous montre l’évolution du cours du brut . Les premier et deuxième chocs pétroliers passés ont été digérés car ils étaient causés par une situation internationale tendue ( Guerre du Kippour, embargo, puis guerre Iran-Irak ) . Une fois la situation « normalisée » le cours du brut s’est assagi, certes à un niveau plus élevé, mais l‘envolée s‘est calmée.

  Cours-du-brut-copie-1.gif

 

 

Le troisième choc pétrolier, dont nous vivons les prémisses, est en grande partie dû à des causes structurelles, internes au système « pétrole » et n’ayant que peu à voir avec quelque bruit de bottes ( Les gesticulations militaires actuelles du Moyen-Orient peuvent être considérées à première vue comme une composante du système « pétrole » ) .

Les causes structurelles sont toujours difficiles à corriger.

La raison le l’envolée du prix du brut depuis les années 2000 est assez évidente, il suffit de regarder le graphique ci-dessous qui montre la croissance de la consommation de pétrole en Chine.

 

Conso-petrole-chine.gif

 

L’abreuvoir est presque vide et de nouveau troupeaux arrivent pour s’abreuver. Il est vraisemblable que l’envolée actuelle marque le début d’une période d’incertitude qui sera marquée par l’interaction de nombreux paramètres d’ajustement:

- Rééchelonnement de la date du « Peak Oil » , date qui rappelle un peu les annonces de la fin du monde pour demain matin, et qui doivent être repoussées lorsque demain arrive sans catastrophe.

- Annonces de découverte de nouveaux gisements. On croit voir le fond du seau et hop un nouveau jack-pot arrive à point pour rassurer les marchés.

- Réévaluation permanente des réserves du Moyen-Orient. Réserves élastiques ajustées en fonction de la production désirée, et de la valeur capitalisée de la compagnie.

- Mise en œuvre de nouveaux procédés d’extraction. Plus le prix monte et plus il devient rentable d’aller chercher du pétrole difficile à extraire.

- Forages en eau profonde.

- Schistes et sables bitumineux.

- Et pourquoi pas, pétrole abiotique.

Le tout dans un environnement hautement spéculatif, sur un fond de stratégies d’appropriation des ressources disponibles.

On peut donc penser que la courbe du prix du brut subira moult fluctuations , mais qu‘elle a peu de chance de s‘inverser durablement.

Les besoins des pays émergents, Chine en tête bien entendu, outrepasseront les économies réalisées par certains pays vertueux, en sorte que la consommation mondiale va continuer d’augmenter.

Les coûts d’extraction dans les nouveaux gisements seront très supérieurs à ceux des anciens puits, pesant lourdement sur les cours, en dehors de toute spéculation.

On considère généralement que l’exploitation d’un gisement doit être abandonnée lorsque l’énergie dépensée pour extraire le produit est à peine inférieure à l’énergie que peut fournir le produit extrait. Cela tombe sous le sens , mais lorsque le pétrole est une denrée stratégique cette loi peut ne pas être respectée. Il faut donc s’attendre à voir exploitées toutes les réserves existantes de la planète. La seule question est de savoir au bout de combien de temps la source sera tarie.

La quantité de pétrole qu’il nous reste à brûler est inconnue. Les évaluations ne peuvent anticiper le résultat des recherches dans les domaines nouveaux comme les forages profonds ou les sables bitumineux. Les chiffres annoncées doivent donc être considérés comme des estimations très libres.

Si les réserves de pétrole sont inconnues, la consommation l’est tout autant. En effet, l’élévation du prix du brut pèsera sur les structures économiques, induisant de nouvelles habitudes de consommation. Si par exemple le carburant atteint dix euros le litre, l’organisation des transports routiers devra être reconsidérée, la production se rapprochera des lieux de consommation ( ou l’inverse), on hésitera à traverser l’Europe avec un camion de fraises, les usagers délaisseront la voiture pour les transports en commun, les voyages en avion seront réservés à des besoins réels , grand’mère se passera l’aller visiter les pyramides, on ne pourra plus dépenser quarante Mwh pour chauffer un pavillon de banlieue, etc.

Pour peu que le nucléaire reprenne du poil de la bête, la consommation de pétrole pourra diminuer fortement .

Il est donc impossible de dire si le robinet du pétrole sera coupé dans dix ans ou dans cinquante ans. Mais une chose est sûre, c’est à nous qu’il appartient de faire en sorte que l’échéance arrive le plus tard possible, et de profiter de ce délai pour préparer pour nos enfants un monde vivable sans pétrole.

Repost 0
15 septembre 2010 3 15 /09 /septembre /2010 19:03

15 Septembre 2010

Nous vivons donc sous la menace d’une grave pénurie de pétrole. Le pic de Hubbert serait derrière nous. Mais au fait, qui est ce Monsieur Hubbert ?

Monsieur Hubbert avait signalé, dans les années quarante, que la production d’une réserve exploitée pouvait être modélisée par une courbe en cloche, dont l’expression mathématique est connue. Appliquée au pétrole, cette théorie est censée permettre de prévoir et de chiffrer le pic de production et la baisse suivant ce pic, pourvu que l’on connaisse les chiffres de la partie croissante de la courbe.

On sait ce que valent les modèles mathématiques, la récente polémique sur les prévisions climatiques s’est chargée de nous rappeler qu’un modèle ne vaut que s’il incorpore toutes les variables du système et leurs interactions.

Or, en matière de production pétrolière, des variables il y en a beaucoup. La courbe de Hubbert donne certes de bonnes prévisions pour le cas d’une exploitation d’un gisement donné dans des conditions données. Mais si l’on modifie un ou plusieurs paramètres, le modèle n’est plus valable.

La partie croissante de la courbe de Hubbert concerne l’extraction du pétrole facilement accessible, et les chiffres de production permettent effectivement de prévoir la fonction de décroissance. Sauf que, après épuisement de ce pétrole facilement accessible, il en reste encore beaucoup dans la Terre.

En période d’abondance, quand un puits est vidé de son pétrole « facile » il suffit de creuser un peu plus loin pour en trouver d’autre, tout aussi facile à extraire.

Mais lorsque la denrée se fait rare, on a recours à des méthodes plus musclées pour extraire les fonds de gisement, ce qui modifie les paramètres du modèle de Hubbert , et fausse la notion de réserves. Parmi les paramètres modifiés il y a bien sûr le prix, dont l’augmentation permet de recourir à des méthodes d’extraction plus coûteuses ( interaction des paramètres) .

Il faut donc se méfier du modèle de Hubbert dans la mesure où il n’intègre pas forcément les paramètres tenant compte des procédés d’extraction récemment mis en œuvre.

Certes, cela ne veut pas dire que la pénurie de pétrole est un mythe, mais cela permet de pondérer le risque de catastrophe économique imminente, et de prendre le temps de mettre en place des mesures adéquates sans céder à la panique qui est toujours mauvaise conseillère.

La consommation de pétrole ne semble pas affectée par ces rumeurs de pénurie. La graphique suivant montre la croissance régulière de la demande depuis les années 80:

 

 

 

 Consommation-mondiale-petrole.gif

 

  

 

La crise de 2008 est marquée par un léger fléchissement de la demande, vite corrigé selon les prévisions de l’AIE pour 2011.

Que nous réserve l’avenir ?

Le docteur tant mieux nous prédit un avenir radieux, avec une consommation continuant à croître selon la courbe A.

Le docteur tant pis nous prédit le clash pour 2015/2020, avec un retournement drastique de la situation suggérant une très grave crise économique.

La réalité sera probablement entre les deux, mais bien présomptueux sera celui qui annoncera la couleur des dix prochaines années.

 

 

 

 

 

Repost 0
13 septembre 2010 1 13 /09 /septembre /2010 11:51

13 Septembre 2010

Petite exploration chez un éditeur numérique, la société NUMILOG, qui revendique un catalogue de 60 000 titres:

Auteur recherché: Claude Allègre ( eh oui, nobody is perfect )

13 titres sont proposés en téléchargement.

Petite recherche au hasard:

« Vous avez dit matière grise »

Pas de chance, il ne figure pas dans le catalogue.

« L’imposture climatique »

Même punition.

« Un peu de science pour tout le monde »

Fayard, 2003

Version papier: Prix unique: 20 e

Prix courant: 19 e

Téléchargement: 17 e

« Introduction à une Histoire naturelle »

Fayard, 2001

Version papier livre de poche: Prix unique: 6,95 e

Téléchargement: 16,99 e

Et le reste à l’avenant.

Nous avons donc le choix entre des livres sortis il y a sept ou dix ans « offerts » en téléchargement avec 10% de réduction par rapport à la version papier grand format, des titres sortis en livre de poche il y a dix ans et « offerts » en ligne 250% plus chers que la version papier poche, ou pas de titre du tout.

Je voudrais bien savoir qui sont les mécènes qui achètent des ouvrages dans ces conditions.

Repost 0
12 septembre 2010 7 12 /09 /septembre /2010 19:11

12 Septembre 2010

Comme il fallait s’y attendre, la guerre fait rage sur le marché des dispositifs de lecture des livres numériques ( voir l’article du 26 Mai 2010).

Deux options principales s’affrontent pour conquérir le cœur des clients. La première option est l’appareil simple dédié quasi uniquement à la lecture ( Lecteur de e-paper), avec un objectif de prix public inférieur à cent euros au moins pour l’entrée de gamme. La deuxième option ( tablette tactile) est un appareil multi-applications, sorte de micro PC, dont l’exemple typique est l’IPad, de prix très supérieur à celui du lecteur simple.

Les grands du livre ( Amazon, Barnes & Noble ) ont mené une offensive de baisse du prix des lecteurs de e-paper, en se positionnant à 150 euros en entrée de gamme, donc nettement inférieur aux tablettes tactiles. Cette offre devrait intéresser de nombreux lecteurs, mais le marché ne peut pas démarrer réellement faute de contenu ( livres numériques) clairement disponible.

Ce marché des contenus est plombé par plusieurs problèmes non encore résolus:

La surabondance de formats d’e-books, qui ne peut que donner une impression de manque de maturité, voire même d’amateurisme.

 

Le manque de clarté sur la politiques des DRM.

Le prix du livre numérique, qui n’en finit pas de finir de se définir.

Le manque de clarté sur l’offre.

Le manque de clarté sur la modèle commercial.

 

En attendant une éventuellement mise en ordre de ces problèmes, le client préfère s’orienter vers les tablettes tactiles, la lecture n’étant alors qu’un accessoire.

Il faudrait pour sauver les lecteurs dédiés que l'offre de tous les éditeurs soit centralisée sur une seule et même plate-forme, que les prix soient largement inférieurs aux prix du papier, que l'offre papier existe systématiquement en version numérique. Bref, une offre simple, lisible, très séduisante par rapport au papier, voilà tout simplement ce qui manque aux lecteurs e-paper pour avoir une chance d'exister.

Si rien n’est fait pour structurer l’offre de livres numériques dans un délai raisonnable, on peut craindre la disparition des lecteurs de e-paper à brève échéance.

 

 

 

Le manque d’intéropérabilité.

 

 

Repost 0
11 septembre 2010 6 11 /09 /septembre /2010 15:39

10 Septembre 2010

La stratégie musclée mise en oeuvre par Google lui a permis de conquérir une place de leader sur le terrain de la numérisation des ouvrages. .

La tactique de Google était ( est encore ? ) extrêmement simple : numériser tout ce qui passe à sa portée et mettre des extraits en accès libre à disposition des lecteurs , au mépris total des ayants droit.

Certes les stratèges de Google n’ignoraient rien de tout ce qui touche aux droits d’auteurs, mais ils ont préféré la méthode hussarde, beaucoup plus économique et rapide que les classiques ( et longues) négociations avec les ayants droit, reportant à plus tard les chicaneries inévitables. Il fut donc décidé d’utiliser le principe de l’Opt-out ( Option de retrait).

Un ayant droit découvrant que son œuvre est dans le catalogue Google peut demander son retrait ( merci mon bon maître , vous êtes trop aimable….).

Oui mais, encore faut-il que l’on puisse faire cette découverte au milieu d’un catalogue de plusieurs millions d’ouvrages. Et vous pensez bien que rien n’est fait pour faciliter la recherche.

Comme il fallait s’y attendre les concurrents ont réagi avec retard mais ont fini par se manifester. D’abord aux Etats-Unis, où le second accord de règlement oblige Google à revenir à l’Opt-in pour les œuvres toujours commercialisées, tout en conservant l’Opt-out pour le reste ( L’Opt-in impose à Google une demande d’autorisation préalable).

La seconde version du « Règlement Google Books » a été examinée par la justice américaine en Février 2010, et malgré la demande du « Department of justice » d’abandonner l’Opt-out et de généraliser l’Opt-in, Google a persisté dans sa décision.

Après les Etats-Unis le reste du monde est entré dans la contestation, et Google doit maintenant faire face à une fronde généralisée.

Un premier procès Google-La Martinière a été perdu par Google.

La société des auteurs Chinois a obtenu que la liste des ouvrages numérisés lui soit communiqué.

En acceptant de remettre une liste, Google facilite grandement le travail des titulaires de droit et, sans remettre en cause l’opt-out, il en fragilise la portée pratique.

On peut donc s’attendre dans l’avenir à un retour au droit, mais en attendant Google aura atteint son objectif qui est d’occuper une position dominante sur ce marché.

 

 

 

 

Repost 0
9 septembre 2010 4 09 /09 /septembre /2010 19:04

Jeudi 9 Septembre 2010

La Société française TMG ( Trident Media Guard ) a été choisie en Janvier 2010 pour développer le logiciel visant à empêcher la copie illicite de fichiers sur Internet, l’objectif étant de relever les infractions dans le cadre de la loi HADOPI.

Ce logiciel est opérationnel depuis Avril 2010 , et fonctionne pour surveiller les échanges de données utilisant le protocole P2P et bloquer les téléchargements .

Aucun logiciel n’est installé à l’insu de l’internaute et aucune information n’y est collectée.

Pour que le relevé d’une infraction puisse légalement donner lieu à poursuites, l’internaute doit pouvoir disposer d’un moyen de ne pas commettre cette infraction. Pour cela l’HADOPI doit fournir un logiciel de sécurisation, ou indiquer une liste de logiciels homologués. L’internaute suspecté devra prouver que le logiciel était activé au moment du relevé de l’infraction.

L’installation de ce logiciel n’est pas obligatoire, pour le moment.

Il n’existe actuellement aucun logiciel de sécurisation homologué.

L’HADOPI a lancé fin Juillet 2010 une consultation publique ouverte jusqu’au 30 Octobre 2010, pour l’établissement d’un projet de logiciel de sécurisation. On peut prendre connaissance du cahier des charges sur ce site:

 

http://www.ecrans.fr/Securisation-Hadopi-futur-arbitre,10526.html

Ce logiciel sera autonome ou intégré dans les antivirus ou les logiciels parentaux. Il devra analyser les flux et les protocoles, et bloquer ou avertir l’utilisateur lors de trafics suspects.

Il pourra également analyser la configuration informatique de l’ordinateur, ce qui concerne aussi bien les logiciels installés - comme ceux de peer-to-peer - ou l’utilisation du wifi en mode non sécurisé.

Enfin, il enregistrera tous les événements ayant lieu sur l’ordinateur dans un double journal — exception faite de l’historique de navigation - dont une partie sera cryptée et transmise à l’Hadopi en cas de litige.

Ce logiciel, conjointement avec le logiciel de TMG, constituera clairement un

« Big Brother » susceptible de permettre une surveillance 24h/24 de toutes les activités de l’internaute, bien au-delà de la lutte contre les téléchargements pirates.

On peut s’attendre à une très forte opposition de la part des associations de défense des libertés, et à des empoignades juridiques musclées si ce procédé est mis en application.

 

 

Repost 0
8 septembre 2010 3 08 /09 /septembre /2010 10:29

8 Septembre 2010

 

L’IAC recommande une réforme des structures Du GIEC.

 

 

7 Septembre 2010

Rappelons que l’IAC ( Inter Academy Council ), missionné par le Secrétariat Général de l’ONU, a été chargé par ce dernier d’effectuer un audit des méthodes et procédures de l’IPCC ( GIEC ) et d’émettre des recommandations s’il y a lieu.

Le rapport de L’IAC vient de sortir le 31 Août 2010 comme prévu, et nous analysons ci-dessous les principales remarques et recommandations qui devront être prises en compte pour la suite des activités de l’IPCC/GIEC.

La mission de l’IAC ne portait pas sur la valeur des travaux scientifiques ni sur les résultats fournis par les différentes équipes, mais uniquement sur les méthodes et procédures de gestion , la communication, la prise en compte des débats contradictoires, et l’interprétation finale à l’usage des décideurs de la planète.

Nous avons fait figurer , dans leur version originale, les paragraphes qui nous ont paru les plus représentatifs, accompagnés de notre propre traduction . Le lecteur est invité à se reporter au texte intégral disponible sur internet.

Extraits:

Recommendation:

The IPCC should establish an Executive Committee to act on its behalf between Plenary sessions. The membership of the Committee should include the IPCC Chair, the Working Group Co-chairs, the senior member of the Secretariat, and 3 independent members, including some from outside of the climate community. Members would be elected by the Plenary and serve until their successors are in place.

Tr. L’IPCC devra mettre en place un Comité Exécutif pour agir en son nom entre les sessions plénières. Ce comité sera composé du président de l’IPCC, des présidents des groupes de travail, du secrétaire principal, de trois membres indépendants dont certains n’appartenant pas à la communauté climatique. Les membres seront désignés en assemblée plénière et resteront actifs jusqu’à leur remplacement.

 

p6

climate science has become so central to important public debates that accountability and transparency must be considered as a growing obligation, and this alone would require revisiting IPCC’s processes and procedures.

Tr. La science climatique occupe aujourd’hui une place si importante dans les grands débats publics que la responsabilité et la transparence doivent être de plus en plus respectées, ce qui en soi suffirait à reconsidérer les méthodes et les procédures de L’IPCC.

The intersection of climate science and public policy is certain to remain a controversial arena for some time as so many competing interests are at stake, including the interests of future generations and the diverse interests of different nations, regions, and sectors of society around the world.

Tr. Les interférences entre la science climatique et la politique publique resteront longtemps un domaine de controverses , eu égard aux nombreux intérêts concurrentiels en jeu , comme ceux des générations futures, et des différentes nations, régions, et secteurs de la société de par le monde.

 

P10

 

Executive Committee should be relatively small with ideally no more than 12 members. Its membership would include selected IPCC leaders as well as individuals from academia, nongovernmental organizations, and/or the private sector who have relevant experience and who are not connected with the IPCC or even climate science. Their participation would improve the credibility and independence of the Executive Committee.

Tr. Le comité exécutif devra être relativement réduit et idéalement ne pas comporter plus de douze membres. Ses membres devront être des leaders choisis de l’IPCC aussi bien que des individualités issues d’organisations académiques non gouvernementales, et/ou du secteur privé ayant l’expérience nécessaire et n’ayant aucun lien avec l’IPCC ou même la science climatique. Leur participation sera de nature à améliorer la crédibilité et l’indépendance du comité exécutif.

 

 

p12

Recommendation:

The IPCC should encourage review editors to fully exercise their authority to ensure that reviewers’ comments are adequately considered by the authors and that genuine controversies are adequately reflected in the report.

Tr. Recommendation:

L’IPCC devra encourager le comité de relecture à exercer pleinement son autorité pour s’assurer que les commentaires des relecteurs sont normalement pris en compte et que les discussions contradictoires sont normalement reproduites dans le rapport.

Recommendation:

The IPCC should adopt a more targeted and effective process for responding to reviewer comments. In such a process, Review Editors would prepare a written summary of the most significant issues raised by reviewers shortly after review comments have been received. Authors would be required to provide detailed written responses to the most significant review issues identified by the Review Editors, abbreviated responses to all non-editorial comments, and no written responses to editorial comments.

Tr. Recommendation:

L’IPCC devra adopter une procédure plus ciblée et efficace pour répondre aux commentaires des relecteurs. Dans une telle procédure, le comité de relecture préparera un résumé écrit des sujets les plus significatifs soulevés par les relecteurs sitôt après réception de leurs commentaires . Les auteurs devront fournir des réponses détaillées écrites sur les problèmes les plus significatifs identifiés par les relecteurs, des réponses brèves aux commentaires non-éditoriaux, et aucune réponse écrite aux commentaires éditoriaux.

p16

Recommendation:

All Working Groups should use the qualitative level-of-understanding scale in their Summary for Policy Makers and Technical Summary, as suggested in IPCC’s uncertainty guidance for the Fourth Assessment Report. This scale may be supplemented by a quantitative probability scale, if appropriate.

Tr. Tous les groupes de travail devront utiliser l’échelle qualitative de niveau de compréhension dans leur résumé pour les décideurs politiques et dans le résumé technique, comme proposé dans le « guide pour la gestion de l’incertitude » de l’IPCC pour le quatrième rapport d’avancement. Cette échelle pourra être complétée par une échelle quantitative de probabilité, si nécessaire.

 

Recommendation:

Quantitative probabilities (as in the likelihood scale) should be used to describe the probability of well-defined outcomes only when there is sufficient evidence.

Authors should indicate the basis for assigning a probability to an outcome or event (e.g., based on measurement, expert judgment, and/or model runs).

Tr. Des probabilités chiffrées ( comme dans l’échelle de vraisemblance ) ne pourront être utilisées pour décrire la probabilité de résultats précis seulement si les preuves sont suffisantes.

Les auteurs devront préciser sur quelles bases sont déterminées les probabilités de tel évènement ou de telle valeur chiffrée.

p17

Recommendation:

The IPCC should complete and implement a communications strategy that emphasizes transparency, rapid and thoughtful responses, and relevance to stakeholders, and which includes guidelines about who can speak on behalf of IPCC and how to represent the organization appropriately.

Tr. L’IPCC devra définir et mettre en place une stratégie de communication mettant l’accent sur la transparence, sur des réponses rapides et approfondies consistantes pour les parties prenantes, incluant des directives précisant qui peut parler au nom de l’IPCC et comment représenter l’organisation de manière appropriée.

 

If adopted in their entirety, the measures recommended in this report would fundamentally reform IPCC’s management structure while enhancing its ability to conduct an autoritaire assessment.

However, no matter how well constructed IPCC’s assessment practices may be, the quality of the result depends on the quality of the leaders at all levels who guide the assessment process.

the traditional approach may not be the best model for future assessments.

 

Tr. Si les mesures recommandées dans ce rapport sont intégralement adoptées, les structures de management de l’IPCC seront fondamentalement réformées, et son aptitude à mener une évaluation de poids sera renforcée.

Cependant, quelle que soit la qualité des pratiques d’évaluation de l’IPCC, La qualité des résultats dépend de le la qualité des leaders à tous les niveaux, qui conduisent les procédures d’évaluation.

L’approche traditionnelle ne peut pas être le meilleur modèle à suivre pour les futures évaluations.

Fin des extraits.

Commentaires:

L’IAC a donc pointé les défauts de la gestion mise en place par l’IPCC et propose des mesures correctrices:

 

Création d’un comité exécutif incorporant des membres non liés à l’IPCC et issus d’organismes non gouvernementaux.

 

Mise en place d’une procédure de relecture transparente, publique, et contradictoire.

Mise en place d’une stratégie de communication claire et transparente , avec justification de toutes les décisions.

Mise en place d’une exigence de précision et de justification quant aux évaluation des probabilités d’évènements et/ou de mesures.

 

Ces mesures permettront de relever le degré de crédibilité de l’IPCC grâce à une plus grande transparence.

Le prochain rapport de l’IPCC doit sortir en 2012/2013 ( Fifth Assessment report ) . Compte tenu de l’ampleur de la polémique actuelle il serait souhaitable qu’une mise au point rapide soit publiée avant cette échéance , afin de calmer le jeu, si toutefois il n’est pas déjà trop tard…..

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

.

Repost 0