Overblog Suivre ce blog
Administration Créer mon blog
10 juin 2010 4 10 /06 /juin /2010 18:23

10 Juin 2010

Lentement, mais sûrement, le numérique pénètre l’univers de l’Education Nationale.

La première démarche a concerné le déploiement des ENT ( Environnements Numériques de travail) , dans l’enseignement secondaire.

Au quatrième trimestre 2009 l’état des lieux était le suivant:

- Généralisation à plus de 50% dans 17 départements.

- Généralisation à moins de 50% dans 29 autres départements.

- Expérimentation dans 15 départements.

- Etudes préalables dans 26 départements ( dont l’ensemble de la Bretagne).

- Pas d’intérêt, dans 13 départements.

( Source: http://www.educnet.education.fr/services/ent/scolaire/deploiement/hist-carto-ent/carte-co-T4-2009/ )

La seconde démarche a été le lancement de l’expérimentation du manuel scolaire en sixième, à la rentée 2009.

325 classes sont concernées, avec 8 000 élèves.

Cette expérimentation sera vraisemblablement étendue dans le cadre du grand plan numérique du Ministre Luc Chatel.

Ce « grand plan numérique pour l’école » , qui doit être précisé en 2010, marque la volonté des pouvoirs publics d’inciter l’Education Nationale à effectuer son virage vers les technologies numériques. Une partie du grand emprunt serait consacrée à ce projet.

Il apparaît donc un nouveau marché qui suscite les convoitises des industriels déjà présents dans les secteurs concernés. En effet, il ne s’agit plus de fournir « seulement » des manuels papier, mais de proposer un ensemble de services « clé en main » incluant les matériels, les logiciels, l’intéropérabilité, et pas seulement du contenu pédagogique. Sans oublier la formation des enseignants à ces nouveaux médias.

Le livre de grand-papa a vécu, il faut désormais apporter l’interactivité, le son et l’image, et l’ouverture sur le réseau internet.

Les grands du multimédia et de l’informatique sont évidemment déjà en piste, et en premier lieu Microsoft:

- En 2003, signature s’un accord-cadre avec l’Education Nationale pour la fourniture de logiciels . Un avenant 2006 précise les conditions d’application de cet accord.

- Pour les enseignants, mise à disposition gratuite du logiciel MS Office 2007.

- Etablissement de partenariat avec le monde associatif enseignant.

- Adaptation au contexte français du programme international «  Partners in Learning ».

- Initiation et financement partiel du « forum des enseignants innovants » à Rennes en 2008.

- Diverses autres actions comme des offres de formations .

L’objectif de Microsoft est bien évidemment de se tailler une position de leader incontournable dans le domaine du logiciel éducatif , ce que sa force de frappe l’autorise à envisager raisonnablement.

Beaucoup regrettent le choix de Microsoft par l’EN, au détriment d’autres solutions logicielles ouvertes. Encore faudrait-il que ces hypothétiques autres solutions soient supportées par une logistique à la hauteur, ce qui ne s’est pas présenté.

Face à cette offensive de Microsoft, dont les ambitions vont au-delà de la fourniture de logiciels, les éditeurs scolaires ne pouvaient pas rester inactifs sous peine de disparaître purement et simplement.

En 2003, sous l’impulsion du Ministère de la Jeunesse, de l’Education Nationale et de la Recherche, trente et un éditeurs se sont associés pour créer le CNS ( Canal Numérique des Savoirs) . Le CNS est une plateforme de distribution de ressources numériques éducatives destinées à l‘ensemble des niveaux des écoles, collèges et lycées, opérationnelle depuis la rentrée 2005. La nouvelle plateforme CNS V2 permet à chaque utilisateur d'accéder d'où qu'il se trouve (dans l'établissement ou au domicile), grâce à un identifiant et un mot de passe uniques, à l'ensemble des ressources acquises au sein du catalogue du CNS.

D’autres éditeurs ont effectué la même démarche, toujours dans le cadre des directives ministérielles, pour créer une autre plateforme, le KNE ( Kiosque Numérique de l’Education). Les objectifs sont les mêmes, dans le respect de l’interopérabilité.

Les éditeurs traditionnels d’ouvrages scolaires se sont donc donné les moyens de préserver leur activité grâce à une diversification dans le numérique. Pour le moment les éditions papier ne sont pas menacées car les deux versions coexisteront pendant quelques années. Mais il ne fait pas de doute que le succès du livre scolaire numérique multimédia entraînera le désintérêt pour le manuel papier, sauf dans quelques cas particuliers.

Il existe une source émergente de concurrence dans le domaine des contenus éducatifs numériques, ce sont les contenus développés par les enseignants eux-mêmes et mis gratuitement à disposition de la communauté. Les matériels et les logiciels existent, qui permettent la réalisation de ces supports de cours sans difficultés particulières, et donc sans la nécessité d’une logistique que seule une grande maison peut offrir.

Depuis Jules Ferry les enseignants peuvent choisir librement leurs manuels, pourvu qu’ils soient conformes aux programmes et respectent quelques règles de base imposées par le Ministère.

S’il existe des sources gratuites de contenus éducatifs numériques fiables, on peut penser que de nombreux enseignants les choisiront pour des raisons budgétaires.

A moins qu’une règlementation draconienne n’intervienne pour rendre incontournable le recours aux grandes maisons…..

 

 

 

Repost 0
9 juin 2010 3 09 /06 /juin /2010 15:28

7 Juin 2010

Le Ministre Luc Chatel laissera donc sa marque sur la première expérimentation en vraie grandeur du manuel scolaire numérique.

Lancé à la rentrée 2009, ce projet est la première pierre d’un édifice ambitieux concernant à terme tous les établissements d’enseignement. Il est la continuité logique de la création des ENT ( Environnements Numériques de Travail) déjà fortement implantés.

Pour construire dans la continuité il était normal de commencer par les classes de sixième, qui sont la porte d’entrée des collèges.

Par ailleurs seuls les établissements ayant développé l’ENT ont été sollicités pour expérimenter les manuels numériques.

64 Collèges dans 12 Académies sur 21 Départements ont accepté de participer à l’opération, ce qui représente 325 classes de sixième , soit 8 000 élèves et leurs enseignants.

Quatre matières sont concernées: Français, Mathématiques, Histoire-Géographie, et Sciences de la Vie et de la Terre.

L’accession aux manuels numériques se fait à travers l’ENT du Collège, soit en classe, soit en étude, soit depuis le domicile.

Les manuels papiers ont été conservés pour cette première expérience, pour tenir compte du manque d’accès internet dans certains foyers.

Il faut saluer cette initiative d’une certaine ampleur, dont les résultats seront analysés à l’issue de l’année scolaire. D’après les premiers résultats très encourageants déjà obtenus, il a été décidé de poursuivre l’expérience en cinquième et de l’étendre progressivement à tous les collèges.

Au-delà de l’allègement du cartable, un résultat déjà appréciable, il faut voir dans cette réalisation l’amorce d’un changement de paradigme. En entrant à l’école, le monde numérique abandonne définitivement son statut de gadget pour être admis dans le monde des médias nobles et incontournables.

 

Repost 0
31 mai 2010 1 31 /05 /mai /2010 17:22

31 Mai 2010

Le 10 Mars 2010, à la demande conjointe du Secrétariat Général des Nations Unies et du bureau de l’IPCC/GIEC, l’IAC a été sollicité pour entreprendre une analyse indépendante des procédures et des méthodes de travail de l’IPCC.

Suite à cette demande, l’IAC a constitué un groupe d’experts dans les domaines concernés ( Independant Expert Group, IEG) qui aura pour tâche de mener un audit à l’issu duquel seront éventuellement proposées des révisions des pratiques et des procédures de l’IPCC.

L’IAC ( Inter Academic Council) est une organisation internationale qui réunit les Académies des Sciences de nombreux pays.

Créé en 2000, cette organisation a pour mission de fournir aux organismes internationaux comme les Nations Unies ou la Banque Mondiale , des rapports scientifiques sur les problèmes mondiaux de tous ordres.

Rappelons que l’IPCC ( GIEC) a été créé en 1989 par le WMO ( World Meteorological Organization), et le Programme des Nations Unies pour l’Environnement, donc avant l’existence de l’IAC.

Compte tenu de l’état d’avancement du cinquième rapport de l’IPCC, le groupe d’experts pour l’audit devra fournir ses conclusions pour le 31 Août 2010.

Il reste à espérer que les experts de l’IAC seront suffisamment indépendants des gouvernements et des lobbies des grandes compagnies, pour que ce grand lavage de linge sale en famille aboutisse à clarifier le problème et non à le compliquer.

Repost 0
31 mai 2010 1 31 /05 /mai /2010 12:04

 

 

31 Mai 2010

 

La vie sur Terre n’existe que grâce à la présence du Soleil. Il nous inonde chaque jour d’une énergie colossale évaluée aujourd’hui à 1 367 W/m2 ( flux radiatif au-dessus de l’atmosphère).

Cette énergie réchauffe la Terre à travers l’atmosphère. La Terre à son tour renvoie cette énergie vers l’espace dans un bilan radiatif équilibré résultant en une température moyenne de 15 °C ( Le flux de chaleur d’origine interne est aujourd’hui très faible, environ 0,06 W/m2 ).

Cet équilibre radiatif est très variable selon les régions, selon les zones terrestres ou océaniques, selon la nature des sols ( déserts, forêts, sol neigeux,…), provoquant de grandes perturbations dans l’atmosphère , l’ensemble constituant le climat.

L’étude du climat et surtout les prévisions climatiques supposent donc une très bonne connaissance du fonctionnement du couple Terre-Soleil, de son environnement cosmique et, bien évidemment, du Soleil lui-même.

Or, aujourd’hui, ces connaissances sont fragmentaires, incertaines et imprécises, ce qui ôte toute crédibilité aux calculs de prévisions climatiques à long terme .

Cette lacune n’a bien sûr pas échappé à la communauté scientifique et plusieurs programmes d’études sont en cours , dans le but de comprendre le fonctionnement du système Terre-Soleil dans son environnement, de déterminer les paramètres influents et d’en mesurer la valeur et les variations.

Le satellite français PICARD , sous la responsabilité du CNES, sera lancé le 15 Juin 2010 depuis la base Yasny, en même temps que PRISMA, satellite Suédois.

Le but de cette mission est l’observation du Soleil pendant la phase ascendante de sa 24è période active qui a débuté en 2008 et qui doit culminer en 2013.

Cette mission s’inscrit dans un programme international de mesures solaires auquel participent les satellites SOHO , SORCE , Solar B, STERO, Solar Dynamics Obervatory, ainsi que la station spatiale internationale.

Ces mesures permettront de donner une base solide pour le calcul de l’influence du Soleil sur les variations du climat et donc de préciser l’importance des causes naturelles dans le réchauffement climatique.

 

 

Repost 0
29 mai 2010 6 29 /05 /mai /2010 18:49

 

29 Mai 2010

En prévision du grand match dans lequel doivent s’affronter les tenants du réchauffement anthropique , sous les couleurs de l’IPCC ( GIEC pour les gaulois), et les opposants à cette thèse , nous présentons dans cet article la principale équipe prête à relever le gant, sous les couleurs du NIPCC.

A l’origine se trouve le SEPP ( Science and Environmental Policy Project) , « Educational Group » au sens de l’article 501(C)3, plus ou moins équivalent à nos associations loi 1901, fondée en 1990 par Fred Singer.

Fred Singer est un physicien, spécialiste de l’atmosphère. L’objectif de ce groupe est d’étudier les problèmes variés auxquels notre planète doit faire face, et proposer des solutions à la fois efficaces et respectueuses des deniers publics.

Le SEPP fonctionne grâce à la participation « pro bono » d’un groupe de scientifiques du monde entier.

Le SEPP a commencé à s’intéresser de près au « global warming » en 1996, lorsque parut le rapport de l’IPCC « Climate change 1995, the science of climate change ». Le groupe alerta la communauté scientifique et les instances gouvernementales sur les irrégularités et les interprétations tendancieuses décelées dans l’exposé. Ces actions ne sont pas étrangères aux prises de position des gouvernements américains relativement au problème du réchauffement climatique.

C’est en 2003 qu’un groupe baptisé « Team B » fut crée au sein du SEPP pour s’occuper spécifiquement des problèmes liés aux activités du IPCC. Ce groupe devint par la suite le NIPCC.

En 2008 le NIPCC publia un premier rapport critique du FAR ( Fourth Assessment Record) du IPCC. 24 contributeurs de 14 pays ont participé à ce rapport.

A la même époque le NIPCC obtint la collaboration du « Center for the Study of Carbon Dioxide and Global Change » .

Le rapport complet de critique du FAR a été publié en 2009 sous le titre « climate change reconsidered »( 880 pages).

Ce rapport est disponible ici:

http://www.nipccreport.org/reports/2009/2009report.html

Cette présentation un peu indigeste vise à montrer que les thèses du IPCC ne sont pas acceptées par tout le monde , et que les contradicteurs ne sont pas simplement des illuminés incultes mais des scientifiques organisés en réseau mondial .

Les médias français ont mis une chape de plomb sur toutes les informations qui ne vont pas dans le sens du GIEC/IPCC , il faut donc se tourner vers les sites étrangers pour s’informer de l’état d’avancement du problème.

Les enjeux sont immenses car des centaines de milliards de dollars et d’euros vont d’être dépensés dans la mise en œuvre de mesures d’adaptation aux risques climatiques. Si ces risques sont mal évalués il en résultera non seulement un gaspillage financier inutile , mais une erreur de stratégie mondiale dont auront à souffrir une fois de plus les plus pauvres.

 

 

 

 

Repost 0
28 mai 2010 5 28 /05 /mai /2010 14:38

 

Le graphique suivant est extrait de la base de données NCDC/NOAA.

NCDC: National Climatic Data Center.

NOAA: National Oceanic and Atmospheric Administration.

 

 

http://www.ncdc.noaa.gov/paleo/globalwarming/temperature-change.html

Il donne la température et le taux de CO2 pour les 400 000 dernières années.

En Bleu: la température en °C

En rouge: le taux de CO2

 

 

Cycles de 100 000 ans temp CO2

 

Ces courbes nous apprennent plusieurs choses:

- Le climat terrestre n’est pas un long fleuve tranquille. Il oscille régulièrement entre des périodes chaudes et des périodes glaciaires avec une périodicité de 100 000 ans environ. Ces oscillations lentes sont causées par des évènements astronomiques récurrents qui ne seront pas évoqués dans cet article.

- Les températures oscillent entre -9°C et +3°C par rapport à la température actuelle.

- On observe des fluctuations à échelle de temps réduite, dans une fourchette d’environ 2°C. Ces causes sont probablement multiples: variation de l’activité solaire, volcanisme, rayons cosmiques, etc….

- La durée des période chaudes varie entre 10 000 et 20 000 ans environ.

- Nous sommes actuellement dans une période chaude qui dure depuis déjà 10000 ans.

- La température actuelle est inférieur de 0,6 °C au maximum constaté de notre période chaude qui eut lieu autour de 50 Av-JC.

- La courbe du taux de CO2 est similaire à celle de la température et en synchronisme autant qu’on peut le voir à cette échelle de temps..

- Le taux de CO2 actuel est normal par rapport aux autres périodes.

- Les phases de croissance des deux paramètres sont superposables.

- En phases de décroissance le taux de CO2 est en retard sur la température, ce qui suggère en première approximation que le taux de CO2 est assujetti à la température, ce qui est logique si les variations lentes de température sont essentiellement dues à des causes astronomiques.

Ces remarques, simplement déduites de la lecture des courbes, permettent d’établir un état des lieux du climat passé. Nous approchons probablement de la fin de notre période chaude, sans qu’il soit possible de préciser davantage. La température actuelle est normale sans plus en comparaison avec les cycles anciens.

Des mesures complémentaires sont en cours dans différents projets pour affiner ces résultats. Une dizaine d’années seront encore certainement nécessaires pour parvenir à une connaissance opérationnelle du climat permettant des prévisions fiables appuyées sur des modèles robustes.

En attendant il est prudent de développer un programme de contrôle et de maîtrise des paramètres anthropiques pouvant influencer le climat . L’importance de ces programmes devra être modulée en fonction de la progression des connaissances et des résultats actualisés.

Repost 0
28 mai 2010 5 28 /05 /mai /2010 10:20

Données extraites d’un carottage de mille mètres effectué au Goenland , dans le cadre du « Greenland Ice Sheet Project GISP2»

Source:

http://muller.lbl.gov/pages/iceagebook/history_of_climate.html

 

 last 2400 years climate

Cette courbe décrit les variations de température depuis 400 av-JC jusqu’à nos jours. Par rapport à la température de 1950 on constate que les écarts maximaux ont été de +0,85 °C en - 50 av-JC, et -1 °C en 1400 AD. Cet écart est aujourd’hui de + 0,45 °C, donc largement à l’intérieur de la fourchette observée sur les derniers 2400 ans.

On observe également de nombreuses séquences de variations brusques de la température, avec une pente ( vitesse de variation) plus forte qu’aujourd’hui et une périodicité apparente de 59 ans.

En première approximation la lecture de cette courbe donne à penser que la situation actuelle est normale, dans les limites des variations erratiques.

 

Par contre, si l’on ne s’intéresse qu’à la période récente ( de 1880 à nos jours) on peut être amené à tirer des conclusions différentes:

 

temp de 1880 à2000

 

Cette vision tronquée de l’évolution des températures met l’accent sur un réchauffement continu depuis 1910. Le fait que cette période correspond au développement de l’industrie suggère une relation de cause à effet.

Cette éventuelle relation de cause à effet est confortée par le constat de l’augmentation du taux de CO2 considérée comme la signature des activités humaines.

Il n’en faut pas plus pour mettre au compte des activités humaines un réchauffement climatique apparemment exceptionnel, en écartant la possibilité d’une simple variation de température inscrite dans la fourchette des variabilités erratiques prouvées depuis plusieurs milliers d’années, donc bien avant l’ère industrielle.

Nous sommes donc en présence de deux hypothèses:

1- La température actuelle se situe dans les limites de variabilité erratique constatée depuis 2400 ans. Si l’activité industrielle doit être considérée comme un forçage externe, ce forçage n’intervient qu’au second degré . Il doit être pris en compte , mais avec un degré d’urgence à pondérer en fonction des autres urgences mondiales.

2- L’augmentation de température constatée depuis le début de l’ère industrielle est clairement le résultat d’un forçage anthropique , cette élévation est dramatique à court terme à l’échelle du siècle, et des mesures correctrices sévères doivent être prises d’urgence, en faisant au besoin passer au second plan d’autres problèmes mondiaux.

Les éléments scientifiques disponibles ne permettent pas de trancher en faveur de l’une ou l’autre hypothèse. De nombreux travaux sont en cours dans le but d’approfondir notre connaissance des paramètres climatologiques et de leurs interactions.

Le prochain rapport du GIEC, prévu pour 2014, devrait intégrer ces nouveaux résultats et remplacer les nombreux « probable » par quelques « certain ».

Repost 0
27 mai 2010 4 27 /05 /mai /2010 17:49

Pour inaugurer cette modeste série d’articles sur le tintamarre climatologique ambiant, voici un extrait du quatrième rapport du GIEC ( 2001) , tiré du sous-chapitre 14.2.2.2:

«  In sum, a strategy must recognise what is possible. In climate research and modelling, we should recognise that we are dealing with a coupled non-linear chaotic system, and therefore that the long-term prediction of future climate states is not possible. »

Traduction:

«  En fin de compte, une stratégie se doit de reconnaître ce qui est possible. En matière de recherche climatique et de modélisation , nous devrions reconnaître que nous avons affaire à un système non linéaire couplé chaotique, et que par conséquent la prédiction à long terme des futures conditions climatiques n’est pas possible. »

On ne peut être plus clair…..

Repost 0
26 mai 2010 3 26 /05 /mai /2010 18:26

 

26 Mai 2010

Le lancement du livre numérique a opportunément chamboulé le marché de la microinformatique et de l’internet, mettant l’usager branché devant la nécessité d’opérer un choix douloureux quant au renouvèlement de son matériel.

Bien sûr tout le monde a déjà lu un ouvrage numérique sur son PC, assez pour prendre conscience que cet appareil n’est pas l’engin idoine pour apprécier un roman dans la détente et le calme de son hamac, ou bien sur la plage.

C’est pourquoi les fabricants ont pensé à nous en développant des matériels adaptés . Leur démarche est bien sûr commerciale , il leur fallait donc œuvrer dans la continuité de leur métier de base et sans mettre en danger leur fonds de commerce.

C’est ainsi qu’ils nous ont placés en face de trois solutions, dont chacune offre des avantages propres rendant le choix difficile. Le but non avoué des fabricants étant évidemment de nous faire acheter les trois !

La première solution consiste en un appareil spécialisé dans la lecture des

e-books ( ou livrel pour les puristes). Il ne fait que cela, mais il le fait très bien avec un poids très réduit ( quelques centaines de grammes) , une très grande autonomie et un affichage très réaliste.

C’est par exemple le Kindle d’Amazon, le Sony reader, et quelques autres.

La deuxième solution consiste en un mini-PC aux fonctionnalités limitées mais au poids réduit ( de l’ordre de 1,3 kg ) avec un écran de 10 pouces et une autonomie de chameau ( plus de 10 heures !). On fait avec çà ce qu’on fait habituellement avec un PC portable, mais sans lecteur de disque.

Tout les fabricants de PC proposent ce produit, le leader étant Asus.

La troisième solution consiste en une sorte de mini-PC sans clavier et aux grandes possibilité tactiles, permettant la lecture des e-books bien sûr, mais aussi tout un tas d’autres applications multimédia.

Le champion de ce truc est Apple et son I-pad.

Les prix de ces merveilles s’échelonnent entre 150 euros et un millier d’euros, selon la solution choisie et les fonctionnalités.

Au début, les grands de ce marché naissant se tiraient des bourres et chacun tentait de s’approprier la plus grosse part, voire même la totalité du business, non seulement des matériels, mais aussi des ventes de téléchargements. On trouvait donc des produits ( matériels et logiciels ) dont la compatibilité éventuelle n’était que le résultat du hasard.

Cette situation ne pouvait que nuire au marché ou freiner sérieusement son développement. C’est pourquoi des actions de normalisation sont en cours pour converger vers une intéropérabilité des produits. Ceci sera détaillé dans un prochain article, il y sera également question des DRM.

Une fois cette interopérabilité obtenue , l’usager devra faire son choix parmi les trois solutions.

Pour lire des livre homothétiques ( Un livre homothétique est la transcription numérique d’un livre papier ) dans un fauteuil, pendant la sieste, dans le métro, dans le train, sur la plage, ou dans son lit, il faut un dispositif très léger et avec un affichage très confortable ; le lecteur dédié est la meilleure solution , sauf bien sûr si l’on est un inconditionnel du papier !

Pour lire des livres, mais aussi consulter des documents, les modifier, rédiger des lettres, des rapports, des tableaux, afficher des photos, les retoucher, composer des documents multimédia, surfer sur le net, etc…., il faut un ordinateur avec un clavier. Le mini-PC est alors une bonne solution si l’on recherche la mobilité sans l’encombrement et le poids. Le mini-PC est à l’ordinateur portable ce que le compact photo est à l’appareil reflex.

Pour les usagers qui recherchent à la fois la mobilité, la polyvalence, la simplicité d’utilisation, qui répugnent à tremper leurs mains dans des systèmes d’exploitation abscons et des logiciels incompréhensibles, et qui n’ont pas forcément besoin d’un clavier à plein temps, il y a la troisième solution tout en un sans clavier mais avec intégration de multiples applications clé en mains, écran tactile et joy-stick. C’est le principe du I-Pad, qui semble trouver une clientèle importante.

A considérer ces spécificités on constate vite que l’usager branché aura besoin des trois produits, un peu comme le couvreur a besoin de plusieurs échelles.

Il adviendra probablement de ces matériels ce qu’il est advenu des postes radio autrefois. Un seul appareil dans la maison, déjà un luxe, pour finir aujourd’hui avec une bonne douzaine de transistors de la cave au grenier en passant par la voiture, la chaîne Hi-Fi, les radio-réveils, les baladeurs, les lecteurs de CD, sans compter la télé.

Les querelles actuelles sur l’utilité de tel ou tel « gadget » High-Tech paraîtront bien désuètes à nos petits-enfants.

 

 

 

Repost 0
24 mai 2010 1 24 /05 /mai /2010 11:54

24 Mai 2010

On trouve sur le net de nombreuses « plateformes numériques » qui proposent des livres en téléchargement gratuit.

Avant de se précipiter pour constituer sa bibliothèque personnelle à peu de frais , il est prudent de se souvenir que la loi Hadopi est effective depuis le 29 Décembre 2009. Depuis cette date tout usager se livrant au téléchargement illégal d’une œuvre sous droits est passible de poursuites pénales et d’interruption de sa connexion internet.

Certaines plateformes avertissent les usagers. Par exemple sur « Project Gutenberg » on peut lire l’avertissement suivant:

« Our books are free in the United States because their copyright has expired. They may not be free in other countries. Readers outside of the United States must check the copyright laws of their countries before downloading or redistributing our ebooks. »

In french:

«  Nos ouvrages sont libres de droits aux Etats-Unis ( copyright expiré). Mais ils peuvent ne pas être libres dans d’autres pays. Les lecteurs situés hors des USA doivent contrôler la situation du copyright dans leur pays avant de télécharger un ouvrage ou de le redistribuer. »

Un lecteur averti en vaut deux.

Repost 0