Overblog Suivre ce blog
Administration Créer mon blog
28 janvier 2014 2 28 /01 /janvier /2014 10:11

27 Janvier 2014

La France s’est dotée, depuis plus de vingt ans, de moyens d’analyse et de surveillance de la qualité de l’air ambiant. La « loi sur l’air et l’utilisation rationnelle de l’énergie » a été adoptée le 30 Décembre 1996, suite à la directive européenne du 27 Septembre 1996 sur l’évaluation et la gestion de la qualité de l’air ambiant.

La mise en place des outils et des moyens d’analyse a été prise en charge par le LCSQA ( Laboratoire Central de Surveillance de la Qualité de l’Air) créé en 1995, en collaboration avec EMD ( Laboratoire de l’Ecole des Mines de Douai, INERIS ( Institut National de l’Environnement et ses RISques ) et le LNE (Laboratoire National de métrologie et d’Essais ), en liaison avec les AASQA ( Associations Agréées de Surveillance de la Qualité de l’Air), regroupés en 2005 au sein du Groupement d’Intérêt Scientifique GIS LCSQA . AIRPARIF contribue à l’activité du GIS, sous la coordination technique de l’ADEME ( Agence De l’Environnement et de la Maîtrise de l’Energie).

Tout ce beau monde s’occupe entre autres d’identifier, de répertorier, de mesurer, et de surveiller toutes les saletés présentes dans l’atmosphère et qui n’ont rien à y faire. Les études s’effectuent bien sûr en liaison avec les organismes correspondants des différents pays de la Communauté Européenne. Les résultats servent entre autres à établir des normes et à vérifier leur respect.

Cette accumulation de compétences scientifiques a permis des avancées notables dans la lutte contre la pollution mais, grâce au (ou à cause du ) progrès technique pas toujours bien contrôlé, la pollution possède toujours une longueur d’avance sur les moyens de lutte pour un air respirable.

On connaît les PM10 et les PM 2.5, contre lesquelles luttent les règlementations européennes en imposant des dispositifs de filtrage passifs ou actifs. Les PM 1.0 sont également visées par les nouvelles normes. Il faut maintenant s’attaquer à une nouvelle catégorie d’objets, les nanoparticules, qui sont les PM 0.1 dont le diamètre est inférieur à 100 nanomètres.

On les connaît depuis longtemps, le GIS LCSQA les a identifiées, répertoriées et mesurées, des études toxicologiques mondiales ont montré leurs modes de pénétration dans les organismes, leur mode de dissémination dans les organes, et certains de leurs effets à court et moyen terme ont été prouvés. Les effets à long terme sont évidemment plus longs à mettre en évidence mais certains d’entre eux ne font plus guère de doute, notamment les cancers du poumons.

Le site de Gennevilliers a collecté les résultats de mesures de plusieurs campagnes et a permis d’établir une base de données évolutive. Bien sûr l’analyse des particules atmosphériques est une de leur activité principale. Les nanoparticules sont particulièrement difficiles à caractériser car ce n’est pas leur masse qui compte, mais leur nombre et leur nature.

La data base de Gennevilliers nous indique pour les nanoparticules des taux atmosphériques variant entre 10 000 et 60 000 particules par cm3 avec une moyenne de 30 000 p/cm3. Ces données sont une image de la situation sur cinq années, à des moments différents bien entendu.

La valeur de 30 000 p/cm3 peut donc être regardée comme représentative de l’environnement d’une grande ville.

Un individu moyen utilise pour sa respiration environ 15 000 m3 d’air par an. Il inhale donc une quantité considérable de « saletés », dont un grand nombre de nanoparticules, environ 4,5 x 10 E14, soit 450 000 000 000 000 nanoparticules chaque année.

( Quatre cent cinquante mille Milliards )

. Ce nombre est un défi à l’imagination, et échappe à toute représentation compréhensible. Il est, au sens propre du terme, incroyable.

De par leur taille ces particules peuvent atteindre les alvéoles pulmonaires et s’y déposer. Heureusement l’appareil respiratoire comporte un système de filtrage très efficace, qui s’est adapté au cours de l’évolution pour une bonne élimination des particules naturellement présentes dans l’atmosphère. Mais les nanoparticules artificielles sont si ténues que notre filtrage bronchique n’est plus assez efficace et en laisse passer une partie qui se logent dans les alvéoles. Et là le système ultime de défense intervient pour évacuer les intrus, ce sont les macrophages, cellules présentes dans chaque alvéole pulmonaire pour constituer une sorte de garde rapprochée qui se sacrifie pour défendre la fine membrane qui sépare le monde extérieur de l’intérieur des vaisseaux capillaires assurant les échanges gazeux avec l’atmosphère. Chaque macrophage est une espèce de poubelle ambulante ( il se déplace sur des pseudopodes) qui saisit les détritus ( microbes, bactéries, virus, germes divers, nanoparticules ) et les détruit avant d’expulser les restes. Dans les poumons ils sont présents en embuscade aux endroits stratégiques : dans les alvéoles, dans la zone interstitielle, dans la zone intra vasculaire, prêts à intervenir. Chaque macrophage est capable de détruire un certain nombre d’agresseurs avant de succomber lui-même et d’être évacué par d’autres macrophages. Leur durée de vie est d’environ 50 jours dans les poumons. Ils sont présents également dans tout le corps.

Ce système de défense est efficace à trois conditions: La première condition est que le mécanisme immunitaire chargé de la gestion entre autres de l’activation des macrophages soit en bon état, la seconde est que le flux des éléments parasites entrants ne dépasse pas un certain seuil, et la troisième suppose que les particules parasites ne soient pas porteuses d’une signature pouvant être confondue avec celle d’un élément admis à traverser la membrane.

Les enfants sont comme toujours les plus fragiles.

Sachant que 450 000 Milliards de nanoparticules de toutes natures vont être inhalées par un individu au cours d’une année dans une grande ville, on imagine aisément qu’un grand nombre d’entre elles vont passer la barrière de protection physiologique.

Dans le communiqué de Presse du Mercredi 28 Juillet 2010, émanant du Secrétariat d’Etat chargé de l’Ecologie, on peut lire ceci:

« Les dépassements de particules seraient, selon les travaux de l’OMS, la cause de 400 000 morts prématurées par an en Europe, dont environ 42000 en France. »

Il n’est donc plus nécessaire de demander à Tonton pourquoi il tousse, nous savons désormais pourquoi.

La saga continue, l’histoire se répète: Nos anciens ont connu la Silicose (qui sévit encore), certains d’entre nous souffrent de l’Asbestose, vous autres avez reçu en cadeau les nanoparticules avec lesquelles il vous faudra composer.

A chaque génération son paquet cadeau. Tout progrès technique serait donc accompagné d’une malédiction.

On connaît, certains ont payé le prix fort pour cela, les dégâts causés par l’introduction de corps étrangers dans l’appareil respiratoire. La Silicose et l’Asbestose sont encore présentes à nos mémoires. On connaît moins les ravages causés par le Radon qui, selon l’OMS, est la deuxième cause de mortalité par cancer du poumon, la première cause restant le tabagisme.

Les effets à long terme de l’inhalation des nanoparticules ne sont pas prouvés, leur généralisation étant encore trop récente, mais des études de toxicologie ont montré leur influence certaine dans différents processus physiologiques.

Tout est dit, ou presque, dans l’ouvrage suivant: « les nanoparticules, un enjeu majeur pour la santé au travail ? » ISBN : 978-2-86883-995-4

Pour le moment la seule parade connue contre les nanoparticules est la fuite vers des sites naturels encore épargnés, à condition toutefois de ne pas s’y rendre en 4 x4, de jeter son paquet de cigarettes, et d’éviter certaines zones où le taux de Radon naturel est dissuasif…

Repost 0
25 janvier 2014 6 25 /01 /janvier /2014 11:37

25 Janvier 2014

Le Woodrow Wilson Institute a mené à bien le projet portant sur l’inventaire des produits de consommation contenant des nanoparticules.1 628 produits ont ainsi été identifiés sur le marché mondial, dont 440 sur le marché européen.

On connaît depuis plusieurs décennies les dangers liés à la dissémination de ces particules, dont il est largement prouvé qu’elles pénètrent dans l’organisme par les voies aérienne, digestive ou intradermique. On sait leur grande réactivité chimique liée à leur très faibles dimensions et leur très grande surface de réaction.

(Nous rappelons quelques-unes de ces caractéristiques sur ce blog dans la catégorie « Nanoparticules »).

Malgré les innombrables études ayant démontré les processus de pénétration de ces corps dans l’organisme et leur dissémination dans les organes les plus divers y compris le cerveau, aucune alarme n’a jamais été officiellement lancée sur leur éventuelle toxicité. Une telle indifférence des pouvoirs publics vis-à-vis d’un problème qui ressemble de plus en plus à celui de l’Amiante commençait à devenir sérieusement suspecte. Il a donc fallu faire quelque chose, montrer au moins que les innombrables comités et instituts Théodule officiellement en charge de notre santé se penchent sur le problème.

La France a récemment mis en place un système de déclaration nationale des nanoparticules fabriquées, importées, et/ou distribuées sur le territoire. La première année de déclaration a été 2012 (documents remis avant le 30 Juin 2013).

Pour 2012, 3 400 déclarations ont été émises, émanant de 930 industriels. Ce type de document/enquête est censé servir dans un premier temps à faire un état des lieux (enfin !) pour ensuite établir un système de traçabilité pour, plus tard ( quand ?) effectuer des études de toxicologie. Peut-être alors sera-t-il procédé à l’émission de recommandations dans un but de santé publique.

Mais il sera probablement trop tard pour les malheureux ( vous, moi, les enfants surtout) qui auront inhalé à plein poumons ces ignobles produits.

Car dès aujourd’hui les nanoparticules sont très largement utilisées dans les produits de consommation comme les cosmétiques, les vêtements, les soins de la peau, les crèmes solaires et bien d’autres dont nos automobiles équipées de filtres à particules qui n’arrêtent que les particules inoffensives ! A vrai dire il serait plus facile de dresser la liste des produits qui n’en contiennent pas ou qui n’en émettent pas.

En 2012, en France, plus de 500 000 tonnes de substances à l’état nanoparticulaire ont été mises sur le marché:

282 014 tonnes produites en France.

222 090 tonnes importées.

( Chiffres extrait du rapport ANSES de Novembre 2013).

On notera l’énormité de la quantité, qui donne le vertige, s’agissant de produits dont on ignore à peu près tout de leur pouvoir de nuisance ! En fait, on feint de l’ignorer, car il faudrait être faible d’esprit pour ne pas réaliser le potentiel hautement toxique de particules de dimensions moléculaires inhalées en nombre incommensurable par les poumons de nos concitoyens, et constituées d’à peu près n’importe quel élément du tableau de Mendeleev.

On invoque souvent, a propos de projets contestés, le principe de précaution censé prévenir les catastrophes en suspendant l’exécution d’un programme dont l’innocuité n’aurait pas été démontrée.

Si ce principe était autre chose qu’une farce opportuniste, l’introduction des nanoparticules dans les produits de consommation aurait dû faire l’objet d’un moratoire.

Or il n’en a rien été comme chacun peut le constater. Tout au plus, éventuellement en 2015, les autorités exigerons que la mention « Nano » accompagne le nom de l’additif porté sur l’étiquette des produits alimentaires. Si toutefois les lobbies du même nom ne s’y opposent pas…

Cet exemple du mépris des autorités responsables de la santé publique, n’est hélas pas unique. Nous voilà donc prévenus, ce n’est pas le principe de précaution qui contribuera au retrait du Nucléaire, et pour les Gaz de schiste il vaudra mieux trouver d’autres arguments pour tenter d’empêcher leur exploitation…

Repost 0
20 janvier 2014 1 20 /01 /janvier /2014 19:26

20 Janvier 2014

Les normes Européennes deviennent de plus en plus sévères en matière de rejets polluants des moteurs thermiques.

Les éditions Euro 6, versions a, b, c, et leurs suites inévitables s’attaquent aux particules fines, indépendamment du CO2 qui, il a au moins cette qualité, n’est pas nocif pour la santé sauf à très fortes doses. On ne peut bien sûr que se féliciter de cette croisade, encore faut-il examiner de près l’efficacité de ces nouvelles exigences.

Jusqu’à présent les normes fixaient une limite d’émission de particules en terme de masse par kilomètre parcouru durant l’essai NEDC. Pour suivre l’évolution de la technique des motoristes, ce sont d’abord les PM10 (particules supérieures à 10 microns) qui ont été visées, puis les PM2,5 Inférieures à 2,5 microns) , exigence qui a imposé l’usage du FAP ( Filtre A Particules) sur les Diesels. Ceci a permis de supprimer les fumées noires formées par les particules les plus grosses, mais n’a pas éliminé les particules ultrafines (nanoparticules) qui sont les plus nocives pour la santé.

Les moteurs Diesel furent donc les premiers visés, mais les nouveaux moteurs à essence à injection directe émettent également des particules et sont soumis désormais aux mêmes contraintes de dépollution que les diésel.

Les nouvelles normes applicables à partir de 2015 et 2017 s’attaquent aux nanoparticules ( Inférieures à 100 nanomètres) non pas en limitant leur masse (très faible) mais en limitant leur nombre. Désormais la limite sera de 6 x 10 E11 particules par kilomètre parcouru selon la norme NEDC, à partir de 2017.

6 x 10 E11 = 600 000 000 000 = 600 Milliards tout de même !

La même limite est imposée aux moteurs Diesel et Essence, ce qui met provisoirement fin à la querelle médiatique.

Les nouveaux modèles à essence seront maintenant équipés de filtres à particules comme leurs confrères.

Certes on pourra toujours ergoter sur la nature et la nocivité comparée des poisons émis par l’essence ou le diesel, mais il faudra laisser la conclusion aux seuls spécialistes.

Compter les nanoparticules qui sortent de nos bolides devient désormais un travail à plein temps qui va donner du fil à retordre aux centres de contrôle technique. Vous imaginez aisément qu’il n’est pas simple de mesurer un tel paramètre; il est plus facile de compter des moutons que des « objets » invisibles à l’œil nu. Le matériel de mesure nécessaire est hors de prix et doit être manipulé par du personnel hautement qualifié.

Il est vraisemblable que de telles mesures ne seront faites qu’au cours des procédures d’homologation d’un nouveau modèle, les contrôles techniques périodiques se contentant d’appliquer une procédure sommaire. Pour la vérification actuelle de la conformité aux normes anti-pollution on pourra se reporter à l’article du 12 Octobre 2012: « Contrôle technique et pollution Diesel ». On y verra les méthodes très approximatives mises en service pour le contrôle technique des véhicules.

L’important pour la population est de connaître la nocivité des nanopolluants répandus dans l’atmosphère.

Pour brûler 1 g de carburant il faut environ 15 g d’air sec. Un véhicule dont le moteur consomme 7 L aux 100 km, soit 50 g par km, utilisera donc 750 g d’air, qui se retrouveront à la sortie avec une composition et une température différentes, l’oxygène ayant été utilisé pour la combustion.

A chaque kilomètre le moteur respectant la norme Euro 6c rejette donc en moyenne l’équivalent de 0,5 m3 d’air susceptible de contenir 600 Milliards de nanoparticules, soit environ 1 200 000 par centimètre cube.

Les nanoparticules sont présentes à l’état naturel en provenance de diverses sources comme le volcanisme ou la végétation ( pollens). Les activités humaines en ajoutent des quantités considérables appelées à croître avec le développement des nanotechnologies. Selon l’Ineris on mesure actuellement des concentrations en nombre de nanoparticules de 1 500 par cm3 en zone naturelle, et jusqu’à 80 000 par cm3 en zone exposée urbaine.

Selon la norme Euro 6c, les gaz d’échappement peuvent rejeter à chaque kilomètre 1 200 000 nanoparticules par cm3 , soit 15 fois plus que le taux déjà existant dans les zones les plus exposées. Et il faut savoir que cette valeur n’est respectée que lors de l’homologation d’un nouveau modèle et selon le cycle NEDC qui n’est pas représentatif de l’usage réel d’un véhicule, surtout en circulation urbaine.

Peut-on réellement parler d’élimination des nanoparticules dans de telles conditions ?

On ne voit pas très bien comment améliorer significativement les choses sans recourir à des procédés très lourds et onéreux incompatibles avec un usage grand public. Ces procédés seront réservés aux poids lourds. Pour les véhicules légers il apparaît que la seule méthode radicale permettant de régler le problème des nanoparticules émises par les moteurs thermiques, c’est le recours au moteur électrique, au moins en circulation urbaine.

Ceci apporte de l’eau au moulin du véhicule hybride à prolongateur d’autonomie, qui conviendra aux usages ville et route, sans écarter la solution tout électrique plus économique et convenant à une catégorie d’utilisateurs.

Mais un tel basculement ne pourrait avoir lieu qu’au rythme du renouvellement naturel du parc automobile et à condition de traiter les autres sources d’émissions polluantes provenant de l’industrie, des systèmes de chauffage, et des nombreux produits contenant par nature des nanoparticules.

Les nanoparticules étant invisibles, leur nocivité n’est pas aisément démontrable aux yeux des populations. L’expérience publicitaire du mouchoir blanc présenté à la sortie de l’échappement et qui reste blanc grâce au filtre à particules, en dit long sur la facilité avec laquelle le public peut être berné.

L’adhésion du public aux mesures de protection onéreuses et contraignantes sera donc difficile à obtenir, d’autant plus que d’autres sources peuvent être à l’origine de problèmes de santé publique similaires sans être pour autant soumises aux même contraintes.

Voilà donc une affaire dont nous n’avons pas fini d’entendre parler…

Repost 0
18 janvier 2014 6 18 /01 /janvier /2014 17:38

18 Janvier 2014

L’obscure clarté dans laquelle jusqu’à présent a baigné la stratégie de transition énergétique n’a pas permis de distinguer des objectifs précis susceptibles d’orienter un tant soit peu les choix techniques des industriels et surtout des PME.

Seules les grandes compagnies, dont le « terrain de jeux » dépasse largement les frontières de l’Hexagone, sont capables d’une stratégie planétaire autonome et même parfois à l’opposé des choix nationaux. C’est ainsi que l’on peut voir TOTAL investir à l’étranger dans les gaz de schiste alors que le Gouvernement français réitère son opposition à leur exploitation sur le sol national ( en tout cas jusqu’à aujourd’hui…), et le couple EDF et AREVA innover avec ardeur dans le secteur nucléaire sur le territoire malgré l’engagement de retrait progressif de la puissance publique ( Il est vrai que le terme « retrait » n’a jamais été formellement utilisé).

Les « petits » industriels, qui n’ont pas encore le poids financier suffisant pour jouer dans la cour des grands, ne peuvent qu’attendre l’arme au pied de problématiques décisions de l’Etat sur les axes qu’il a l’intention de soutenir par une politique d’incitation, voire de subvention, et en espérant un minimum de continuité dans la stratégie du Château.

Il s’ensuit que le développement des énergies durables doit davantage aux politiques de rachat de l’énergie produite qu’à une réelle stratégie de long terme. Une affaire d’aubaines plus qu’un choix d’avenir raisonné, pas de quoi construire une industrie porteuse d’emplois pérennes.

Côté pratique la transition énergétique est généralement vue comme une affaire d’éoliennes, de panneaux solaires, d’usines de méthanisation des déchets, de centrales à bois énergie, de géothermie, d’hydroélectricité et de biocarburants, ou de poêle flamme verte.

Toute cette quincaillerie est l’arbre qui cache la forêt. La réalité est différente.

Les outils pour extraire de l’énergie des sources renouvelables et décarbonées ou à Carbone recyclable existent déjà et leur technologie ne pose plus problème, la « quincaillerie » est disponible. Pour quelques millions d’euros il est possible d’acquérir des éoliennes de puissances variées jusqu’à 6 MW, d’installer un parc photovoltaïque, de construire une centrale hélio thermodynamique, une unité de méthanisation, une installation de chauffage collectif à bois ou une pompe à chaleur, une unité de production de biocarburant, voire même une petite centrale hydroélectrique ou un simple poêle à bois performant. Tout cela figure dans les catalogues de différents constructeurs.

Alors, pourquoi n’assistons-nous pas à un boom des énergies nouvelles ?

Un examen impartial de la situation permet de mettre en évidence deux problèmes importants encore non résolus à ce jour, il s’agit de la réduction drastique des émissions de CO2, et du stockage de masse de l’électricité.

Faute de solutions satisfaisantes à ces deux problèmes la transition énergétique n’atteindra pas les buts recherchés et restera une affaire de « bricolage » local, voire même un business de chasseurs de prime.

En effet, de quelle utilité serait le développement massif des énergies nouvelles si le taux de CO2 atmosphérique continuait d’augmenter au rythme actuel, et si l’électricité produite par nos belles machines devait être coupée faute de pouvoir être stockée pour compenser l’intermittence ?

Malgré les mises en garde du GIEC suivies des accords internationaux sur les réductions des émissions de GES, il est désormais évident que les sources fossiles d’énergie seront utilisées jusqu’à leur complet épuisement.

Selon les experts du GIEC, si les émissions de CO2 ne sont pas maîtrisées, le réchauffement de la troposphère pourrait atteindre 4 à 6 °C à la fin de ce siècle, avec les conséquences catastrophiques que l’on peut imaginer.

Les instances internationales n’ont pas le pouvoir d’imposer au monde une diète énergétique sur les fossiles, la seule voie de salut reste donc l’élimination du CO2 émis ou son enfouissement pour une durée de plusieurs siècles au moins.

De nombreux programmes d’études ont été lancés pour valider diverses solutions et construire des démonstrateurs autour de la solution privilégiée, l’enfouissement du CO2 après captation à la source.

Les sites d’enfouissement envisagés sont les aquifères salins, les gisements de gaz naturel ou de pétrole épuisés, ou certaines mines de Charbon ( Les mines déjà exploitées ne conviennent pas à cause des nombreuses fuites).

On retrouve les mêmes inconvénients que pour l’exploitation des gaz de schiste, avec en plus deux ou trois petites choses qui aggravent la situation:

- Le coût de la séparation du CO2 des gaz de combustion est important, en proportion de la pureté nécessaire notamment l’élimination des métaux lourds qui pourraient polluer les sols et les nappes aquifères.

- Les fuites sont rédhibitoires, sous peine d’annuler à long terme l’effet de l’enfouissement.

- Les fuites accidentelles massives sont létales par asphyxie pour les populations environnantes.

- Le transport du CO2 vers les sites d’enfouissement ( Gazoduc, ou transport par bateau ) représente un coût important supplémentaire.

- Le procédé n’est applicable qu’aux installations fixes importantes. Les secteurs des transports et des applications domestiques ne pourront en bénéficier.

- Le captage, les traitements, le transport, l’enfouissement, sont eux-mêmes gros consommateurs d’énergie.

- les sites d’enfouissement doivent faire l’objet d’une gestion et d’une surveillance sur plusieurs centaines d’années, ce qui représente des problèmes géologiques, juridiques, et de coût élevé, non encore résolus.

- L’enfouissement sous pression dans des gisements d’hydrocarbures épuisés fera ressurgir du pétrole commercialisable qui permettra de financer le surcoût mais sera générateur à son tour de CO2 supplémentaire, annulant ainsi en partie le bénéfice écologique de l’opération.

L’opération CSC ( Capture et Séquestration du Carbone) est donc loin d’être validée et encore plus loin d’être opérationnelle, sûre et financièrement supportable, sans parler des problèmes d’acceptabilité par les populations.

Peu d’espoir donc de voir avant longtemps des pompes à CO2 agir significativement sur le taux atmosphérique.

Le second problème non résolu de la transition énergétique est l’absence d’une technologie permettant le stockage de masse de l’électricité pour compenser l’intermittence de la production solaire et éolienne.

Ce problème est aujourd’hui masqué par le recours aux centrales thermiques en relève de la production éolienne ou solaire, qui sont encore très minoritaires.

Il existe certes sur le papier des solutions de rechange comme les installations de pompage-turbinage ou la filière Hydrogène, mais le passage à la réalité est plus que problématique.

Or, dans un avenir sans Charbon et sans Hydrocarbures la relève sera impossible si l’électricité ne peut être stockée. A moins de recourir au nucléaire…

On ne peut que constater ces problèmes de fond, dont la prise de conscience permet de comprendre, tout en le déplorant, que les énergies fossiles ont encore de beaux jours devant elles.

Alors, la transition énergétique, rendez-vous en 2050 ?

Repost 0
13 janvier 2014 1 13 /01 /janvier /2014 18:52

13 Janvier 2014

Les société dites « occidentales » se sont édifiées sur le concept de progrès technique lui-même fondé sur le développement des sciences. Le mode de vie résultant est, à tort ou à raison, devenu un modèle pour les peuples laissés pour compte qui ambitionnent d’y accéder et frappent à la porte de la société de consommation.

Cette revendication se heurte à un obstacle majeur potentiellement générateur de conflits destructeurs. Le progrès technologique tant convoité exploite et épuise les ressources minières et énergétiques de la planète. Les experts s’accordent à considérer que ces ressources sont déjà exploitées au-delà du raisonnable, et que les réserves ne permettent pas d’étendre le bénéfice du progrès technique actuel à l’ensemble des peuples, et qu’elles sont même en voie d’épuisement au rythme actuel du pillage, avant même d’envisager de les partager.

L’Humanité est donc confrontée à l’exigence d’un transfert de technologie pour lequel les connaissances et les outils existent, mais les ressources minières et énergétiques sont absentes.

Pour la première fois de son histoire l’Homme occidental doit assumer les conséquences de ses actes vis-à-vis des autres peuples, apprendre à partager des ressources qui ne sont pas inépuisables, et se préparer à développer un nouveau mode de vie qui ne soit pas fondé sur le pillage des richesses de la planète et la destruction de son environnement.

C’est la survie de la civilisation technologique qui est en jeu.

( Certes l’Humanité survivra, mais dans un état que l’on préfère ne pas avoir à imaginer).

La prise de conscience de cette situation inédite n’est pas spontanée chez les peuples nantis. La société de consommation qui submerge l’individu de produits et de services gros consommateurs d’énergie et de matières ne prépare pas les esprits à se remettre en question et encore moins à se serrer la ceinture.

Deux évènements planétaires sont en passe de bousculer cette inertie et de créer les conditions d’un changement de modes de vie. Le premier est le changement climatique dû à l’effet de serre amplifié par les activités humaines, le second est la relative imminence de l’épuisement des sources fossiles d’énergie.

La révélation, ou la prise de conscience, de ces deux menaces a suscité de grands espoirs de voir enfin s’amender les comportements excessifs des pays développés. Si l’idée de la nécessité d’un changement radical de nos modes de vie est effectivement partagée par une majorité, la mise en pratique des réformes indispensables se heurte à de nombreux obstacles dont le moindre n’est pas le montant colossal des investissements nécessaires.

La tentation est donc grande d’attendre pour entreprendre cette révolution que surviennent des circonstances extrêmes ne laissant aucun doute sur la matérialité des menaces climatique et énergétique. Et il faut bien reconnaître qu’aujourd’hui les échéances des catastrophes annoncées sont très incertaines, comme nous tentons de le montrer ci-après.

Durant la dernière décennie la température moyenne de la troposphère s’est refusée à manifester une quelconque tendance au réchauffement. Pire, une petite tendance à la baisse a pu même être constatée. Bien sûr il n’est pas « fair play » de juger d’une évolution de ce paramètre sur une période aussi courte, et les relevés des temps passés montrent bien de semblables fluctuations assimilables à du bruit de fond tel qu’on peut s’attendre à le constater sur un servomécanisme constitué par le système Terre-Atmosphère-Soleil- Zoosphère.

Après tout, des fluctuations de +/- 0,3 K sur une moyenne de 288 K, cela représente à peine un pour mille, ce qui satisferait pleinement un ingénieur responsable d’un tel système, pour autant qu’un tel personnage puisse intervenir en l’occurrence !

(En fait, un certain Lovelock n’est pas loin de ce concept puisqu’il postule l’existence d’une entité vivante dénommée GAIA, qui ne serait autre que notre mère la Terre, mais ne nous égarons pas…).

Cette apparente stabilité de la température est susceptible de jeter le trouble dans certains esprits simples. Et ceci malgré la ruse qui consiste à rapporter les variations de température observées non pas à la valeur réelle moyenne de 288 K, mais à la valeur de 15 °C, ce qui ramène les fluctuations de +/- trois pour mille à +/- 2 pour cent, chiffre mieux à même d’alerter les foules peu préoccupées de savoir si l’on doit se référer au zéro thermodynamique ou à la température de la glace fondante, pourquoi pas à celle de l’anisette de cinq heures !

Un certain Boltzmann doit se retourner dans sa tombe…

D’autant plus que la cohorte des sceptiques du NIPCC ne se prive pas de brandir des évaluations contradictoires fondées sur une utilisation plus nuancée de la relation de Myhre, assortie d’une prise en compte différente des rétroactions, qui conduit à un tableau beaucoup moins alarmiste des augmentations de températures prévues.

En bref, il y a un certain mou dans le consensus, ce qui au demeurant n’est pas contradictoire avec le débat démocratique, qui doit éviter tout dogmatisme.

Il n’est pas de notre compétence d’arbitrer ce débat politico-scientifique, mais nous devions signaler qu’il existe.

Hélas, ce n’est pas tout.

La deuxième raison invoquée pour justifier une prise de distance vis-à-vis des énergies fossiles est la menace d’une pénurie de pétrole ( le fameux « peak oil »).

Or que voyons-nous ?

La crise financière de 2008 s’est traduite entre autres par une multiplication par trois du prix du baril. ( Certains mauvais esprits avancent même que la crise, provoquée, n’avait pas d’autre but, encore la théorie du complot !). La barre des 100 dollars étant atteinte, il est devenu rentable d’exploiter tout ce qui, de près ou de loin, ressemble à du pétrole ou à du gaz. Le pétrole des grands fonds, les sables bitumineux et les gaz et huiles de schiste sont venus soutenir la production conventionnelle, et l’on retrouve même intérêt à fabriquer du carburant liquide à partir du Charbon dont les réserves sont immenses !

La pénurie est donc reportée à une date ultérieure. Sans parler bien sûr des empêcheurs de tourner en rond qui évoquent la possibilité d’un pétrole abiotique, mais ceci est une autre histoire.

Ce faisant on a pu voir le baril plafonner à $120, puis se mettre doucement à redescendre, le Brent est aujourd’hui à $107. Et le Gaz de schiste se porte bien, merci. Ce n’est pas la Compagnie française TOTAL qui dira le contraire, si l’on en juge d’après ses récents engagements financiers.

La perspective du réchauffement climatique n’est certes pas niée, non plus que l’inéluctabilité de l’épuisement des sources fossiles d’énergie, mais de nombreux décideurs sont naturellement portés à considérer que la catastrophe énergétique annoncée n’est probablement pas pour demain matin, et que l’échéance de l’apocalypse climatique n’est pas davantage imminente.

Le franchissement de la barre des 100 Dollars pour le baril n’a donc pas suffit à calmer les appétits énergétiques, et de plus l’effet pervers de cette hausse sur l’augmentation des réserves exploitables enlève un peu du caractère dramatiquement urgent de la menace de pénurie.

La ruée attendue vers les énergies nouvelles a donc pris le caractère d’une réorientation stratégique sur le long terme plutôt qu’une mobilisation pour un sauve-qui-peut tous azimuts probablement contre-productif. Plutôt qu’imposer au malade une saignée qui aurait toutes chances de conduire à une issue dramatique, en tous cas incertaine, il semble que l’on s’achemine vers un traitement homéopathique assorti d’une hygiène de vie fondée sur la sobriété.

Dans le domaine de l’Energie, comme ailleurs hélas, les décisions sont prises par les grands groupes industriels et financiers, pour qui les péripéties climatiques ne sont que des variables d’ajustement des marchés et les énergies nouvelles des opportunités à analyser pour en évaluer l’éventuelle rentabilité financière.

On a pu ainsi constater que la fonte des glaces polaires, considérée par les écologistes comme dramatiquement démonstrative de la catastrophe climatique, est au contraire saluée par les grandes compagnies comme favorable aux échanges commerciaux raccourcis et à l’exploitation de nouveaux gisements d’hydrocarbures devenus soudain accessibles !

Il se confirme donc de plus en plus que non seulement les ressources d’hydrocarbures seront bien consommées jusqu’à la dernière goutte, mais que le Charbon lui-même n’échappera pas à la curée puisque c’est de lui que nous tirerons les carburants liquides lorsque le pétrole sera asséché.

Il faudra donc nous accommoder du CO2 associé à cette orgie énergétique, en espérant que les augures du GIEC ont forcé sur le pessimisme et que le forçage radiatif du CO2 sera moindre que prévu.

Dans le cas contraire il y aurait lieu de considérer très sérieusement les stratégies de capture et séquestration du Carbone.

Mais qui s’en soucie réellement ?

Repost 0
2 janvier 2014 4 02 /01 /janvier /2014 15:35

2 Janvier 2014

Les vœux du Président sont assortis des promesse habituelles, dont celle de lancer la transition énergétique. Promesse saisie au vol par les écologistes qui ne manqueront pas de suivre attentivement ces opérations de lancement attendues depuis si longtemps.

Entre la lutte contre le CO2, la préparation à la pénurie d’énergies fossiles, la chasse aux pollutions, la recherche de la sobriété énergétique, l’indépendance vis-à-vis des sources extérieures, l’interdiction des gaz de Schiste, le rejet du Charbon et le statut improbable du Nucléaire, il est devenu difficile de discerner les priorités et l’on comprend la perplexité d’un Gouvernement qui se trouve dans la situation d’une poule qui a trouvé un couteau, et qui de surcroît manque du premier euro pour investir dans des projets certes grandioses, mais dont les retombées ne se feront sentir que dans quelques décennies.

Et l’Homme Politique n’aime pas planter des arbres dont les fruits seront récoltés par d’autres.

A la décharge du dit Gouvernement il faut préciser que les consommateurs, qui exigent d’un côté une mutation vers les énergies renouvelables, refusent énergiquement par ailleurs de les payer plus cher pour financer les investissements indispensables.

La tentation sera donc grande de disperser de maigres efforts d’investissement sur des projets multiples d’intérêt local et de communiquer sur ce qui pourrait passer pour une transition énergétique et ne serait qu’une vaste campagne de communication cachant une politique de fond conservatrice demeurant fondée sur les fossiles et le nucléaire.

Il faudra donc trier le bon grain de l’ivraie et tâcher de ne pas prendre des vessies pour des lanternes.

Voici un exemple des ruses à éventer:

La mise en service d’un nouveau parc éolien, aussi modeste soit-il, est fréquemment saluée par des éloges dithyrambiques associant la puissance de l’installation au nombre de foyers susceptibles d’être alimentés en électricité, et les chiffres ne manquent pas d’impressionner le lecteur peu attentif qui peut en conclure hâtivement que notre problème énergétique sera facilement résolu par le recours généralisé à cette technologie si efficace.

Choisir le nombre de foyers alimentés comme paramètre d’efficacité de l’installation nécessite pour le moins de préciser la consommation moyenne des foyers considérés pour le petit calcul.

Le Centre d’Etudes et de Recherches Economiques sur l’Energie (CEREN) indique que la consommation moyenne des foyers français est de 2 700 KWh par an hors chauffage, eau chaude sanitaire, et autres usages pouvant recourir à d’autres énergies.

Pas question de voiture électrique, ni même de pompe à chaleur, qui pourtant sont considérés comme essentiels dans la future stratégie de transition!

Cherchez l’erreur…

Etendue aux 30 millions de foyers/ménages cette consommation de 2 700 KWh correspond à une dépense globale de 80 TWh, soit moins de 17% de la consommation nationale d’électricité. Cette image rassurante donne une idée fausse de la situation réelle de nos besoins énergétiques.

Les individus ont une vie en dehors de leur logement. Ils ont une activité professionnelle, des loisirs, utilisent des équipements collectifs, se déplacent en train, en tramways, en métro, qui consomment de l’électricité.

La France consomme ainsi chaque année 480 TWh électriques, dont plus de la moitié est directement à notre service, le reste l’étant plus ou moins indirectement, comme par exemple l’électricité consommée pour fabriquer les aciers et alimenter les usines qui fabriquent nos automobiles.

L’énergie électrique moyenne rapportée à un foyer est donc plus proche de 16 000 KWh que des 2 700 alloués chichement pour le seul domicile.

Mais ce n’est pas tout ! En effet, l’électricité ne couvre aujourd’hui que le tiers de nos besoins d’énergie finale, le reste est couvert par la combustion des sources fossiles (et en partie par le bois énergie et un peu de méthanisation). Et l’on sait que les sources fossiles devront être progressivement remplacées par des renouvelables, qui fournissent en majorité de l’électricité.

Même compte tenu des économies programmées, la moyenne de consommation rapportée à un foyer dépassera alors 30 000 KWh par an. La norme actuelle de 2 700 KWh par foyer n’est donc pas représentative et présente le risque de conduire à une mauvaise appréciation du problème de la transition énergétique en laissant croire que quelques éoliennes et quelques parcs photovoltaïques suffiront à résoudre le problème.

Le réveil sera d’autant plus difficile…

Repost 0
11 décembre 2013 3 11 /12 /décembre /2013 19:26

~L’énergie électrique, une denrée difficilement maîtrisable.

11 Décembre 2013

Voici le relevé de notre consommation d’électricité de la dernière décennie:

2000 441 Twh ( Tera Watt-heure = 1 Milliard de kWh)

2005 472 ---

2008 486 ---

2009 479 ---

2010 490 ---

2012 480 ---

( Source RTE)

On peut constater une stabilisation de la demande autour de 480 TWh sans que l’on puisse l’attribuer à des comportements vertueux ou à la crise économique, les deux facteurs ayant probablement contribué aux résultats.

La campagne en faveur de l’isolation des logements, les règlementations thermiques du bâtiment de plus en plus sévères, la généralisation de l’éclairage basse consommation, le recul du chauffage électrique, l’amélioration des performances énergétiques des appareils domestiques, et l’augmentation du coût de l’énergie chargée des contributions et taxes spécifiques, ont permis de maîtriser la course au gaspillage.

Mais l’augmentation du nombre des ménages, la demande accrue de confort, l’accroissement du marché des communications et de l’audiovisuel, et l’essor de la pompe à chaleur contribuent à maintenir une demande forte malgré la crise économique. Et le développement de la climatisation et de la voiture électrique n’iront pas dans le sens d’une réduction de la consommation.

Une éventuelle sortie de crise se traduirait par une croissance de la demande ( par définition !), ce qui rend problématique une stratégie qui serait basée sur une réduction significative de la consommation au cours de la prochaine décennie.

Sauf à considérer le prolongement de la crise comme un élément de la stratégie, hypothèse évidemment écartée !

Notre consommation actuelle d’électricité correspond à une puissance moyenne égale à

55 GW ( Giga Watt = 1 million de KW ). Mais il s’agit d’une moyenne et, comme toutes les moyennes, elle cache de grandes disparités.

ERDF fournit un état en temps réel de la demande électrique. On y constate des écarts considérables journaliers, saisonniers et annuels. L’outil de production doit être capable de répondre à la demande avec un temps de réponse aussi court que possible. Pour cela il faut des installations très réactives et un bureau des prévisions très performants.

La puissance des installations doit être adaptée au pic de la demande, et c’est là que la bât blesse.

Voici le relevé des pics de consommation électrique constaté depuis 2001:

2001 79,6 GW

2002 79,7 ---

2003 83,5 ---

2004 81,4 ---

2005 86 ---

2006 86,3 ---

2007 89 ---

2008 84,4 ---

2009 92,4 ---

2010 96,7 ---

2011 91,8 ---

2012 102 ---

Les chiffres parlent d’eux-mêmes.

Lissée des variations saisonnières, l’augmentation est de 16% sur la période considérée alors que la moyenne de consommation reste stable.

C’est bien de maîtriser la consommation annuelle globale, mais tolérer des pics de demande de presque le double de la moyenne, cela oblige à mobiliser des moyens de production surpuissants générateurs d’un surcoût important pas toujours compensé par l’exportation de la capacité excédentaire en période de faible demande intérieure.

Si ces variations erratiques de la demande pouvaient être éliminées, la puissance nécessaire serait de 55 GW seulement et non pas 95 GW voire davantage comme en 2012. Ce qui permettrait d’économiser des moyens de production, notamment quelques réacteurs nucléaires et quelques centrales thermiques.

On est donc contraints de maintenir un outil de production pléthorique pour être à même de répondre aux pics de consommation.

D’autre part, compter sur nos voisins pour nous vendre l’électricité qui nous ferait défaut pour passer les pics serait une stratégie douteuse car en Europe tout le monde aura le même problème.

L’arrivée des sources renouvelables d’énergie électrique aggrave le problème à cause des fluctuations de leur production en fonction des conditions météo et de l’alternance jour-nuit, fluctuations évidemment non synchronisées avec la demande !

Pour toutes ces raisons la stratégie de transition énergétique restera en panne tant que ne seront pas mis en œuvre deux démarches fondamentales:

La première concerne le contrôle interactif de la consommation électrique grâce au réseau intelligent (Smart Grid) seul à même de gérer la demande pour l’adapter à l’offre fluctuante. La seconde concerne le stockage de masse de l’électricité.

La première démarche est déjà entreprise par ERDF qui implante le premier maillon, le compteur Linky. La pose des 35 millions de compteurs interactifs est programmée pour être achevée à l’horizon 2020.

La seconde démarche ne sera entreprise que lorsque des solutions industrielles seront disponibles et les besoins mieux définis.

Il est important de remarquer que le déploiement des énergies nouvelles ne sera possible sur une large échelle que lorsque les deux démarches ci-dessus seront accomplies.

D’ici là leur contribution ne peut être que marginale.

Repost 0
7 décembre 2013 6 07 /12 /décembre /2013 19:01

~Les soubresauts du climat.

7 Décembre 2013

De mémoire d’homme civilisé le climat de la Terre est demeuré à peu près stable, avec une température moyenne de la basse Atmosphère remarquablement constante autour

de 15°C.

Certes des petites variations ont pu être observées dans un passé historique. On parle ainsi d’optimum médiéval et de petit âge glaciaire, correspondants à des écarts de température moyenne de l’ordre du degré Celsius.

L’habitude aidant, l’Homme a considéré cette situation comme acquise et la société planétaire s’est adaptée à cet environnement au point de développer une grande vulnérabilité à tout éventuel changement brutal du climat.

Plus un système devient complexe et plus il est vulnérable aux perturbations extérieures. Les experts du GIEC considèrent qu’au-delà de 2 °C de réchauffement la situation serait difficilement gérable, au point de générer des catastrophes économiques accompagnées de grands mouvement de populations et donc des conflits territoriaux. Un refroidissement serait tout autant néfaste, avec des problèmes différents mais aux conséquences aussi dévastatrices.

Les variations observées actuellement sont attribuées pour l’essentiel aux activités humaines. Leur contrôle permet donc d’espérer maintenir des conditions climatiques gérables.

Mais c’est sans compter avec les variations naturelles.

La paléoclimatologie nous enseigne que la stabilité actuelle du climat est provisoire car elle correspond à la fin d’un palier post-glaciaire qui appartient à un cycle d’alternances climatiques extrêmes dont la période est de 120 000 ans environ. Certes la prochaine période glaciaire n’est pas prévue pour demain matin. Les experts ne la prévoient pas avant deux ou trois mille ans, ce qui nous laisse un certain délai pour prendre des mesures, mais enfin il faudra y penser un jour.

La période qui nous intéresse aujourd’hui se situe à la charnière entre la fin de la dernière glaciation et le début de la période post-glaciaire actuelle. Elle s’étend sur un millier d’années, entre -11 700 et - 12 700 BP environ, et porte le nom de « Dryas récent ».

Les climatologues s’y intéressent de très près elle car se caractérise par un soubresaut violent et brusque de la température d’une amplitude de 10 °C . Ces variations, relevées dans les carottes glaciaires du Groenland, ont été confirmées dans le reste du monde et ne furent donc pas seulement locales.

Ces relevés soulèvent deux problèmes principaux:

La chute de la température et sa remontée mille ans plus tard ont été très brusques, certains avancent même qu’elles ont pu se produire en quelques décades seulement.

Le second problème est que les scientifiques n’ont trouvé aucune explication satisfaisante du phénomène, ou plus exactement les explications proposées sont nombreuses mais aucune n’est satisfaisante.

Nous n’entrerons pas dans cette controverse qui nous dépasse quelque peu, mais nous voulons souligner que l’existence de tels phénomènes aléatoires dans le passé récent attestent de la vulnérabilité du climat, et surtout de la possibilité de variation brutales de grande ampleur.

Nos lointains cousins du Paléolithique supérieur ont eu à souffrir des rigueurs du Dryas récent, qui a fortement perturbé les tentatives de sédentarisation des chasseurs-cueilleurs. Il leur faudra attendre - 10 000 pour retrouver des conditions propices à l’épanouissement de la civilisation.

Parmi les hypothèses avancées pour expliquer cet épisode de re-glaciation du Dryas, on trouve des versions « classiques » évoquant un arrêt de la circulation thermo haline, ou un épisode d’activité volcanique intense, et des versions moins conventionnelles comme la chute d’un astéroïde.

Cette dernière proposition, irrecevable au siècle dernier, acquiert de plus en plus de crédibilité au fur et à mesure des découvertes de cratères récents à la surface de la Terre.

L’observation et l’étude des trajectoires des astéroïdes géo-croiseurs est maintenant une science à part entière qui mobilise de gros moyens à la fois pour leur identification et pour l’étude des moyens de s’en préserver.

En effet, si notre société moderne aurait les moyens de gérer un réchauffement de l’Atmosphère de quelques degrés, elle ne pourrait rien contre un impact d’astéroïde de quelque importance capable de déclencher un basculement climatique de même nature que celui du Dryas récent.

La Science a permis à notre Humanité de prendre conscience de la fragilité de notre environnement et de la vulnérabilité de notre civilisation. Dans le même temps elle nous charge d’une responsabilité nouvelle vis-à-vis des générations futures.

Dans les temps anciens l’Homme se préoccupait de préserver sa vie, se reproduire, et trouver à manger pour le jour suivant.

L’invention de l’élevage et de l’agriculture l’on contraint à regarder au-delà du jour suivant, les saisons sont devenues son échelle de mesure du temps.

Le progrès et la conquête du confort l’ont amené à planifier sa vie et celle de sa famille, l’échelle de temps est devenue la génération. L’élargissement des connaissances scientifiques a ouvert l’horizon des préoccupations humaines.

Notre espèce se pense dorénavant dans la durée et s’inscrit dans les temps géologiques. Nous ne pouvons plus feindre d’ignorer les périls qui menacent l’Humanité, dès lors que ces périls sont identifiés.

Repost 0
2 décembre 2013 1 02 /12 /décembre /2013 19:24

Gaz de schiste, les affaires reprennent.

2 Décembre 2013

Annoncer une transition énergétique, c’est bien.

Préparer une transition énergétique, c’est une suite logique.

Mais la phase de préparation n’a qu’un temps; ensuite vient le temps des décisions.

Ce temps est venu, et il serait indécent de continuer à amuser la galerie plus longtemps, des choix doivent être clairement annoncés afin que les décideurs, le public, les industriels, les investisseurs, les professionnels de l’énergie, disposent d’éléments consistants et pérennes propres à permettre des initiatives établies sur des bases solides avec des perspectives de long terme.

Quels grands choix stratégiques ?

Quels axes de développement ?

Quel modèle économique ?

Quelles aides ?

Quelle fiscalité ?

Quelles priorités ?

Or aujourd’hui il n’existe aucun consensus sur les choix essentiels qui serviront de socle à la nouvelle stratégie énergétique.

Seule existe une expression diffuse et partielle d’une partie de l’opinion autour de la nécessité de satisfaire les revendications de la nébuleuse écologique:

- Abandon de l’électronucléaire, principe de précaution oblige.

- Abandon des combustibles fossiles, dans le cadre de la lutte contre le changement climatique et dans la perspective d’épuisement des ressources.

- Rejet de l’exploitation des gaz de schiste, à la fois à cause des émissions de CO2 et de Méthane, des atteintes à l’environnement et à la biodiversité, et des risques de pollution des nappes phréatiques, toujours le principe de précaution.

- Rejet des installations éoliennes offshore de production de masse, en raison des atteintes à l’environnement littoral et aux sites remarquables.

Ces revendications correspondent à des préoccupations justifiées, et c’est là qu’est le problème.

Leur seul défaut est de limiter drastiquement le choix des options restantes au point de créer une situation de blocage.

En face de ce corpus revendicatif, et pour éviter de mettre le feu aux poudres, le Gouvernement applique un programme minimum essentiellement basé sur les économies d’énergie, et sur de timides initiatives en direction des énergies nouvelles.

Pour le reste, la France continue de dépenser chaque année 70 Milliards en importations de produits énergétiques et le couple EDF-AREVA poursuit la commercialisation de sa filière nucléaire et le développement des réacteurs de quatrième génération, ce que l’on pourrait considérer comme une stratégie en soi, si la politique du « business as usual » méritait ce nom.

Au milieu de cette « drôle de guerre » dans laquelle chacun campe sur des positions inconfortables voire intenables, une voix tente de se faire entendre, c’est celle de l’Académie des Sciences.

Dans un monde où n’est entendu et pris au sérieux que celui qui possède un grand crédit médiatique consacré par des passages fréquents aux étranges lucarnes, et aux heures de grande écoute, l’Académie des Sciences fait piètre figure.

Pourtant cette docte institution réunit l’essence même de la connaissance scientifique, alliée à une grande indépendance d’esprit, du moins on ose l’espérer.

Le Comité de Prospective en Energie de ce corps d’élite savante a remis au Gouvernement, voici deux semaines, un rapport intitulé:

« Eléments pour éclairer le débat sur les gaz de schiste ».

En fait d’éclairage, ce pétard risque bien de mettre le feu, tant les éléments qu’il contient sont subversifs, du moins pour les tenants du nini.

Les sages, car ils faut bien les nommer ainsi, mettent le doigt sur un certain nombre de situations anormales pour lesquelles aucune solution consensuelle n’est proposée.

D’entrée de jeu l’académie remet les pendules à l’heure puisqu’elle note:

«Les contraintes inévitables de production, de transport et d’exploitation sont souvent négligées, les défis scientifiques à relever et les ruptures technologiques majeures qu’il faudrait réaliser sont, la plupart du temps, sous-estimés ou esquivés ».

Autrement dit, il faudrait perdre l’habitude de balayer les difficultés sous le tapis en considérant comme contingents des problèmes qui sont essentiels.

Prenant acte de cette « légèreté » l’Académie des Sciences se donne mission de:

« Conduire une réflexion sur ce thème ( l’énergie ) en abordant les problèmes d’une façon systématique et raisonnée, résolument différenciée des visions simplistes. »

Certains protagonistes du débat public sauront se reconnaître en matière de visions simplistes…

Ensuite, tout en reconnaissant l’intérêt des économies d’énergie, Elle énonce les raisons qui justifient son intérêt pour une étude sur les gaz de schiste:

«- Assurer la sécurité d’approvisionnement en énergies fossiles qui constituent encore 90% de l’énergie primaire.

- Réduire la dépendance énergétique et la facture correspondante.

- Stimuler la compétitivité de l’économie.

- Permettre l’insertion des énergies renouvelables en réglant le problème de leur intermittence au moyen d’une énergie mobilisable et qui évite l’utilisation du charbon » .

Rien de bien nouveau sinon que cet argumentaire confirme la fracture qui existe entre les exigences écologiques d’une part, et les préoccupations de l’Etat responsable d’autre part.

Il faudra bien un jour que ceux-là se mettent autour d’une table de négociations pour trouver un compromis.

L’Académie propose donc de prendre du recul par rapport aux positions idéologicosécuritaires, et de lancer un programme de travail scientifique sur les problèmes posés par l’exploitation des gaz de schiste, sur les bases suivantes:

- lancer un programme de recherche sur l’exploration et l’exploitation des gaz de schiste impliquant les labos universitaires et ceux des grands organismes.

- Exploiter les connaissances géologiques, géophysiques et géochimiques déjà acquises ou archivées et solliciter les géologues pour une évaluation des réserves.

- Réaliser des études et des expériences pour évaluer et réduire l’impact environnemental d’une éventuelle exploitation.

- Mettre en place une autorité scientifique pluridisciplinaire et indépendante pour le suivi des actions engagées.

- Traiter le problème de gestion des eaux, qui est un aspect majeur de l’exploitation des gaz de schiste.

- Prévoir un suivi environnemental.

- Travailler sur les méthodes qui pourraient remplacer la fracturation hydraulique, mais aussi sur les procédés pouvant améliorer celle-ci.

- Traiter le problème d’étanchéité à long terme des forages d’exploitation.

- Procéder à des tests en vraie grandeur, sans fracturation hydraulique, dans des zones déjà fracturées de vieux bassins charbonniers.

Cette proposition de programme de travail, qui serait conforme aux règles de l’art dans des circonstances normales, prend ici des allures de tentative de coup d’Etat, tant les gaz de schiste sont devenus un sujet tabou.

Mais au-delà du tabou la question demeure:

Peut-on se permettre, dans les circonstances actuelles, d’écarter d’un revers de main une telle possibilité énergétique ?

L’Académie des Sciences pose la question de manière on ne peut plus circonstanciée.

Le rapport complet est en ligne sur

«academie-sciences.fr/activite/rapport/avis151113.pdf »

Il est fort peu probable que cette prise de position change en quoi que ce soit la décision du Gouvernement d’interdire l’exploitation des gaz de schiste en France.

Du moins les enjeux auront-t-ils été rappelés, ce qui n’est jamais inutile en cette période de grande confusion où l’idéologie côtoie la mauvaise foi et où le bon sens a beaucoup de mal à faire entendre sa voix.

Repost 0
29 novembre 2013 5 29 /11 /novembre /2013 16:21

L’atmosphère en tant que revêtement de surface « intelligent ».

29 Novembre 2013

Nous avons évoqué dans un article précédent l’importance de l’Atmosphère dans la régulation de la température de la troposphère.

Du point de vue thermodynamique elle joue le rôle d’un revêtement de surface qui règle l’équilibre entre l’albédo et l’émissivité de la planète de manière à stabiliser la température autour de +15 °C.

L’eau sous ses trois formes et la présence de gaz à effet de serre sont les outils essentiels qui permettent de moduler la quantité d’énergie solaire renvoyée vers l’espace.

La vie se développe dans cet écosystème grâce à la présence d’oxygène; elle y a son rôle dans le processus de recherche d’équilibre, sans que l’on puisse savoir si elle est un phénomène contingent ou essentiel à la régulation, voire même sa raison d’être.

( Non n’avons pas qualité pour dire des choses pertinentes sur ces problèmes métaphysiques).

Comme tout système thermodynamique l’Atmosphère possède une énergie interne.

Cette énergie est formée des composantes thermodynamiques classiques de tout système gazeux:

Une composante principale appelée « Energie cinétique microscopique » qui résulte de l

’agitation des molécules (mouvement Brownien).

La Température est la mesure de cette agitation.

Une seconde composante importante appelée « Energie potentielle » qui regroupe l’énergie géopotentielle ( liée à la pesanteur), et les énergies potentielles intermoléculaires ( attraction -répulsion).

Une troisième composante très importante est composée de la « Chaleur latente » portée par la vapeur d’eau.

Enfin il faut ajouter l’énergie cinétique macroscopique liée aux mouvements des masses d’air ( Vents, tornades).

Il faudrait également citer l’énergie chimique, mais dans notre cas elle est très faible.

L’ensemble de ces énergies atteint le montant extraordinaire de

1,25 x 10 exp[24] joule.

Soit en clair:

1 000 000 000 000 000 000 000 000 Joule !

Ce qui représente dix millions de fois la puissance de la plus puissante bombe thermonucléaire .

Les quatre formes d’énergie sont réparties ainsi:

Ecm ( cinétique microscopique) : 70%

Eg ( géopotentielle ) : 27%

Ecl ( chaleur latente) : 2,5%

Ev ( cinétique macroscopique) : 0,05%

(Source: Oort, Peixoto et Al, 1983)

On notera la faible valeur de Ev, qui est l’énergie des masses d’air en mouvement, c’est-à-dire des ouragans et tornades.

On imagine sans peine l’effet d’un déséquilibre qui porterait cette valeur à seulement 0,1%. A nous les vents de 400 km/h !

On comprend alors que plus qu’une augmentation légère de température, il faut craindre un déséquilibre de Ev, dont la faible valeur relative laisse une grande vulnérabilité devant la formidable réserve de puissance contenue dans Ecm et Eg.

Les quatre composantes de l’énergie interne atmosphérique échangent continuellement de l’énergie entre elles et utilisent les océans comme réservoir tampon de chaleur et comme moyen de véhiculer de grosse quantités d’énergie d’un endroit à l’autre de la planète par l’intermédiaire des courants marins.

La rotation du globe et les inégalités spatio-temporelles de l’insolation créent un régime de vents qui brasse les masses d’air et contribuent à une certaine homogénéisation.

Le cycle évaporation- chaleur latente-précipitations module les couches nuageuses et donc directement l’albedo et l’émissivité.

Les gaz à effet de serre présents dans l’Atmosphère contribuent au mécanisme de régulation.

Les climatologues connaissent la plupart des facteurs qui sont susceptibles d’influencer le mécanisme de régulation. Mais les relations entre ces facteurs, la façon dont ils interviennent et leur importance relative ne sont pas exactement connues. Des modèles informatiques sont utilisés pour tenter de prévoir l’évolution du climat, et la confrontation de ces modèles avec la réalité permettra de les valider et de confirmer ou infirmer les hypothèses retenues.

L’emploi des énergies fossiles depuis les débuts de l’ère industrielle ne constitue qu’une phase du recyclage du carbone. En effet ces combustibles sont issus d’organismes autrefois vivants et dont le Carbone a été stocké pendant des millions d’années pour être restitué aujourd’hui à l’Atmosphère.

Ce type de recyclage, considéré comme vertueux dès lors qu’il s’agit de bois parce que le cycle est de courte durée ( 50 ans), est considéré comme nuisible avec les fossiles car le cycle est de plusieurs millions d’années, les émissions de CO2 sont alors considérées comme un apport nouveau à l’échelle des temps historiques.

L’augmentation anthropique du taux de CO2 dans un court laps de temps (Un siècle et demi) constitue une violation du cycle naturel de régulation thermodynamique de l’Atmosphère.

Le résultat direct est une modification de l’émissivité qui va dans le sens d’un accroissement de l’énergie interne.

Cette impulsion d’accroissement de l’énergie interne va se distribuer entre les quatre composantes Energie cinétique microscopique (Ecm), Chaleur latente ( Ecl), Energie géopotentielle ( Eg), et Energie cinétique macroscopique ( E v).

Il faut donc s’attendre à observer les perturbations résultantes:

La modification de Ecm se traduira par un variation de température, probablement une augmentation mais pas nécessairement.

L’effet sur Ecl sera une perturbation du régime des précipitations, des moussons et des formations nuageuses.

Eg, qui concerne les distributions des hautes et basses pressions, manifestera des déséquilibres créateurs de zones cycloniques.

Quant à Ev, qui porte le potentiel de vents, de tornades et d’ouragans, on sait les résultats d’un déséquilibre sur les évènements météo extrêmes.

La variation de température n’est donc peut-être pas une mesure fiable des variations climatiques. Il est possible que d’autres phénomènes atmosphériques soient plus représentatifs des changements du climat.

Repost 0