Overblog Suivre ce blog
Administration Créer mon blog
24 mars 2011 4 24 /03 /mars /2011 14:41

24 Mars 2011


La journée d’hier nous a gratifiés de deux sondages d’opinion sur le même sujet: faut-il ou non abandonner le nucléaire ?


Voici les résultats:


- Les opposants farouches au nucléaire, ceux qui veulent arrêter tout rapidement, font respectivement 19% ( IFOP) et 13%( SOFRES). Il sont donc fortement minoritaires dans les deux enquêtes.


- Ceux qui voudraient en sortir mais sont conscients que cela doit se faire progressivement, font 51% ( IFOP) , non exprimés côté SOFRES.


- Ceux qui sont clairement pour la continuation du nucléaire, y compris construire de nouvelles centrales, font 30% (IFOP), non exprimé côté SOFRES.


- Ceux qui sont contre l’abandon du nucléaire font 55% ( SOFRES).


Les autres chiffres sont inexploitables car rubriques trop vagues ( que signifie «  être plutôt pour » ou « plutôt contre » ?


Les deux sondages disent finalement la même chose, malgré les apparences de contradiction:


Il y a une très faible minorité en faveur de l’abandon catégorique du nucléaire, c’est un résultat essentiel. Il montre que plus de 80% de l’opinion est partagée entre la continuation du programme, l’abandon progressif, ou une incertitude qui traduit une demande d’informations complémentaires.


Ce qui prouve une fois de plus que les français se méfient des positions extrêmes, et demandent à voir de plus près la marchandise qu’on leur propose.


Il est clair qu’avant de lancer un référendum, il faudra mettre en œuvre une campagne d’information présentant les enjeux et les conséquences socio-économiques des différents choix.

Repost 0
23 mars 2011 3 23 /03 /mars /2011 19:06

23 Mars 2011


En 2009, la France a consommé 156 Mtep ( Energie finale ), ou encore 1800 TWh en unités électriques, toutes énergies confondues.


Dans ce mix énergétique, les énergies renouvelables participent pour environ 20 Mtep, soit 12,6%.


Encore faut-il remarquer que dans ces 20Mtep figurent les énergies renouvelables traditionnelles qui sont l’hydraulique ( 4,9 Mtep) et le bois-énergie ( 9,1 Mtep).


Les énergies renouvelables « modernes » :


Pompes à chaleur.


Eolien.


Résidus agricoles.


Déchets urbains renouvelables.


Biogaz.


Biocarburants.


Géothermie.


Solaire thermique.


Solaire photovoltaïque.


Ne figurent que pour 6 Mtep, soit 3,75% du total.


( Sources SOeS environnement ).


La prise de conscience du réchauffement planétaire, lié à l’effet de serre, a conduit à un consensus autour de la nécessité de maîtriser les émissions anthropiques de dioxyde de carbone, essentiellement liées à l’utilisation des combustibles fossiles carbonés.


En conséquence logique, le programme de développement énergétique mondial doit intégrer une baisse  progressive de la part de ces combustibles dans le mix énergétique, jusqu’à l’abandon total à une échéance de la fin du présent siècle.


Ce choix vertueux et délibéré nous est par ailleurs imposé par la perspective de  l’épuisement inéluctable des réserves de ces produits.


La France n’échappe évidemment pas à la nécessité d’intégrer ce programme de restrictions dans ses plans de développement énergétique.


La stratégie logique de retrait des énergies fossiles non renouvelables carbonées doit tenir compte de l’importance relative des différents combustibles:


D’abord le charbon, qui est le plus polluant en terme d’émissions de CO2, de suies et de nanoparticules. Malgré des réserves mondiales très abondantes, il serait contraire au consensus planétaire de continuer à l’utiliser.


En France, la consommation annuelle de charbon est inférieure à 10 Mtep, en voie d’extinction.


Ensuite le pétrole, second dans l’ordre des polluants, dont l’abandon sera de toutes manières imposé par l’épuisement des réserves avant la fin du siècle.


Enfin le gaz naturel, car c’est le moins polluant, et qu’il dispose de réserves abondantes. Il aura donc droit à un sursis de quelques dizaines d’années.


A côté de cette nécessaire stratégie d’abandon progressif des énergies fossiles carbonées, une autre stratégie est actuellement en débat de par le monde. Il s’agit de la stratégie à adopter vis-à-vis des utilisations civiles de  l’énergie nucléaire.


Il y a aujourd’hui de par le monde 438 réacteurs nucléaires terrestres civils, auxquels il faut ajouter 400 navires à propulsion nucléaire.


Les centrales nucléaires électriques produisent 14% de l’électricité mondiale ( 2009 ).


En France, cette proportion est de 78%.


Il existe un lobby anti-nucléaire très actif, qui fonde ses revendications sur trois inconvénients de cette filière:


- Le risque d’accident majeur, confirmé s’il en était besoin par les récents évènements.


- L’impossibilité de traiter aujourd’hui les déchets radioactifs.


- Le risque de dissémination de la technologie, augmentant l’éventualité d’attentats terroristes et/ou de contamination de l’environnement.


Ces inconvénients étant bien réels, on peut imaginer que soit prise la décision d’abandon progressif du nucléaire civil.


Dans cette hypothèse extrême, mais envisageable, la totalité des besoins énergétiques devraient être satisfaits par des énergies renouvelables et propres:


- Eolien.


- Solaire thermique.


- Solaire photovoltaïque.


- Hydraulique.


- Géothermique.


- Pompes à chaleur.


- Bois-énergie.


- Déchets renouvelables.


Aujourd’hui , en France, ces énergies représentent 20 Mtep , les besoins totaux d’énergie s’élevant à 156 Mtep.


Cet écart d’échelle montre à l’évidence que le basculement, s’il est possible, ne peut être que très progressif, avec une échéance qui se situerait quelque part autour du milieu du siècle.


En effet, il ne serait pas pertinent de chercher à trop accélérer le basculement car le risque serait grand de déstabiliser les structures de la société, et de remplacer un problème gérable par un autre problème dont la solution nous échapperait complètement.


Le passage du gué sera difficile à négocier. On attend des Etats qu’ils mettent en place des stratégies claires et pérennes, afin de permettre aux industriels de développer les filières de remplacement dans un cadre favorable aux initiatives et à la création d’entreprises.


En France, la stratégie n’est pas clairement définie, l’Etat n’a pas encore choisi le cheval sur lequel il devra parier pour avoir une chance de gagner le grand prix de 2050. Entre le nucléaire et les énergies nouvelles, il faudra pourtant faire le choix.


Aujourd’hui nos responsables donnent l’impression de vouloir jouer en champ total, au moins durant une période d’observation jusqu’en 2020.


Peut-être une sage décision ?



 


 


 


 


 


 


 

Repost 0
21 mars 2011 1 21 /03 /mars /2011 18:54

22 Mars 2011


Le désastre de Fukushima est mis en avant comme preuve incontestable de la dangerosité du nucléaire civil.


Le désastre est hélas bien réel, mais pour en mesurer toute la portée il est nécessaire de faire l’effort d’en comprendre la genèse.


Les réacteurs utilisés sont du type à eau bouillante. Ils ne comportent qu’un seul circuit fermé, et le condenseur est refroidi avec de l’eau puisée directement dans la mer.


Il n’y a pas de circuit secondaire pour le refroidissement, donc pas de tour d’évaporation, tout repose sur le puisage d’eau de mer, à raison de 60 000 m3 par heure, contre 1 800 m3/heure seulement avec une tour d’évaporation ( qui servent juste à compenser les pertes de vapeur d‘eau par les tours).


Donc très grande vulnérabilité à tout problème d’approvisionnement en eau.


C’est une première erreur.


Les barres de ralentissement fonctionnent à l’envers de ce qui se fait actuellement. Pour ralentir le réacteur il faut soulever les barres, donc disposer d’une force motrice, alors que normalement il suffit de les laisser descendre de leur propre poids. En cas de panne de motricité les barres ne peuvent plus être manœuvrées.


C’est une deuxième erreur.


La centrale a été construite en tenant compte du risque de séisme, la valeur maximale possible envisagée retenue a été de 7.


Compte tenu de la situation du pays et de son passé géologique, il aurait fallu prendre une limite de 9 selon les experts ( rapport 2007).


C’est une troisième erreur.


Le site retenu a été en bord de mer, pour des raisons économiques. Au Japon, pays des tsunamis, le bon sens aurait voulu que le choix se porte sur un site surélevé d’au moins vingt mètres. Ceci a été refusé au départ .


C’est une quatrième erreur.


Le combustible usagé ( mais encore radioactif) est stocké dans des piscines qui sont situées à proximité immédiates des réacteurs. En cas d’accident sur le réacteur, la piscine est aussi directement impliquée, avec les conséquences que l’on peut voir actuellement.


C’est une cinquième erreur.


Lors de la révision des conditions de sécurité des centrales japonaises en 2007, le Professeur Ishibashi Katsuhiko a relevé toutes les erreurs de conceptions et demandé qu’elles soient prises en compte. Cela a été refusé.


C’est la sixième erreur, fatale comme chacun a pu le constater.


Il est clair que ces erreurs auraient été sans conséquence si à la place de matière radioactive, il y avait eu du charbon. Cela est incontestable.


Mais il faut aussi reconnaître que, si cette série d’erreurs de conception humaines n’avaient pas été commises, l’accident n’aurait sans doute pas eu lieu, ou ses conséquences auraient été modestes.


Nous pensons que ces circonstances doivent entrer en ligne de compte lors d’une évaluation de la dangerosité du nucléaire civil.


Au-delà de l’aspect technologique, il faut porter l’attention sur la chaîne humaine de décisions. Il est évident, Fukushima le confirme, qu’un tel enchaînement de fautes de conception n’aurait jamais dû pouvoir se produire. Il est donc indispensable de revoir toutes les procédures de décisions, afin d’y introduire davantage de rigueur et de transparence.


Faute de quoi de telles catastrophes se reproduiront immanquablement, quel que soit le niveau des technologies mises en œuvre.



 


 


 


 

Repost 0
20 mars 2011 7 20 /03 /mars /2011 10:09

19 Mars 2011


La fracturation hydraulique permettant l’exploitation du gaz s’effectue avec de l’eau sous très haute pression. Cette eau contient environ 2% d’additifs chimiques dont une grande partie va demeurer dans le sol et constituera une pollution à long terme.


Voici la liste de ces additifs avec leurs rôles respectifs:


- Proppant


Facilite l’ouverture des fractures et l’écoulement du gaz.


- Acid


Dégager et nettoyer les intervalles entre fracturations pour permettre le passage des fluides.


- Breaker


Réduire la viscosité du fluide.


- Bactericide/Biocide


Inhiber la croissance d’organismes susceptibles de produire des gaz contaminants ( sulfure d’hydrogène) et/ou de gêner l’écoulement du gaz.


- Clay stabilizer.


Prévenir la formation de bouchons argileux qui pourraient gêner les écoulements.


- Corrosion inhibitor.


Prévenir la formation de rouille sur le tubage et les réservoirs.


- Crosslinker.


Agent de viscosité à base l’esthers de phosphate et de métaux.


- Friction reducer.


Optimiser le débit des fluides de fracturation.


- Gelling agent.


Optimisation de la viscosité.


- Iron control.


Prévenir la précipitation d’oxydes métalliques.


- Scale inhibitor.


Prévenir la précipitation de carbonates et sulfates.


- Surfactant.


Réduire la tension de surface du fluide.


Tous ces composants font appel à des associations de produits chimiques dont l’identité et le dosage sont des secrets industriels. Les proportions dépendent de la nature du sous-sol .


En clair, l’autorité responsable le la santé publique n’est pas en mesure de connaître la nature et les quantités de produits injectés dans le sous sol !!!


Ce facteur de risques devrait, à lui seul, justifier un moratoire.


Mais ce n’est pas tout.


Le fluide de fracturation injecté dans le sous sol subit des transformations chimiques liées à la très haute pression et à la température. De plus, il agit comme agent de dissolution des composés présents naturellement (ou non) dans le sous sol. Le fluide de retour, récupéré avec une partie seulement des additifs chimiques, contient donc des composés chimiques qui n’étaient pas présents au départ. Ces composés se retrouvent dans les déchets, et on n’en connait pas la nature.


Il peut s’agir notamment de métaux lourds, et/ou de NORMs ( Naturally Occuring Radioactive Materials). 


Il s’agit d’un second facteur de risques qui vient renforcer la nécessité d’un moratoire.


Il y a mieux.


Le conduit qui traverse la ou les nappes aquifères pour atteindre les profondeurs, doit être parfaitement étanche vis-à-vis de ces nappes, sous peine d’y injecter des produits toxiques lors des opérations de facturation.


Le tubage d’un puits est, en principe, renforcé par l’injection de ciment censé combler l’espace libre et garantir l’étanchéité.


Mais, au cours des opérations de fracturation ( plusieurs fracturations primaires successives sont effectuées le long d’un forage ), le tubage subit des variations de pression brutales considérables, 350 à 700 bar sont appliqués pour obtenir le résultat.


Il y a un risque de fragilisation avec perte d’étanchéité au niveau de la traversée des nappes aquifères si des précautions particulières ne sont pas prises.


Le retour d’expérience aux USA a montré que ce risque est réel. Les compagnies interrogées ont montré une certaine négligence dans la prise en compte de ce problème.


Un troisième facteur de risque à prendre en compte avant d’autoriser des travaux.


Ces trois facteurs de risques devraient suffire à eux seuls à convaincre  les autorités de la nécessité d’un moratoire.



 


 


 


 


 


 


 


 

Repost 0
18 mars 2011 5 18 /03 /mars /2011 17:36

18 Mars 2011


Les gaz de schistes sont exploités depuis 1990 aux USA , avec une production qui a atteint 14,3% de la consommation de gaz en 2009 (source EIA). Ces gaz sont potentiellement présents partout, en particulier en Europe où il existe des projets de mise en exploitation.


Ces projets sont très mal accueillis car ils sont considérés comme destructeurs de l’environnement.


Aux Etats-Unis, les dégâts causés par cette activité ont amené l’US EPA (Environmental Protection Agency) a lancer un programme de recherche pour une meilleure compréhension des risques. Les résultats de ce travail sont attendus pour fin 2012.


En Décembre 2010 , le Gouverneur de l’Etat de New-York a ordonné  l’arrêt des fracturations pendant six mois ( jusqu’en Mai 2011, susceptible de prolongation ) et la délivrance des nouveaux permis a été suspendue.


Les experts du Royaume Uni ont recommandé de surseoir à tout forage et d’attendre les conclusions du rapport de l’US EPA , ce qui semble la moindre des précautions.


C’est le moment choisi par notre Ministre de l’Energie (de l’époque) pour accorder en catimini des permis d’exploration  en France.


On comprend la fureur des associations de défense de l’environnement, d’autant plus que le personnage était en même temps chargé de l’écologie, du développement durable, et des technologies vertes !!!


De quelles calamités sommes-nous donc menacés ?


Sans reprendre les détails des procédés de forage et d’exploitation, qui figurent partout, on peut faire un résumé des nuisances:


- L’occupation du terrain.


Un emplacement de puits comporte six à huit forages horizontaux qui drainent le gaz de la couche de schiste sur une surface limitée, il y a environ 3,5 puits au km2. Sur un espace de 2km sur 2km il y a donc 14 puits.( le nombre est variable selon le terrain).


En période de forage, qui peut durer de un à deux ans, le chantier de chaque puits occupe 1,5 à 2 hectares, qui se réduisent à 0,4 à 1,2 hectares en exploitation.


L’occupation du terrain est donc considérable car il faut ajouter les travaux de voierie pour acheminer le matériel et les camions.


La durée d’exploitation d’un parc de puits est de cinq à huit ans. Quand c’est fini on va creuser plus loin ! c’est donc toute une région qui est vouée aux travaux de forage quasi permanents.


- La noria des camions.


Il faut acheminer le matériel de forage, le busage, le sable de consolidation, le ciment pour le trou, et surtout l’eau dont il est fait une grande consommation, et les produits chimiques nécessaires. Et ceci multiplié par le nombre de puits . Il en résultera de fortes nuisances et une dégradation de l’environnement.


On estime entre 4 000 et 6 000 le nombre de trajets camions nécessaires pour mettre un ensemble de puits en production.


- La pollution du sous-sol.


Le forage s’accompagne de l’injection d’eau et d’une mixture de produits chimiques dont certains sont cancérigènes et/ou toxiques. Or, une partie seulement ( 15 à 60%) de cette mixture est récupérée en surface. Le reste demeure au fond des trous, et constitue une pollution de très longue durée.


- La pollution des nappes aquifères.


Les tubes de forage traversent évidemment les nappes aquifères. Elles peuvent être polluées de plusieurs façons. Soit au cours du forage par passage direct du puits de forage vers la nappe. Soit au cours des fracturations hydrauliques, avec remontée des produits polluants sous l’effet de la forte pression. Soit en cours d’exploitation par fissuration ou mauvaise étanchéité du tubage. Soit depuis la surface à partir des produits récupérés et mal stockés.


- La pollution des eaux de surface.


En cours de forage les produits récupérés, contenant les produits chimiques toxiques, sont stockés sur place avant d’être évacués. Il y a un grand risque de pollution par infiltration et/ou ruissellement.


- Les besoins en eau.


A titre d’exemple un ensemble de forage de six puits multiples utilise entre 50 000 et 170 000 mètres cubes d’eau, qui doivent être prélevés sur place ou apportés par camions.


A quoi il faut ajouter 2% de produits chimiques très toxiques, soit 1 000 à 3 500 mètres cubes, amenés par camions.


Les produits chimiques sont généralement amenés dans des containers de plastique, le mélange est fait sur place grâce à un équipement spécialisé.


- La récupération des fluides.


Les fluides de retour sont filtrés et en partie récupérée. Une partie de boues et de produits chimiques sont stockés sur place pour être évacués  (où ?).


- La durée des chantiers.


La durée des travaux jusqu’à la production varie entre 500 et 1 500 jours.


- La durée de vie d’un forage.


L’exploitation correspond à une production en forme de courbe en cloche. La durée totale est de cinq à dix ans.


- La refracturation.


Lorsque la production devient trop faible, il y a une possibilité de refracturer pour prolonger la période de production. On retrouve alors les problèmes de la mise en exploitation.


Il apparaît donc que l’exploitation du gaz de schistes induit des atteintes majeures à l’environnement et pose des problèmes de santé publique.


Le recours à ce type de source devrait être réservé à des cas d’extrême pénurie énergétique, ce qui heureusement est loin d’être le cas aujourd’hui.


Les données sont extraites d’un rapport de Janvier 2011 du « Tyndall Center for Climate Change Research » attaché à l’Université de Manchester, UK, pour le compte de « Sustainable Change Cooperative ».


Repost 0
16 mars 2011 3 16 /03 /mars /2011 19:10

16 Mars 2011


Le CO2 a jusqu’à présent constitué la cible préférée dans la campagne contre le réchauffement climatique. Deux grands axes ont été tracés pour mener à bien ce combat:


D’une part, réduction drastique des consommations de sources d’énergie fossile carbonée et optimisation des rendements des moteurs et chaudières utilisant ces énergies. Les actions les plus spectaculaires étant la règlementation des émissions de CO2 et le développement de la voiture électrique.


D’autre part, développement des applications utilisant des énergies propres et durables. Essentiellement solaire thermique et photovoltaïque, et éolien.


Pour accompagner ces deux programmes industriels visant à combattre le CO2 à sa source, et ainsi réduire le taux d’accroissement de sa concentration dans l’atmosphère, deux axes complémentaires de recherche ont été privilégiés:


En premier lieu un programme d’encadrement des applications utilisant l’énergie de la biomasse ( Bois essentiellement ), donc intégrant le cycle naturel du carbone, programme visant à améliorer les rendements et à réduire les émissions polluantes.


En second lieu, un ensemble de programmes de recherche orientés vers la capture et la séquestration du carbone ( CSC).


A travers ces programmes, de nombreux secteurs de la recherche et de l’industrie se trouvent ainsi mobilisés sur des actions pluriannuelles motivées par la lutte contre le CO2.


Mais ce gaz , bien qu’étant considéré comme le principal facteur anthropique du réchauffement climatique, n’est pas le seul en cause.


D’autres composés gazeux, également d’origine partiellement anthropique, et présents dans l’atmosphère, sont impliqués dans les phénomènes climatiques ainsi que dans la pollution atmosphérique.


Parmi eux se trouvent  le dioxyde de soufre SO2, alias anhydride sulfureux, et le dioxyde d’azote NO2.


Ces deux compères ont la fâcheuse tendance, en présence d’eau, à donner de l’acide sulfurique (vitriol) et de l’acide nitrique ( acide azotique), tous deux violemment toxiques. Ces acides se forment soit dans l’atmosphère, soit dans les poumons des individus qui ont la malchance de se trouver là.


Ils sont, entre autres dégâts, à l’origine des pluies acides de sinistre réputation. Rappelons que ces pluies détruisent la végétation et provoquent une acidification des océans, ce qui porte un préjudice grave au plancton (qui fabrique notre oxygène) , aux organismes à coquilles calcaires ( dont les barrières coralliennes), et au cycle de solubilité du CO2 dans l’eau.


En plus de ces dégâts, qui suffiraient en eux-mêmes à justifier une lutte sans merci, ces gaz sont des précurseurs d’aérosols sulfatés qui constituent d’excellent noyaux de condensation notamment pour les brouillards toxiques. Le NO2 participe de plus aux réactions atmosphériques qui donnent l’Ozone.


Ces brouillards, dopés à l’acide sulfurique et à l’acide nitrique, sont à l’origine de plusieurs dizaines de milliers de morts chaque année.


Une raison supplémentaire de leur faire la guerre.


Mais, car il y a toujours un mais,


Etant à l’origine de noyaux de condensation, on leur doit une  partie des formations nuageuses de la basse troposphère, nuages qui ont la propriété de faire baisser la température, par des mécanismes assez mystérieux dont seuls les spécialistes pourraient nous dévoiler les arcanes.


Toujours est-il que, par ce biais, ils acquièrent un statut de gaz climato-influents, donc à manipuler avec précaution.


Le SO2 naturel provient essentiellement du volcanisme, et de la végétation. Par exemple le Phytoplancton est à l’origine de sulfure de diméthyle, qui s’oxyde en SO2.


En version anthropique, le SO2 est issu des transformation de produits soufrés dégagés par la combustion des combustibles fossiles (spécialement du charbon) et des raffineries. Des sulfures proviennent aussi du fumier animal, et de certaines industries ( pâte à papiers ).


L’augmentation du taux de SO2 dans a suivi la croissance de l’activité industrielle. Le pic est apparu en 1970-80, suivi d’une décrue due aux mesures de dépollution mises en place à cette époque.


Actuellement la production est repartie à la hausse, en rapport avec le décollage industriel de la Chine, accompagné de la mise en service de nombreuses centrales au charbon.


On notera le facteur d’accroissement de 70 fois par rapport à 1850, à rapprocher de celui du CO2, qui est de 1,25 «seulement» .


NO2 est surtout d’origine anthropique, issu des combustions ( transports, centrales au fuel et au charbon, incinérateurs), et des décompositions.


En tant que précurseurs d’aérosols, SO2 et NO2 sont impliqués dans la formation des couches nuageuses, et donc du climat.


L’effet de serre conduit à un équilibre radiatif entre les différents gaz de l’atmosphère. Si l’on modifie significativement la concentration de l’un des gaz actifs, l’équilibre est rompu, dans un sens qu’il est très difficile de prévoir exactement.


Certains experts estiment qu’il est hasardeux de chercher à réduire fortement SO2 et NO2 car leurs modèles indiquent que leur effet sur la température peuvent être contraire à celui du CO2.


La stratégie à propos des dioxydes de soufre et d’azote n’est donc pas évidente, il est souhaitable de chercher à en savoir plus avant d’agir.


La première démarche consiste à évaluer avec précision les rôles respectifs des GES dits « secondaires » dans la variation de température moyenne du globe, et particulièrement ceux qui participent au processus de nucléation.


Ce processus de nucléation devra être étudié dans ses effets sur la formation des couches nuageuses de la basse troposphère, et donc sur les variations de température.


Dans ces études on peut inclure le projet CLOUD ( Cosmics Leaving Outdoor Droplets) qui se propose d’analyser l’influence des rayons cosmiques galactiques sur le processus de nucléation autour des aérosols sulfatés. Il s’agit de chercher à mettre en évidence l’influence des rayons cosmiques sur la température moyenne du globe, par l’intermédiaire de ces gaz considérés jusqu’à présent comme de simples polluants à éliminer.



 


 


 


 


 


 



 


 


 


 


 


 


 


 


 


 


 


 


 


 


 

 
Repost 0
14 mars 2011 1 14 /03 /mars /2011 18:48

13 Mars 2011


Nous venons donc de recevoir coup sur coup deux faire parts lourds de signification.


Le premier nous confirme de manière ô combien tristement démonstrative que l’énergie nucléaire est bien une source de risques majeurs.


Le second nous informe que les réserves d’énergies fossiles carbonées sont beaucoup plus importantes que prévu, grâce aux gaz de schistes.


Les dangers de l’énergie nucléaire étaient déjà connus bien entendu. On évoque toujours  les cas de « Three mile island » et de « Tchernobyl », en insistant sur les causes essentiellement techniques et humaines, donc susceptibles d’être corrigées. En effet chaque accident permet normalement d’en apprendre davantage sur les risques et de corriger les procédures et les règles de sécurité appliquées dans la conception et l’usage .


La catastrophe actuelle qui frappe le Japon est d’une autre nature. Ici pas de faute technique et pas d’erreur humaine, seule la Nature est à l’origine du drame.


On peut quand même se demander s’il était bien raisonnable de construire des centrales nucléaires au bord de la mer ( quasiment les pieds dans l’eau) dans un pays connu pour sa très forte séismicité , et à 250 kilomètres en face d’une énorme faille  active sous-marine qui encaisse l’affrontement de deux plaques tectoniques dont les mouvements capricieux sont bien connus.


Le Japon étant un pays développé et civilisé, on peut en conclure que les décideurs d’un grand pays à la pointe du progrès sont parfaitement capables de se conduire de manière déraisonnable.


Et c’est cela  qui fait le danger du nucléaire.


On peut à la rigueur prendre des décisions déraisonnables dans des actes courants qui ne peuvent entraîner de catastrophes, mais le nucléaire ne souffre aucune approximation. Il ne doit pas être mis entre les mains de personnes capables de construire une centrale les pieds dans l’eau et en face d’une faille active, sous-marine ou non.


Dès lors que de tels usages inconsidérés sont possibles, le nucléaire devient effectivement un danger pour l’Humanité.


Il sera facile maintenant d’obtenir que les programmes de prolongation de vie des centrales existantes soient remis en question, à tout le moins fortement encadrés.


Pour l’opinion, entre un excès de CO2 et Fukushima, le choix sera vite fait.


Dans ce contexte, la découverte des gaz de schistes dans nos contrées jusqu’ici dépourvues de la précieuse denrée, peut être vue comme une aubaine de nature à nous conférer une certaine indépendance énergétique, et une solution de rechange nous permettant d’envisager sereinement le retrait progressif du nucléaire.


Nous n’échapperons pas à un chantage pervers, les gaz de schistes en échange de l’abandon du nucléaire. Nul doute que la proposition sera considérée sérieusement de part et d’autre.


Il est donc fort probable que nous finirons, bon gré mal gré, par aller le chercher, ce gaz de schiste, pour obtenir de voir le spectre nucléaire s’éloigner.


Et peut-être aussi qu’en fin de compte, nous aurons les deux, mais ceci est une autre histoire….


Si le gaz de schistes devient effectivement un substitut, même partiel, du nucléaire, ses émissions de CO2 viendront grossir les volumes déjà rejetés par les usages classiques des autres énergies fossiles carbonées.


Il devient donc de la plus grande importance de s’occuper sérieusement du sort de ce CO2, puisqu’il semble admis que les énergies renouvelables propres ne pourront pas prendre la relève avant longtemps, et que la consommation globale d’énergie ne baissera pas significativement.


Les programmes de capture et séquestration du carbone reviennent alors sur le devant de la scène.


Si toutefois le taux de CO2 atmosphérique demeure un paramètre mondialement critique, mais n’anticipons pas…..


Repost 0
14 mars 2011 1 14 /03 /mars /2011 16:52

14 Mars 2011


On croyait avoir tourné une page. La planète avait pris acte que l’ère des énergies fossiles était sur le point de se clore, pour deux impératives raisons: D’une part les réserves étaient annoncées comme quasiment épuisées, et d’autre part le réchauffement climatique alarmant imposait de réduire drastiquement les émissions de CO2.


Une aube nouvelle se levait sur un monde plus propre, moins énergivore, converti aux sources propres et renouvelables. Nos enfants se voyaient instruits dans la haine du dioxyde de carbone et le culte du solaire et de l’éolien. Nos industriels se voyaient fermement incités à développer telle filière photovoltaïque, nos champs étaient promis à se couvrir de modernes moulins à vent, et le mazout de nos chaudières remplacé par des granulés de bois. Même les déchets biologiques étaient appelés à participer à la fête écologique, tant l’enthousiasme était partagé. Et bien sûr nos autos rouleraient désormais au KWh et non plus à l’essence.


Et puis les dures réalités de l’existence sont venues tempérer quelque peu ces bonnes résolutions. On a « découvert » que le système socio-économique planétaire est une très très grosse machine qui ne se manœuvre pas aisément.


« Je vous le répète, il est plus facile à un chameau de passer par un trou d'aiguille, qu’à un Chef d’Etat français de changer l’économie chinoise ».


( Pardon pour cet emprunt irrespectueux).


Notre planète est un système à la fois ouvert et fermé. Ouvert au sens thermodynamique du terme, puisqu’il reçoit la formidable énergie du Soleil, qui le fait vivre, et la renvoie vers l’espace après usage. Mais il est par ailleurs fermé, au sens de l’espace vital et des ressources disponibles.


Le caractère ouvert du système induit une perpétuelle recherche d’équilibre thermodynamique. Ce principe, enseigné dans les écoles, s’est brutalement rappelé à notre bon souvenir à travers le réchauffement climatique. De cette affaire nous avons tiré deux enseignements:


D’abord nous avons pris conscience que notre globe est une machine thermique, et que nous avons une part de responsabilité dans la marche de cette chaudière.


Secondement il nous est apparu évident que la chaudière est une installation collective. Elle ne peut être conduite qu’avec le concours de tous . Les actions locales sont sans effet.


Quant au  caractère fermé de notre système, il apparait dans les limites de notre espace vital et des ressources disponibles. Nous vivons dans un bocal dont les parois ne sont pas extensibles. Ce bocal contient une quantité limitée de ressources potentielles, cette limitation impose une borne thermodynamique à l’extension de la biosphère.


cette borne n’est pas encore atteinte, bien que certains soient d’un avis contraire.


Si elle est encore éloignée, il n’en demeure pas moins que c’est, en grande partie, grâce à une recomposition de cette biosphère au profit de plus en plus exclusif de l’espèce humaine. Les atteintes à la biodiversité sont de plus en plus manifestes, notre espèce ne peut plus développer


son espace vital qu’au détriment des autres espèces.


En effet , le système planétaire est un système dynamique. Il ne connait pas la stabilité. La biosphère, en tant qu’organisme vivant, ne peut que se développer ou mourir, selon l’énergie qu’elle reçoit.


Ce développement peut s’accomplir selon différents rythmes. De même qu’un végétal se développe plus ou moins vite selon les arrosages et l’engraissement, la biosphère dans son ensemble croît selon les apports énergétiques.


Jusqu’à une époque récente, la biosphère ne recevait que l’énergie du Soleil, grâce à laquelle son développement fut lent mais régulier.


Depuis la découverte des énergies fossiles, le développement s’est accéléré comme chacun sait. Cet « engrais » fortement carboné a perturbé gravement le cycle naturel jusqu’à l’apparition d’un phénomène d’emballement, bien connu des thermodynamiciens.


On peut désormais parler d’explosion de la biosphère humaine, tant les facteurs de croissance sont devenus excessifs. Chacun les a en tête, l’explosion démographique, la consommation énergétique frénétique, l’épuisement des ressources naturelles, la pollution, les atteintes à la biodiversité, etc….


La chaudière s’est emballée.


Le remède paraît évident: couper l’arrivée du carburant.


Hélas, les choses ne sont pas aussi simples.


La biosphère humaine n’est pas homogène. Il n’y a pas UNE Humanité, mais DES Humanités, dont les conditions de vie sont très éloignées, et le plus souvent antagonistes. Certaines doivent leur prospérité à la misère des autres, les parts du gâteau sont loin d’être égales. Les intérêts des uns ne sont pas ceux des autres. De quel droit les uns, les nantis, chercheraient-ils à imposer aux autres, les laissés pour compte, des restrictions qu’eux-mêmes refusent de s’appliquer ?


Bref, c’est l’impasse.


Les courbes de consommation d’énergie continuent de grimper vers des sommets vertigineux, et aucun «Deus ex machina» ne vient apporter la solution du troisième acte.


On a pu croire un moment que l’épuisement naturel des énergies fossiles allait mettre tout le monde d’accord. Plus d’engrais, plus de croissance, plus de CO2, plus de pollution. Le problème disparaissait de lui-même. Certes, d’autres problèmes seraient survenus, mais bon, chaque chose en son temps.


Mais c’était sans compter avec l’acharnement des pourvoyeurs d’énergie. Vous pensiez que la cuve était vide ? Que nenni, ils ont dégoté d’immenses stocks de derrière les fagots.


Ce sont les désormais fameux gaz de schistes.


La mèche lente, que l’on croyait en passe de s’éteindre, vient de se rallumer et nous sommes ramenés au cas précédent, il faut tout reprendre à zéro.


Nous voici donc confrontés avec le cortège habituel des nuisances accompagnant  ce genre de prospection: Destruction des paysages, pollution des nappes phréatiques, troubles de voisinage, atteintes à la faune et à la flore, pollution atmosphérique.


Et bien entendu, revoilà notre dioxyde de carbone qui reprend du poil de la bête. Et il paraît qu’il y en a partout et en grandes quantités.


Notre société va donc se voir confrontée à la nécessité de faire des choix.


Plusieurs grandes options devront être considérées:


- Programme de réduction drastique de consommation d’énergie.


Non pas seulement des incantations ou des exhortations, mais des mesures à caractère incitatif et/ou règlementaire. Par exemple des mesures tarifaires et/ou des quotas, des coupures ou des restrictions organisées, voire même taxation des gaspillages.


- Programme ambitieux de développement des énergies nouvelles.


- Maintien ou non du programme nucléaire.


- Taxe carbone.


- Décision sur les gaz de schistes.


- Politique claire et pérenne sur le mix énergétique.


En France, ces choix conditionneront les orientations politiques de la prochaine élection présidentielle.



 


 


 

Repost 0
11 mars 2011 5 11 /03 /mars /2011 17:30

11 Mars 2011


Nos automobiles sont maintenant équipées de climatiseurs, personne aujourd’hui ne songerait à acquérir une voiture neuve qui en serait dépourvue.


Ces dispositifs ont longtemps fonctionné avec un fluide réfrigérant ( le R12 ) à la fois toxique, mauvais pour la couche d’ozone, et très actif comme gaz à effet de serre.


Le circuit de climatisation contient environ 800 g de fluide frigorigène. La destinée de ce fluide est de s’évaporer tôt ou tard dans l’atmosphère, à cause des fuites qui ne manquent jamais de se produire au fil du temps.


Lorsque les projecteurs de l’actualité se sont braqués sur l’effet de serre et le réchauffement climatique, puis sur la couche d’ozone, les suspects ont vite été débusqués. Les fluides de nos voitures en font partie.


Pour caractériser un produit dans sa contribution à l’effet de serre, on a défini un indice, le PRP ( Potentiel de Réchauffement Planétaire) ou en anglais GWP ( Global Warning Potential).


On a fait de même pour la couche d’Ozone, avec le PDO ( Potentiel de Déterioration de la couche d’Ozone).


Le PRP du CO2 est de 1 par définition.


Le PRP du R12 est de 14 000.


Le R12 a donc été banni , pour être remplacé par le R134a, plus respectueux de l’atmosphère. Il est utilisé aujourd’hui.


Et puis les exigences de la lutte contre l’effet de serre sont devenues plus sévères, et le R 134a , avec un PRP de 1 410, a été à son tour banni.


Dès Janvier 2011 nos voitures sont censées être livrées avec un réfrigérant dont le PRP est inférieur à 150.


Le challenge est sévère, car le fluide doit être également non agressif pour la couche d’ozone, peu ou pas inflammable et non toxique.


L’échéance a été reportée d’un an au moins, car l’industrie n’est pas prête.


D’ici là nos voitures continuent de recevoir du R134a.


Les fluides de remplacement ne sont pas nombreux. Il existe en fait deux voies possibles:


Soit concocter dans les labos des composés mystérieux qui satisferont à peu près la norme. C’est le cas d’un certain R1234yf non encore disponible, qui aurait un PRP de 4.


Soit franchir le pas et utiliser un fluide irréprochable, devinez lequel, le CO2.


En effet, le dioxyde de carbone possède un indice PRP égal à 1, il est sans effet sur la couche d’ozone, il n’est pas inflammable, et il est non toxique.


Seul ennui, il est difficile à utiliser en réfrigération.


Une climatisation au CO2 doit fonctionner à très haute pression , 140 bar en sortie de compresseur contre 15 ou 20 avec le R134a ; très haute température, 160 °C contre 70 ou 80 °C avec R134a.


En sortie d’évaporateur on doit être encore à 40 bar et 30 °C , contre beaucoup moins actuellement.


Tout ceci se traduit par un coût plus élevé , au moins + 30%, et une plus grande fragilité. Prévoir de nombreuses interventions.


Les constructeurs allemands ont fait le choix du CO2 malgré la difficulté technique et le coût ( sur une AUDI ou une MERCEDES, quand on aime on ne compte pas).


Ce choix est également motivé ( on peut le penser) par l’arrivée prochaine de la voiture électrique.


Sur un engin électrique, il n’y a pas de radiateur de refroidissement, donc pour le chauffage de l’habitacle en hiver il faut trouver une solution.


La climatisation au CO2 apporte cette solution car les températures atteintes permettent aisément de chauffer les pieds des passagers…..


Il y aura donc un seul système, soufflant le froid ou le chaud, au choix.


Ce CO2 que l’on met au travail pour souffler du froid, quelle revanche….


Repost 0
9 mars 2011 3 09 /03 /mars /2011 18:18

9 Mars 2011


Rappelons que la loi HADOPI a pour but de lutter contre les téléchargements illégaux sur internet.


Le dispositif tarde à se mettre en place car les moyens d’établissement du délit, qui doivent être juridiquement inattaquables, n’existent pas encore.


La première démarche a été marquée par le décret de création du délit, faute de quoi aucune poursuite ne pourrait être engagée.


En voici le texte:



[« Décret n° 2010-695 du 25 juin 2010 instituant une contravention de négligence caractérisée protégeant la propriété littéraire et artistique sur internet

Art.R. 335-5.-I. ― Constitue une négligence caractérisée, punie de l'amende prévue pour les contraventions de la cinquième classe, le fait, sans motif légitime, pour la personne titulaire d'un accès à des services de communication au public en ligne, lorsque se trouvent réunies les conditions prévues au II :

« 1° Soit de ne pas avoir mis en place un moyen de sécurisation de cet accès ;

« 2° Soit d'avoir manqué de diligence dans la mise en œuvre de ce moyen.

« II. ― Les dispositions du I ne sont applicables que lorsque se trouvent réunies les deux conditions suivantes :

« 1° En application de l'article L. 331-25 et dans les formes prévues par cet article, le titulaire de l'accès s'est vu recommander par la commission de protection des droits de mettre en œuvre un moyen de sécurisation de son accès permettant de prévenir le renouvellement d'une utilisation de celui-ci à des fins de reproduction, de représentation ou de mise à disposition ou de communication au public d'œuvres ou d'objets protégés par un droit d'auteur ou par un droit voisin sans l'autorisation des titulaires des droits prévus aux livres Ier et II lorsqu'elle est requise ;

« 2° Dans l'année suivant la présentation de cette recommandation, cet accès est à nouveau utilisé aux fins mentionnées au 1° du présent II.

« III. ― Les personnes coupables de la contravention définie au I peuvent, en outre, être condamnées à la peine complémentaire de suspension de l'accès à un service de communication au public en ligne pour une durée maximale d'un mois, conformément aux dispositions de l'article L. 335-7-1. »]

Fin de citation.


Le texte précise donc clairement qu’une poursuite ne peut être engagée que si l’auteur présumé du délit s’est vu recommander, par la Commission de protection des droits, la mise en oeuvre d’un moyen de sécurisation.


Aujourd’hui , la Commission de sécurisation n’est pas en mesure de proposer un moyen de sécurisation labellisé.


Voici les informations disponibles sur le site HADOPI ( rubrique FAQ ):


[« Qu'est-ce que le label Hadopi moyen de sécurisation ?


Dans les prochains mois, ce label vous permettra d’identifier facilement les moyens fiables pour sécuriser votre accès internet. Ce label est un service d’information. Vous n’avez pas l’obligation d’utiliser les logiciels labellisés. Vous restez donc libre de faire votre choix parmi les offres existantes.


Existe-t-il une liste des moyens de sécurisation labellisés ?


Cette liste est en cours d’élaboration. Vous pourrez la consulter sur le site internet de l’Hadopi.


Nous vous invitons donc à vérifier ultérieurement sa parution en consultant notre site internet.


Quelle est la différence entre un moyen de sécurisation et un moyen de sécurisation labellisé ?


Un moyen de sécurisation labellisé devra respecter des critères précis en matière de protection de l’accès internet.


Nous vous conseillons donc de vous orienter vers ces produits lorsqu'ils seront disponibles.


Cependant, vous avez toujours la possibilité d’opter pour des moyens de sécurisation non labellisés. »]


Fin de citation.


Les moyens de sécurisation fiables labellisés n’étant donc pas encore disponibles, l’usager ne peut se voir poursuivi pour un délit contre lequel il n’a pas les moyens  de se protéger.


Pour l’instant donc les usagers sont à l’abri des poursuites, ils ne peuvent recevoir que des avertissements, ce dont la plupart se moquent éperdument. D’autant qu’il existe d’autres moyens que le P2P pour télécharger des œuvres.


70 à 80 000 mails d’avertissement auraient déjà été envoyés, dont l’efficacité n’est pas encore mesurable.


L’Hadopi est parfaitement consciente de la faiblesse de sa position.


Les moyens  de sécurisation des accès internet (commercialisés par les éditeurs de logiciels) devront être labellisés par l’Hadopi pour obtenir leur certification.


Il s’agit de vérifier que le logiciel est conforme à un cahier des charges établi par l’expert désigné par l’Hadopi. Cet expert ( M.Riguidel) travaille sur ce cahier des charges depuis déjà deux ans et n’est pas encore en mesure aujourd’hui de proposer une version acceptable par la profession.


Trop de failles sont encore présentes et les difficultés d’implémentation sont trop grandes. De nombreuses dispositions techniques prévues sont des violations de l’espace privé inacceptables.


En clair, l’Hadopi est dans une  impasse. Pour essayer d’en sortir elle a décidé de remettre tout à plat et de créer des « Labs » chargés de faire le point des différents secteurs impliqués dans cette affaire.


Deux Labs concernent particulièrement le cahier des charges en question:


Lab « Réseaux et techniques »


- Spécifications fonctionnelles des moyens de sécurisation.


- Techniques de filtrage.


Lab « usages en ligne » , dont l’intitulé est éloquent.


Le téléchargement illégal est un réel problème; son éradication semble impossible sans porter atteinte aux libertés individuelles, ce qui ne sera pas toléré.


Une solution moins envahissante consisterait d’une part à mettre en place une campagne de sensibilisation, et d’autre part à promouvoir des structures de commercialisation des œuvres qui préservent équitablement les droits des auteurs et les intérêts des utilisateurs.


Peut-être également faudrait-il, avant de s’en prendre aux utilisateurs , inciter les acteurs de la filière à développer des produits et des matériels plus sécurisés. ceci englobe :


- Les ordinateurs.


- Les système d’exploitation.


- Les logiciels de navigation.


- Les logiciels de sécurisation.


- Les protocoles de communication, en particulier IP.


- Les protocoles de liaison sans fil.


- Les DRM


Etc….


Tout ce beau monde est rempli ( volontairement ou non) de failles de sécurité contre lesquelles l’utilisateur lambda est complètement démuni.


Il n’est pas normal qu’un utilisateur mal intentionné puisse prendre le contrôle d’un ordinateur sans l’accord de son propriétaire. Or aujourd’hui cela peut se pratiquer sans difficulté, avec du matériel et des logiciels commercialisés légalement.


D’autre part on ne peut pas exiger d’un utilisateur courant qu’il soit un informaticien expert, capable de détecter lui-même les intrusions malveillantes et de s’y opposer.


Peut-être pourrait-on également demander aux professionnels du net de mettre un peu d’ordre chez eux. Mais cela est-il possible sans une certaine violation des droits de l’individus ?


Affaire à suivre…..



 


 


 


 


 


 

Repost 0