Overblog Suivre ce blog
Administration Créer mon blog
18 juin 2012 1 18 /06 /juin /2012 11:47

 

18 Juin 2012

L’OMS vient donc d’annoncer le classement des émissions des moteurs Diesel en Groupe1, qui réunit les produits dont le caractère cancérigène est prouvé.

Quelles peuvent être les conséquences d’un tel classement ?

Rassurez-vous, aucune conséquence fâcheuse directe à court terme n’est attendue pour les pourvoyeurs de ces produits et leurs usagers.

Ce fameux Groupe 1 comporte 107 produits dont beaucoup sont encore d’usage courant, comme l’alcool et le tabac. Et, comme chacun peut le constater, ces produits ne sont l’objet d’aucune mesure d’interdiction de vente ou de consommation.

L’Amiante, déclaré cancérigène en 1973, n’a été interdit que 24 ans plus tard.

Le consommateur, qui ne peut ignorer les ravages provoqués par l’alcool et le tabac, continue cependant de consommer ces produits en toute indifférence.

Le groupe 1 comprend également les radiations solaires ultraviolettes, et cependant l’exposition des personnes, et surtout des jeunes enfants, n’est toujours pas interdite, ni même règlementée.

Il ne faut pas s’attendre à une réaction de rejet des consommateurs contre les moteurs Diesel, du moins tant que la fiscalité sur le carburant restera attractive.

L’annonce de l’OMS n’aura donc pas plus d’effet qu’un pet sur une toile cirée.

Les industriels de tout secteurs ont depuis longtemps entrepris des études pour réduire les émissions polluantes de leurs matériels, sous la pression des règlements Européens dans le cadre de la lutte contre la pollution de l’air ambiant. Le Diesel notamment a été particulièrement soigné grâce au montage des filtres à particules, qui restent cependant très controversés dans leur usage citadin, là où ils seraient le plus utile.

D’autre part les pouvoirs publics disposent de l’outil ZAPA ( Zones d’Actions Prioritaires pour l’Air) leur permettant de gérer de manière souple et progressive les éventuelles mesures restrictives de circulation.

Huit projets de ZAPA sont en cours d’études préliminaires.

Le classement de l’OMS, en offrant une base juridique, pourrait être une incitation à accélérer ces projets.

Mais une interdiction des centres villes aux véhicules les plus polluants, en principe les plus anciens, aurait un caractère socialement discriminatoire qui provoquerait un rejet de la population, avec des retombées électorales que tout élu aura à cœur d’éviter. Si seuls les véhicules de moins de cinq ans sont autorisés par exemple, c’est l’ensemble d’une classe sociale qui sera exclue, ce qui paraît assez surréaliste.

L’expérience malheureuse de feu la pastille verte aura au moins permis de toucher du doigt la complexité du problème.

La dépollution des centres villes n’est pas une mince affaire. La solution semble se trouver du côté de la promotion des moyens de transport collectifs électriques plutôt que par l’appel à des mesures discriminatoires fort impopulaires.

La généralisation des tramways et/ou métros avec extension des réseaux en banlieues est une première étape en voie de réalisation.

L’étape suivante pourrait être réalisée grâce aux véhicules hybrides à condition qu’ils puissent être généralisés sous peine de retomber dans des mesures discriminatoires.

Réduire les émissions polluantes des véhicules ne suffira pas à réduire la pollution urbaine. Les autres sources de pollution, notamment les chaudières au fuel, au charbon, ou au bois, devront faire l’objet de mesures aussi sévères sous peine de résultats globaux insuffisants.

Il s’agit donc d’une démarche généralisée qui passe par les économies d’énergie, le recours aux énergies durables, et le développement de solutions de transport écologiques.

Prendre le contre-pied des méthodes actuelles dispendieuses et indifférentes à l’environnement ne se fera pas sans remise en question de nos modes de vie, ce qui peut prendre plusieurs décennies.

Repost 0
14 juin 2012 4 14 /06 /juin /2012 17:49

 

14 Juin 2012

La polémique autour du Nucléaire a eu le mérite de faire remonter à la surface un risque essentiel non maîtrisé, celui de l’interruption accidentelle du refroidissement d’un réacteur.

Le rôle du fluide de refroidissement est d’évacuer la totalité de la puissance thermique développée par le réacteur. Une partie de cette puissance est utilisée pour faire fonctionner une turbine qui entraîne un alternateur, le reste est dissipé dans une tour de réfrigération ou dans la mer .

Les volumes de fluide de refroidissement nécessaires sont colossaux, pour un seul réacteur le débit est comparable à celui d’un fleuve de moyenne importance !

les pompes utilisées sont énormes.

L’interruption du refroidissement entraîne une catastrophe nucléaire majeure, à l’image de Fukushima.

Heureusement des dispositifs de sécurité permettent l’arrêt d’urgence contrôlé du réacteur. Des circuits de secours existent pour pallier les défaillances du circuit principal, des pompes, de l’alimentation électrique, ou de tout autre dispositif de régulation interne.

Mais certains évènements catastrophiques peuvent compromettre le bon fonctionnement de la chaîne de sécurité.

Il peut s’agir d’un évènement naturel dépassant les prévisions les plus pessimistes: Séisme, inondation, glissement de terrain.

Ou d’un évènement provoqué par la chute d’un avion, d’une météorite, voire même d’un attentat.

Si l’évènement neutralise la chaîne de sécurité, le réacteur peut s’emballer et atteindre des températures auxquelles tout ce qu’il y a dans la cuve fond et s’agglomère en un magma de combustible, d’acier, de Zirconium, le tout plus ou moins pâteux et à une température de 2500 à 3000 °C.

( Cette température correspond à un équilibre de la réaction de fission à la limite de criticité. Aucune explosion nucléaire n’est à craindre).

Ce magma est appelé CORIUM.

Sa température est telle que rien ne lui résiste, ni l’acier, ni le béton. Sa densité très élevée l’entraine vers le bas. En peu de temps la cuve d’acier est percée, et le produit se déverse sur le radier en béton, dans lequel il s’enfonce comme ferait un chalumeau dans de la cire.

Plusieurs mètres de béton peuvent être traversés en quelques jours.

On comprend que, lorsque le Corium a traversé le radier, il va contaminer gravement l’environnement et surtout les nappes phréatiques de proximité.

La situation se complique si le Corium entre en contact avec de l’eau. Le craquage de l’eau se produit à 850 °C environ, produisant entre autre de l’Hydrogène dont l’accumulation est cause d’explosions dévastatrices.

Le contrôle de ce Corium est l’un des problèmes majeurs des concepteurs de réacteurs, problème non encore résolu à ce jour de manière satisfaisante.

Pour tenter d’éviter le pire, il est important de prévoir un processus pour arrêter et refroidir ce Corium afin de lui ôter son pouvoir de nuisance.

Un tel dispositif n’existe pas sur les vieilles centrales, qui sont donc vulnérables à ce type d’accident.

Sur les EPR il est prévu tout un système pour canaliser le Corium vers une chambre d’étalement, laquelle chambre est munie de parois réfractaires et d’un réseau de refroidissement. Encore faut-il que ce réseau de refroidissement ne soit pas affecté par l’accident.

On trouvera ci-après un document de l’IRSN relatif à ce problème.

IRSN

AKTIS/ Actualité de la recherche à l’IRSN

N° 5-2, Numéro spécial. Septembre 2011

« Accidents de fusion du cœur - Réacteurs à eau sous pression

La cinétique d'ablation du béton par un corium

De récentes recherches permettent d'améliorer la prédiction de la cinétique d'ablation du béton du radier du réacteur par le corium, magma métallique résultant de la fusion du cœur. La percée du radier peut conduire au relâchement de produits de fission radiotoxiques.

L'interaction du corium avec le béton (ou ICB) peut percer le fond du radier et donc induire un relâchement de radioéléments dans l'environnement par perte du confinement. Pour évaluer le temps nécessaire pour percer le radier, l'IRSN développe un outil de simulation numérique intégré dans le logiciel de simulation des accidents graves . Il modélise les phénomènes mis en jeu dans l'ICB, notamment ceux traduisant l'influence de la composition du béton sur l'orientation privilégiée de son ablation par le corium .

Ces phénomènes, mis en évidence à l'aide d'expériences à échelle réduite et de simulations numériques , ont été modélisés et les modèles intégrés dans le logiciel Astec, ce qui permet d'extrapoler ces observations à l'échelle du réacteur. Les simulations de scénarios accidentels avec Astec tenant compte de l'influence du type de béton ont ainsi permis de réévaluer les délais de percement du radier en l'absence de refroidissement du corium : de l'ordre de quelques jours pour une épaisseur de radier entre 3 et 4 mètres ».

Fin de citation.

Cas particulier de la centrale de Fessenheim:

- Cette centrale ne comporte aucun dispositif de contrôle de Corium.

- L’épaisseur du radier n’est de 1,5 mètres, il serait donc transpercé en moins d’un jour.

- La centrale est construite sur la nappe phréatique Rhénane, dont le niveau est à - 8m à cet endroit, donc très vulnérable à une pollution par le Corium. Cette nappe est la plus importante d’Europe.

La pénétration du Corium et sa rencontre avec l’eau génèrerait un dégagement gazeux considérable qui créerait une surpression favorisant la dissémination des polluants radioactifs dans la nappe.

Un fois refroidi ( un mois, un an, dix ans? ) un Corium demeure très fortement radioactif et constitue une source de pollution de longue durée. De plus, son destin lorsqu’il a atteint le sous-sol, est inconnu.

Le maintient d’un programme nucléaire implique l’acceptation du risque de voir se produire quelques accidents majeurs susceptibles d’empoisonner durablement des régions entières.

La mise au point de mesures de contrôle d’un éventuel Corium est aujourd’hui l’un des problèmes majeurs des concepteurs de centrales. Ces études ne peuvent s’appuyer sur des expérimentations, et pour cause. Elles sont essentiellement basées sur des modélisations informatiques dont on connait l’imprécision lorsqu’elles ne sont pas soutenues par l’expérience de terrain.

Les analyses des catastrophes passées sont effectuées avec soin ( lorsque c’est possible) pour en retirer tout les enseignements utiles permettant d’éviter les mêmes erreurs dans le futur.

Mais ces progrès ne profiteront que très peu aux vieilles centrales dont la vulnérabilité restera entière.

 

 

 

 
Repost 0
13 juin 2012 3 13 /06 /juin /2012 11:40

Haro sur le Diesel.

13 Juin 2012

Le communiqué de l’OMS à la Presse sur le classement des émissions Diesel en Groupe 1 a fait du bruit dans Landernau.

Du grain à moudre pour les écologistes et pour la communauté des automobilistes diésélisés, au sein de laquelle les rumeurs les plus fantaisistes ont circulé.

Qu’en est-il exactement ?

En 1958 ( Mille neuf cent cinquante huit) l’OMS publiait le 5è rapport du Comité d’Experts de l’Assainissement. Ce rapport mettait déjà l’accent, entre autres, sur la nocivité des émissions des moteurs Diesel. Ce rapport ne faisait que prendre acte d’une situation que l’usager de l’époque pouvait constater tous les jours.

Depuis les technologies ont progressé, des normes sont venues périodiquement forcer la main des constructeurs afin qu’ils réduisent les émissions polluantes de leurs engins.

Mais, même si les panaches de fumée puante ont pratiquement disparu (pas toujours hélas), la nocivité des gaz est toujours présente malgré son invisibilité.

Aussi l’OMS, toujours soucieuse de notre petite santé, était-elle attentive à examiner ce qui sort de nos tuyaux d’échappement. Les moyens d’analyse étant considérablement perfectionnés depuis 1958, il fut constaté que près de 200 produits indésirables sont crachés par nos moteurs, et ceci dans la plus parfaite clandestinité eu égard à leur taille, les plus vicieux étant les plus petits.

A la suite d’études épidémiologiques assez peu concluantes car pas assez systématiques, l’OMS décida de classer les émissions Diesel dans le groupe 2A, c’est-à-dire « probablement cancérogènes ».

Dans le cadre général de la lutte contre la pollution de l’air ambiant, la Commission Européenne adopta des normes définissant des seuils de pollution par les particules, Euro 5 actuellement, Euro 6 bientôt, etc…

Ces normes, tenant compte des recommandations de l’OMS, ont imposé aux constructeurs d’automobiles des contraintes plus sévères, imposant l’utilisation de filtres à particules ( FAP) , et une gestion plus précises de la combustion.

(Ces mêmes normes imposent également des efforts similaires aux constructeurs d’appareils de chauffage à fuel ou a bois, et à toutes les utilisations susceptibles d’émettre des gaz d’échappement).

L’horizon semblait donc s’éclaircir quelque peu.

Il semble que l’OMS ait cru bon d’enfoncer le clou en rappelant la gravité de la menace représentée par les microparticules émises par les moteurs Diesel.

Ce rappel à l’ordre, décidé à l’occasion d’un colloque d’experts début Juin 2012, a surtout été inspiré par la publication en Mars 2012 d’une étude de l’US National Institute et du National Institute for Occupational Safety and Health. Cette étude porte sur le cancer du poumon chez les mineurs de fond exposés à des taux importants de pollution aux microparticules.

L’intérêt de cette étude est d’apporter la preuve du caractère carcinogénique des microparticules, c’est-à-dire de transformer en certitude ce qui n’était jusque là que probabilité.

Cette subtilité sémantique ne change pas grand-chose au problème, sinon qu’elle confirme la nécessité de continuer la lutte contre la pollution de l’air ambiant, ce que l’on savait déjà.

Le communiqué de Presse de l’OMS mentionne expressément le nom du coupable: le moteur Diesel.

« IARC: Diesel engines exhaust carcinogenic »

On peut donc s’attendre à de nombreuses communications sur ce point. Notamment sur l’efficacité des filtres à particules, sur la validité des tests de conformité aux normes, sur le sort qui sera réservé aux véhicules diesel anciens encore en circulation, et sur la pollution des moteurs à essence de nouvelle génération.

Gageons que l’affaire aura également son volet économique puisque vont se trouver face à face:

Les américains, qui ont une aversion pour le diesel.

Les européens, qui lui font le meilleur accueil.

Dans cette optique, la nouvelle Citroen hybride à moteur diesel peut sembler une véritable provocation.

Nous allons bien nous amuser…

Repost 0
12 juin 2012 2 12 /06 /juin /2012 09:55
 
12 Juin 2012
Dans l’article précédent nous évoquions la nouvelle ruée vers l’or noir, rendue possible par l’utilisation de nouvelles technologies de forage, et soutenue par un prix du baril positionné à un niveau élevé estimé stable.
Jusqu’à présent la France n’était pas directement concernée, eu égard à l’absence de ressources pétrolières et gazières significatives sur son territoire ( Oublions le gaz de Lacq et le Sahara, que les moins de vingt ans ne peuvent pas connaître) . Elle pouvait donc se permettre une certaine distance moralisatrice à l’égard des Etats peu soucieux des problèmes environnementaux, notamment concernant l’exploitation des gaz de schiste et des gisements de pétrole off shore profond. Le Canada et les Etats-Unis pouvaient être montrés du doigt en toute bonne conscience, la catastrophe de Deep water horizon pouvait faire la une de nos médias, ce n’était pas pour nous.
Mais aujourd’hui le tableau a changé. Notre sous-sol regorge de gaz de schiste, et l’on a découvert un probable gisement de pétrole au large de la Guyane, à l’intérieur de la Zone Economique d’Influence de 200 Miles, c’est-à-dire en territoire français.
Dans les deux cas l’Etat français se trouve alors devant la nécessité de prendre des décisions et de se positionner par rapport aux impératifs environnementaux.
Pour ce qui concerne l’exploitation des gaz de schiste, un moratoire a été décidé. Il paraît qu’il ne sera éventuellement levé qu’à la condition de faire appel à de nouvelles méthodes n’utilisant pas la fracturation hydraulique.
Acceptons-en l’augure.
Pour le pétrole de Guyane, nous avons de grandes espérances. Un permis « Guyane maritime » a été accordé à la société Tullow Oil pour la prospection du site. Un forage ultra profond a été réalisé, sous 2000 mètres d’eau et 3711 mètres de roche ( Forage « Zaedyus »). Le résultat serait très encourageant. D’autres forages sont lancés pour confirmer les premiers résultats et déterminer le potentiel du site.
Le consortium chargé du projet est constitué par Shell ( 45%), Total (25%), Tullow-Oil ( 27,5%) , et Northpet ( 2,5%).
La production débuterait éventuellement entre 2015 et 2020.
Les organisations locales et internationales de défense de l’environnement protestent énergiquement contre ce qui est perçu comme une atteinte potentielle grave d’une zone très fragile.
La France, qui jusque là pouvait exhiber des mains propres non souillées de pétrole ( sauf de celui qu’elle achète sur les marchés) , va donc rejoindre la cohorte des pays pollueurs.
Sauf si l’éthique de la nouvelle équipe gouvernementale lui suggère des décisions drastiques allant dans le sens de l’abandon du site.
Il va de soi qu’une telle décision n’aurait de sens que si elle était accompagnée d’une interdiction d’importer des produits pétroliers de provenance non conventionnelle.
Occurrence fort improbable…
 
 
 
 
 
 
Repost 0
11 juin 2012 1 11 /06 /juin /2012 18:10

 

11 Juin 2012

« Je vis également Sisyphe, en proie à ses tourments. Il soulevait de ses deux bras un rocher gigantesque. Arc-bouté des pieds et des mains, il poussait ce grand bloc vers le sommet d’une hauteur, mais à peine allait-il le faire basculer, qu’il retombait de tout son poids et le bloc sans pitié roulait de nouveau vers la plaine. Mais lui recommençait, bandant ses muscles. La sueur ruisselait de son corps, et la poussière le nimbait. »
Ce passage d’Homère illustre merveilleusement la situation des écologistes attelés à la tâche gigantesque qui consiste à essayer d’endiguer les assauts des destructeurs de la planète.

Le CO2, le nucléaire, le pétrole, le gaz de schiste, les sables bitumineux, les forages offshore, les nanoparticules, les OGM, les algues vertes, les oxydes d’Azote, le Radon, les additifs alimentaires, les nitrates, les marées noires, le phosphogypse, les micro ondes, les métaux lourds, les méga décharges, la déforestation, la surpêche, le nuage brun d’Asie, les pesticides, etc.

Il faut avoir la foi chevillée à l’âme pour repousser la tentation de baisser les bras devant une tâche aussi démesurée; tirons notre chapeau.

Ces derniers temps, un coin de ciel bleu était venu apporter un peu d’espoir à nos modernes «Sisyphe » . L’Agence internationale de l’énergie confirmait que la production pétrolière avait atteint son maximum en 2010, et commençait à décroître.

Les courbes laissaient prévoir une pénurie avant 2020.

Fini donc l’ère de l’huile puante, voici venue le triomphe des énergies nouvelles propres et décarbonnées, ce combat là au moins semblait gagné.

Hélas, c’était sans compter avec la malignité des hommes. La perspective de pénurie, aidée par quelques soubresauts géopolitiques, a porté le prix du précieux baril à des hauteurs dignes de considération.

Ce qui n’était pas possible avec un baril à 20 Dollars devient très juteux à 100 pour les pourvoyeurs de l’huile.

La perspective d’un prix du baril durablement élevé a provoqué une nouvelle ruée vers l’or noir, mettant à portée des marchés des réserves nouvelles reportant la pénurie aux calendes grecques.

Non seulement le pétrole refait surface, mais en plus les nouveaux procédés d’exploitation imposent à la planète des atteintes environnementales inacceptables.

La guerre doit donc reprendre de plus belle, avec l’objectif de laisser ce nouveau pétrole là où il est, c’est-à-dire sous le plancher océanique et sous la croute continentale.

Mais cette ambition sera-t-elle à la mesure des moyens que le mouvement écologiste peut mobiliser ?

Bien sûr ce mouvement peut s’appuyer sur un grand élan de sympathie dans la population, mais la sympathie n’implique pas forcément l’engagement sur le terrain, les résultats des dernières élections l’ont bien montré.

Et puis notre société n’est-elle pas fondamentalement schizophrène ?

Avides de biens de consommation, nous voulons bien consommer écologique, mais à condition que cela soit rentable. Or l’écologie n’est pas une démarche commerciale, c’est un comportement de survie qui doit garantir à nos descendants des conditions de vie décentes.

Cela implique des sacrifices que peu d’entre nous sont disposés à accepter.

Face à cette mobilisation dépourvue de puissance politique, il y a l’insatiable demande de la planète qui aspire à un progrès devenu inséparable de l’énergie.

Allons, il faudra encore pousser le rocher en espérant qu’un jour il franchira la crête…

Repost 0
9 juin 2012 6 09 /06 /juin /2012 10:10

 

9 Juin 2012

La définition d’une stratégie énergétique pour la France sera l’un des piliers du quinquennat.

Il n’est plus imaginable de continuer à tirer des bords entre les parcs éoliens off shore et les réacteurs nucléaires de quatrième génération sans jamais fixer clairement un cap au bateau France.

Il sera de plus en plus difficile de faire croire que l’on peut à la fois investir des sommes colossales dans le nucléaire, dans les énergies durables, dans les économies d’énergie, tout en soutenant les politiques du logement, de l’Education, de la Santé, de lutte contre la pollution, le tout dans un contexte de dette souveraine indécente.

La distribution de gages aux uns et aux autres n’est pas une stratégie, tout au plus un procédé pour calmer la foule, un peu comme le capitaine d’un navire fait jeter de l’huile pour calmer les vagues sans pour autant arrêter la tempête.

Fessenheim , c’est donc l’huile que l’on jette à la mer en pleine tempête pour calmer les vagues écologistes.

Fessenheim est un vieux machin entré en service en 1977. Après 35 ans de bons (?) et loyaux services, plus que deux ans et demi pour accomplir les 150 trimestres autrefois requis par la CNAV pour avoir droit à la retraite des vieux travailleurs. Mais la loi a changé, il faut maintenant 166 trimestres pour être libre de passer ses journées à la pêche.

Notre vieux Fessenheim sera donc admis à faire valoir ses droits à la retraite en 2017 seulement.

C’est du moins la date de départ qui a été annoncée par Nicole Bricq, Ministre de l’écologie, du Développement durable, et de l’Energie.

( Ceux qui trouveraient étrange cette coïncidence entre cette échéance et la fin de la mandature présidentielle feraient preuve de mauvais esprit).

Les tenants de la sortie du nucléaire sont évidemment furieux. Cinq années pour arrêter une centrale qui pourrait l’être en quelques heures !

A ce rythme, on n’est pas sortis de l’auberge. En 2025, c’est tout au plus deux centrales supplémentaires qui seraient mises à l’arrêt.

L’éventuelle mise à la retraite anticipée de Fessenheim, ou non, sera donc le test de la volonté du Gouvernement d’infléchir la stratégie énergétique du pays. Une prolongation de cinq ans induirait un doute sérieux sur la volonté de changement de la nouvelle équipe.

Il va de soi que cet arrêt de Fessenheim n’aurait de sens que s’il est accompagné de l’arrêt des travaux à Flamanville.

 

 

Repost 0
8 juin 2012 5 08 /06 /juin /2012 16:14

 

8 Juin 2012

Dans l’article précédent nous avons vu que la notion de « peak-oil » est toute relative.

Les experts de l’AIE ( Agence Internationale de l’Energie) présentent un cycle de production pétrolière mondiale en trois phases ( voir graphique dans l’article du 7 Juin):

Une première phase concerne la production des gisements en cours d’exploitation. Cette production aurait déjà atteint son maximum en 2010, à 70 Millions de barils par jour et chuterait jusqu’à 20 Mbarils/j en 2035.

Sur cette seule ressource nous serions donc déjà entrés en pénurie.

A cette production déclinante, L’AIE ajoute la future production correspondant à la montée en puissance des nouveaux gisements déjà découverts et encore en début d’exploitation, c’est la deuxième phase. Le peak-oil se trouve alors reporté à 2015-2020.

Une troisième phase vient éloigner encore l’échéance, constituée de la production de gisements encore à découvrir. Le peak-oil est reporté au-delà de 2035. Cette troisième phase est évidemment problématique.

Ces trois phases contribueraient pour 70 % à la production mondiale en 2035.

Le reste de la production étant constitué du pétrole non conventionnel et du pétrole obtenu par les procédés GTL, CTL, ou BTL ( Gas To Liquid, Coal To Liquid, Biomass To Liquid).

Selon le crédit que l’on accorde à cette belle construction de l’AIE, on pourra à loisir affirmer que le peak-oil s’est déjà produit, ou qu’il se produira entre 2015 et 2020, ou bien qu’il est reporté aux calendes grecques.

( Les calendes grecques se situant au choix en 2035 ou à la Saint Glin-glin).

Point n’est besoin de consulter madame Irma pour comprendre que la probabilité d’une baisse de la production mondiale avant 2035 est assez élevée, suffisamment pour inciter les Etats à commencer sérieusement à rechercher des solutions de rechange.

Les procédés de liquéfaction de différentes substances énergétiques sont de bons candidats pour plusieurs raisons:

- Le secteur des transports routier, aérien, et maritime, restera encore longtemps dépendant des carburants liquides. L’électrification n’interviendra que très lentement et partiellement, et le transfert de la route au rail n’est pas pour demain matin. Quant à réduire le besoin en transport, c’est une option assez improbable avant longtemps.

- Face à la probable incertitude croissante des approvisionnements en pétrole, les Etats non producteurs devront fabriquer du carburant de synthèse sous peine de compromettre leur indépendance stratégique.

- Le maintien d’un prix élevé du pétrole et la forte probabilité d’augmentation de ce prix permettent de rentabiliser les procédés de liquéfaction qui sont par nature plus onéreux que le simple raffinage.

Ce qui n’était pas rentable économiquement avec un pétrole à vingt dollars devient très intéressant à 100 ou 200 dollars !

- La transformation du gaz en produits pétroliers liquides permet leur acheminement facile à partir de sites éloignés, notamment off shore (Small scale technology).

- Les procédés de liquéfaction, basés sur la réaction de Fischer-Tropsch, sont bien connus, et peuvent être mis en œuvre industriellement avec les technologies du moment.

Les rendements ne sont pas extraordinaires, l’IFP cite les valeurs suivantes:

56% pour le GTL.

43% pour le CTL.

33% pour le BTL.

Ce rendement est exprimé en rapport de l’énergie du produit final à l’énergie du produit entrant.

Ces résultats peuvent être améliorés, mais lorsque l’aspect stratégique prime, le rendement devient secondaire.

Il en va différemment lorsque c’est l’impact sur l’environnement qui prime.

L’Afrique du Sud, qui possède beaucoup de charbon, a construit plusieurs usines de liquéfaction qui ont permis de couvrir le tiers de ses besoins. La Société SASOL est aujourd’hui le spécialiste mondial.

En 2011 la Shell a inauguré au Qatar une usine le production de produits pétroliers à partir du gaz naturel ( Pearl GTL) d’une capacité de 140 000 barils/jour.

Les Etats-Unis ont mis sur pied un programme de développement de ce type de carburant à partir du gaz naturel ( NGCP, Natural Gas Conversion Process).

Il ne fait pas de doute que le mouvement est lancé, avec malheureusement des dégâts collatéraux causés par des émissions de CO2 abondantes.

Il est évident aussi que les investissements importants consentis pour ces nouveaux procédés de transformation ne seront pas disponibles pour le développement des énergie renouvelables.

Les Etats qui ne disposent pas de ressources fossiles sur leur territoire devront profiter du répit qui leur est offert par les marchés pour investir massivement dans les énergies nouvelles sous peine de se trouver vassalisés lorsque les énergies fossiles seront en fin de vie.

La question est: quelle sera la durée du répit ?

Repost 0
7 juin 2012 4 07 /06 /juin /2012 14:58
 
7 Juin 2012
Dans l’article précédent ( 6 Juin) nous avons tenté de deviner ce que pourrait être notre futur énergétique dans la perspective de l’épuisement des ressources pétrolières.
Il est vite apparu que la clé du scénario est l’échéance du peak oil, à partir duquel devront impérativement se mettre en place les solutions de substitution.
Il n’existe pas de consensus sur la date, même approximative, du peak-oil. En effet, cette date est obtenue par compilation des données sur les réserves estimées, les éventuelles nouvelles découvertes, la consommation, et bien d’autres éléments dont le poids qui leur est arbitrairement affecté modifie significativement la prévision.
Il n’est donc pas pertinent d’affirmer que telle date est plus valide que telle autre; à tout le moins, il faut donner ses sources.
Faute de consensus planétaire sur le peak-oil, il nous a paru raisonnable de retenir les données de l’Institut Français du Pétrole ( IFP Energies Nouvelles) dont la compétence ne nous paraît pas suspecte.
Le graphique ci-dessous montre l’évolution de la production de pétrole.
Graphique-evolution-production-petrole.png 
Selon IFPEN le peak-oil apparaît autour de 2030 pour le pétrole conventionnel, la relève étant assurée par le pétrole non conventionnel.
( Graphique extrait du document PDF « Contexte pétrolier et tendances » mis en ligne par IFPEN).
Bien noter que les données incluent les LGN, Liquides de Gaz Naturel.
Il est bien précisé qu’il s’agit d’une simulation, laquelle peut toujours être contestée.
( Les remarques peuvent être adressées directement à l’auteur:
 
Ces prévisions ne font apparaître aucun risque de pénurie d’ici la fin du siècle.
Le graphique ci-après émane de l’AIE, et donne des informations plus détaillées:Evolution-prod-petrole-et-autres_AIE.jpg
L’on y voit qu’effectivement la pénurie s’éloigne, mais à condition de basculer vers des produits non conventionnels à partir de 2010.
Or ces produits non conventionnels comprennent les huiles de schistes, les huiles de forages off shore profonds, et les produits extraits de l’exploitation du sous-sol de l’Arctique, qui tous sont potentiellement très polluants pour l’environnement.
Pour la protection de la planète il serait donc raisonnable de renoncer à aller chercher les ressources non conventionnelles et choisir plutôt de développer les énergies durables.
Mais est-il raisonnable de faire appel à la raison des hommes ?
 
Repost 0
5 juin 2012 2 05 /06 /juin /2012 18:15

 

05 Juin 2012

Certains écologistes espèrent que notre planète sera rapidement sauvée par l’épuisement des ressources pétrolières. Le « peak oil » sera le signe précurseur de la fin des temps de l’énergie polluante et ouvrira les horizons radieux vers lesquels nous conduiront les énergies renouvelables non polluantes enfin reconnues à leur juste valeur.

Quand donc se produira ce fameux peak oil ? C’est simple, il suffit de connaître le montant des réserves de la précieuse huile, et de le confronter à la consommation mondiale, disponible dans toutes les bonnes statistiques.

Mais, si l’on connaît à peu près l’évolution de la consommation passée, il est plus difficile de prévoir la demande future ( Mme Irma n’est pas compétente dans ce domaine). Aujourd’hui la demande est croissante, mais n’importe quel évènement géopolitique peu modifier cette tendance.

Quant aux réserves, il suffit de consulter les augures officiels de différentes obédiences pour constater que les avis divergent fortement.

A la décharge de ces experts, il faut reconnaître que la notion même de réserve est assez vague, dépendant fortement des progrès des techniques d’extraction, de la réévaluation des gisements connus, de l’optimisme des évaluateurs, de la découverte de nouveaux gisements, du cours du baril qui justifie ou non les investissements dans de nouvelles technologies, et aussi de la crédibilité des chiffres annoncés. De plus les réserves nouvelles correspondant aux sables bitumineux, aux forages offshore profonds et aux huiles de schistes, ne sont pas exactement connues.

Selon donc l’un ou l’autre de ces experts, l’occurrence du peak oil se situerait entre 2010 et 2030.

Les premiers signes de la pénurie pourraient donc se manifester dans une ou deux décennies, frappant les trois coups annonciateurs de la catastrophe pour les uns, ou du triomphe pour les autres sur l’air de « on vous l’avait bien dit… ».

Mais les tenants de la privation rédemptrice risquent d’être déçus.

En effet, il existe des réserves considérables de charbon et de gaz naturel, auxquelles sont venues s’ajouter les réserves de gaz de schiste qui, même si elles sont violemment décriées, seront et sont déjà en exploitation.

Ces combustibles sont facilement substituables au pétrole pour de nombreuses applications telles que la production d’électricité, le chauffage, et l’industrie.

Quand aux applications qui nécessitent un combustible liquide, essentiellement les transports non électrifiés, ils pourront utiliser des carburants de synthèse obtenus à partir du charbon, du gaz naturel, ou le la biomasse. D’importantes usines de production de tels carburants sont déjà opérationnelles.

(L’efficacité énergétique des procédés employés est une autre problème).

La pénurie qui nous menace n’est donc plus celle du pétrole, mais plutôt celle du charbon et/ou du gaz.

Côté gaz l’optimisme est à la mode. On parle de 250 ans de réserves au rythme actuel de consommation ( 50% gaz conventionnel, et 50% non conventionnel ).

Dans l’hypothèse où ce gaz devrait remplacer le pétrole défaillant, le délai de grâce serait évidemment fortement raccourci, probablement ramené à sept ou huit décennies « seulement ».

Ce qui nous mène tout de même à la fin de ce siècle; la panne sèche ne serait donc pas pour demain matin.

Ce délai de grâce ne nous dispense pas d’avoir à préparer la révolution énergétique qui ne manquera pas de s’imposer à nous avant la fin du siècle.

Pour les pays dépourvus de ressources énergétiques intérieures comme la France, cette révolution est encore plus impérieuse car l’énergie qui sera éventuellement encore disponible sur les marchés deviendra de plus en plus chère et la facture énergétique insupportable.

Les hommes politiques auront la tâche de résister aux sirènes des marchés qui proposent encore de l’énergie à un coût abordable, et de décider d’investir dans une stratégie d’avenir plutôt que suivre la politique du chien crevé au fil de l’eau…

Repost 0
1 juin 2012 5 01 /06 /juin /2012 19:24
 
1er Juin 2012
Triste anniversaire:
Le 19 Mai 2011 la Commission Européenne a renvoyé la France devant la Cour de justice de l’UE pour
« Non respect des valeurs limites …applicables aux particules en suspension connues sous le nom de PM10 ».
Ce retard de la France dans la prise en compte du risque de santé publique créé par la pollution atmosphérique en milieu urbain est à mettre sur le compte d’une certaine exception culturelle, celle-là même à qui nous devons notre retard en matière d’énergies nouvelles.
Dans les deux cas la compétence de nos chercheurs et ingénieurs n’est pas en cause; ce qui nous fait défaut c’est la courroie de transmission entre les laboratoires et le terrain, la chaîne décisionnaire qui permet de passer d’un prototype à l’application.
Cette chaîne est Politique.
Et la Politique n’est pas le meilleur matériau pour fabriquer une chaîne efficace.
Pourtant, en matière de connaissance de la nature, des sources, et de la mesure de la pollution atmosphérique ainsi que de l’étude de ses effets, nous avons les meilleurs experts.
Citons simplement l’ouvrage exhaustif publié sous l’égide de l’INRS sous la direction de Benoît Hervé-Bazin:
« Les nanoparticules, un enjeu majeur pour la santé au travail »
EDP Sciences, 2007, ISBN 978-2-86883-995-4
Et, pour la mesure de la pollution atmosphérique, nous conseillons au lecteur la synthèse publiée par AIRPARIF.
La plupart de nos données chiffrées sont extraites de ces deux documents.
Il existe des normes européennes fixant des limites à la concentration de particules polluantes dans l’atmosphère.
Aujourd’hui, pour faire simple, la limite en vigueur est de 50 micro gramme par mètre cube pour les PM10.
(Les PM10 sont les particules dont le diamètre équivalent est inférieur à 10 microns).
Cette limite ne doit pas être dépassée pendant plus de 24 Heures, et plus de 35 jours par an, la moyenne annuelle devant rester inférieure à 40 micro gramme par mètre cube.
La France n’a pas respecté ces limites, et se trouve exposée à des sanctions financières.
En pratique, ce sont les particules fines et ultrafines qui sont les plus nocives pour la santé. Ces particules, inférieures à 2,5 microns, pénètrent à l’intérieur des voies respiratoires, s’y déposent, et causent les ravages que l’on imagine.
La lutte contre ces particules est difficile car on imagine aisément que leur taille leur permet de s’insinuer partout.
Par exemple les filtres à particules dont sont équipés les moteurs modernes laissent passer les particules inférieures à 2,5 microns ( PM2,5).
Les PM10 font l’objet de mesures de concentration massique, et les limites sont données en masse par mètre cube.
Cette méthode n’est pas valable pour les PM2,5 car ce n’est pas leur masse qui est importante, mais leur nombre.
La mesure dans ce cas est difficile à mettre en œuvre, longue, et son automatisation pose problème.
La Commission Européenne a pourtant introduit des limites pour la pollution par les PM2,5, qui seront en principe applicables à partir de 2015 .
Les valeurs courantes mesurées pour la pollution atmosphérique par les PM2,5 en concentration massique ne semblent pas alarmantes. On trouve des moyennes de 20 microgrammes par mètre cube.
Mais il est important d’insister sur l’importance du nombre des particules correspondant à ce chiffre.
20 microgrammes de particules dont le diamètre équivalent massique moyen est de 100 nanomètres correspondent à une concentration de 20000 particules par cm3 ( entre 10 000 et 50 000 ).
En 24 heures un individu en milieu urbain inhale donc un volume d’air contenant environ 1000 Milliards de particules polluantes!
Un certain nombre de ces particules se déposent dans les voies respiratoires selon leur grosseur. Voies supérieures, trachée, bronches, et jusqu’aux alvéoles pour les plus petites ( nanoparticules).
La plupart sont évacuées par les mécanismes de défense ( macrophages, clairance pulmonaire) , mais ces mécanismes peuvent être débordés. Dans ce cas apparaissent des problèmes respiratoires chroniques et parfois des cancers.
Il a été établi de manière indiscutable un rapport entre la concentration des particules dans l’atmosphère et la fréquence des maladies respiratoires et des cancers.
D’autre part, il n’a pas été mis en évidence de seuil en-dessous duquel les particules seraient inoffensives.
Nous sommes donc en présence d’un problème majeur de santé publique susceptible de causer des dégâts comparables à ceux de l’amiante.
Les sources anthropiques d’émission de particules sont diverses, comme en témoignent des graphiques ci-dessous:
 
Origine-des-particules.png 
Tous les secteurs d’activité contribuent à la pollution. Les transports sont souvent montrés du doigt mais ils n’apportent pas la plus forte contribution.
Les mesures de dépollution des moteurs de nos automobiles seront insuffisantes si des mesures comparables ne sont pas appliquées aux autres sources, particulièrement le résidentiel/tertiaire pour le chauffage, et l’industrie.
A suivre…
Repost 0