Overblog Suivre ce blog
Administration Créer mon blog
29 avril 2013 1 29 /04 /avril /2013 19:04

29 Avril 2013

La problématique de la transition énergétique comporte la nécessité d’effectuer des choix à partir desquels seront fixées les grandes orientations.

L’ensemble de la démarche repose sur deux piliers:

Le Nucléaire et les énergies renouvelables.

Les choix effectués dans ces deux domaines définiront la physionomie de la transition énergétique pour les trente prochaines années.

Les énergies renouvelables, qui sont essentiellement l’Eolien, le Solaire, et l’Hydraulique, fournissent leur production sous la forme d’électricité. Elles ont pour caractéristique principale d’être intermittentes. C’est évident pour les deux premières; pour l’hydraulique il suffit de se rappeler l’importance des conditions climatiques sur le remplissage des barrages.

Le nucléaire fournit également de l’électricité, mais possède en plus un énorme potentiel d’énergie calorifique aujourd’hui non utilisé, mais récupérable grâce à la cogénération, déjà mise en œuvre sur certaines centrales thermiques.

Le concept de transition énergétique a été initialement bâti sur la volonté de réduire les émissions de CO2 d’une part, et de préparer « l’après pétrole » d’autre part. Accessoirement, et au moins pour la France, acquérir l’indépendance énergétique.

Ces résultats peuvent être atteints grâce à deux stratégies différentes:

La première consiste à réduire drastiquement l’emploi des combustibles fossiles carbonés, et à les remplacer par des sources renouvelables éventuellement à carbone recyclable. C’est la voie des biocarburants (Biomasse en général) associés au Solaire, à l’Eolien et à l’Hydraulique, avec ou sans sortie du nucléaire.

La deuxième stratégie consiste à conserver les combustibles fossiles carbonés, en mettant en œuvre des procédés de CSC (Capture et Séquestration du Carbone) et en diversifiant les sources d’approvisionnement, éventuellement nouvelles.

(C’est la voie qui incorpore les gaz de schiste, que certains pays n’ont pas hésité à emprunter).

Cette deuxième stratégie étant complétée par un programme d’énergies nouvelles plus ou moins massif selon la sortie ou non du nucléaire.

Il existe évidemment une troisième voie, qui est un mix des deux autres, et qui permet de temporiser en gardant plusieurs fers au feu.

Quelle que soit la stratégie choisie, elle n’échappera pas à la nécessité de mettre en œuvre un programme de réduction de la consommation, qui est en quelque sorte, le tronc commun.

La France n’a pas encore défini ses choix pour la transition énergétique.

Un grand débat national a lieu actuellement sur le sujet et des décisions doivent être annoncées fin 2013.

La nécessité de définir cette stratégie aujourd’hui n’est pas juridiquement plus impérieuse que celle de réduire le déficit budgétaire en-dessous de 3%, ni celle de rembourser la dette nationale.

Certes il existe l’engagement du « facteur 4 », mais qui n’engage que celui qui veut bien y croire, comme dit la sagesse populaire.

Les Etats ne sont donc pas contraints et conservent la liberté de choisir leur feuille de route et leur calendrier.

Que fait la France ?

La stratégie avec un grand S n’étant pas encore fixée, seule a été actée la mise en œuvre du tronc commun, les économies d’énergie, le gisement d’économie le plus important étant le secteur Résidentiel-Tertiaire vers lequel sont appliquées les mesures incitatives pour l’efficacité énergétique, le programme de diagnostic de performances énergétiques, et la réglementation thermique RT 2012, que doivent respecter toutes les nouvelles constructions. L’objectif BBC (Bâtiment Basse Consommation) étant déjà fixé pour la prochaine décennie ( RT 2020).

Par ailleurs la mise en service programmée des compteurs « intelligents » permettra un lissage des pointes de consommation et une meilleure utilisation de l’énergie, réduisant ainsi le besoin en production de base.

Les modifications d’un parc de logements ne sont réalisables que sur la durée, quelques décennies seront nécessaires pour observer des résultats d’ensemble.

Cette très longue constante de temps justifie la mise en œuvre prioritaire du tronc commun visant la réduction des consommations.

On peut à cette occasion souligner une contradiction:

La règlementation RT2012 fixe une limite de consommation définie en termes d’énergie primaire, ce qui exclue d’emblée l’électricité.

En effet, lorsque le fuel ou le gaz sont utilisés en installation domestique, l’énergie finale ( utilisée) est égale à l’énergie primaire. Par contre si l’électricité est utilisée, l’énergie primaire comptée par la RT2012 et égale à 2,58 fois l’énergie utile.

Ceci pour tenir compte du rendement des centrales thermiques ou nucléaires qui sont utilisées pour produire l’électricité.

Un bâtiment qui consommera 50 Kwh/m2/an en fuel ou en gaz sera réputé en consommer 130 s’il utilise l’électricité, ce qui le rend non conforme à la règlementation alors qu’il s’agit du même bâtiment avec les mêmes performances thermiques.

Le législateur a donc volontairement exclu l’énergie électrique dans la transition vers des bâtiments basse consommation, en la rendant artificiellement non compétitive par rapport au fuel ou au gaz.

Nous aurons donc, dans dix ou vingt ans, un parc de bâtiments fonctionnant au fuel ou au gaz, alors que le but de la transition énergétique est justement de s’affranchir des énergies fossiles !!!

Le GIFAM ( Groupement Interprofessionnel des Fabricants d’équipements Ménagers) a déposé un recours auprès du Conseil d’Etat pour obtenir une modification de la RT 2012, mais sans succès jusqu’à présent sinon celui d’obtenir un délai de trois mois au cours duquel des discussions pourront être élargies au ministère de l’économie.

Tout n’est donc pas perdu et il n’est pas impossible que le bon sens triomphe finalement de l’obscurantisme.

Mais restons vigilants.

Par ailleurs, le prix public de l’électricité est artificiellement chargé de plusieurs taxes ( TCFE, CSPE ) dont le gaz est exempté, ce qui confirmerait la volonté des pouvoirs publics d’écarter l’électricité du secteur domestique résidentiel ?

Enfin est-il nécessaire de souligner que, si actuellement le coefficient 2,58 qui pénalise l’électricité peut se justifier dès lors qu’elle provient d’une centrale thermique, cela n’aura plus aucun sens lorsqu’elle sera fournie par de l’éolien, du solaire ou de l’hydraulique, ce qui est tout de même le but de la transition !

Mais il sera trop tard pour faire machine arrière, les bâtiments RT2012 et RT 2020 étant alors déjà équipés en Gaz ou en fuel.

( En 2011 la part du chauffage électrique dans le collectif est déjà tombée à 40% contre 70% encore en 2007).

On se demande alors pourquoi développer massivement une production d’électricité éolienne et/ou solaire si les principaux consommateurs d’énergie seront alimentés en gaz ou en fuel.

On comprend mieux dès lors le peu d’empressement mis par les pouvoirs publics à booster le développement de ces énergies nouvelles, et l’intérêt manifesté pour les gaz de schiste susceptibles de remplacer l’électricité dans les applications d’énergie du bâtiment.

Se pourrait-il que l’énergie de l’avenir soit le gaz de schiste, après tout le tintamarre fait autour du CO2 ?

Tout cela est très schizophrénique, n’est-il pas ?

Repost 0
25 avril 2013 4 25 /04 /avril /2013 10:38

Le gaz de schiste, coucou le revoilou.

25 Avril 2013

Quelques-uns en France ont pu croire un moment que l’affaire des gaz de schiste était enterrée, que les mises en garde contre cette nouvelle calamité avaient été entendues, comprises, et que désormais les pouvoirs publics respecteraient les recommandations des écologistes et renonceraient à exploiter ces réserves.

Ils ont pris leurs désirs pour des réalités (sur d’autres sujet aussi d’ailleurs, mais ceci est une autre histoire…).

Il y eu certes des engagements du Gouvernement (Loi du 13 Juillet 2011). Mais la lecture attentive du texte indique sans équivoque que seule l’exploitation par fracturation hydraulique est interdite. La porte est restée entrebâillée pour d’une part l’exploration à des fin d’inventaire des réserves, et d’autre part pour une exploitation utilisant une méthode préservant l’environnement.

Les unités de recherche et développement des industries énergétiques n’ont jamais cessé de travailler à la mise au point de cette fameuse méthode « écologique » qui rendrait acceptable le prélèvement du produit.

Lorsque l’on prend la juste mesure du problème énergétique d’un pays développé qui ne possède aucune ressource conventionnelle dans son sous-sol, on comprend dans le même temps qu’il est illusoire de croire qu’une éventuelle ressource nouvelle découverte sur le territoire pourrait demeurer inexploitée bien longtemps. On peut le déplorer au nom de principes écologiques parfaitement respectables, mais il est fort peu probable que ces principes suffisent à freiner la fringale de notre société de consommation, dont la fièvre énergétique se maintient à un niveau élevé malgré les exhortations en faveur d’une modération des gaspillages.

C’est ainsi que pendant que les deux chambres amusent la galerie avec des sujets dont l’urgence a échappé à beaucoup d’entre nous, les parlementaires s’intéressent discrètement aux choses sérieuses, et entre autres aux gaz de schiste ( pudiquement appelés dorénavant « Gaz non conventionnels » ).

L’OPECST , Office Parlementaire d’Evaluation des Choix Scientifiques et Techniques, créé en 1983, est un organisme paritaire comprenant 18 Députés et 18 Sénateurs, en principe de tous horizons politiques, et chargé de l’information du Parlement sur les sujets destinés à être débattus en séances, pour « éclairer » leurs décisions.

Cette honorable institution a initié récemment un rapport sur les gaz de schiste:

"Techniques alternatives à la fracturation hydraulique pour l'exploration et l'exploitation des hydrocarbures non conventionnels"

Le rapport final est prévu pour l’Automne 2013.

Cet exposé préliminaire laisse transparaître la volonté de ne pas passer à côté d’une opportunité pour notre Pays, mais aussi de prendre en compte les aspects environnementaux, que personne ne songe à négliger.

Certains auraient préféré voir le problème enterré au nom du principe de précaution. Il semble que le principe de survie énergétique soit au moins aussi fort. Il en sera ainsi tant que les consommateurs et les industriels n’auront pas apporté la preuve qu’ils peuvent réduire drastiquement leurs besoins d’énergie.

Notre société peut être comparée à un homme en train de se noyer; il lui suffit de sortir la tête de l’eau pour pouvoir respirer, seulement cet air est pollué. Que croyez-vous qu’il fera ? Il choisira de survivre, tout en sachant que la pollution le tuera à petit feu.

Aucun principe ne tient devant l’instinct de survie…

On trouvera ci-dessous le lien vers le document exposant les motivations de cette étude.

http://www.assemblee-nationale.fr/14/cr-oecst/faisabilite_hydrocarbures_non_conventionnels.pdf

Repost 0
23 avril 2013 2 23 /04 /avril /2013 15:43

23 Avril 2013

En France un impôt ne saurait être « républicain » sans ménager un certain nombre de niches destinées à abriter des cohortes de « non assujettis ».

Ces niches vont de la simple réduction d’un taux d’imposition jusqu’à l’exemption totale en passant par les abattements spéciaux et les crédits d’impôt, voire même les remises « gracieuses » . Leur efficacité est démultipliée par de savants mécanismes de calcul de l’assiette.

Il existe ainsi une pyramide de niches permettant à chaque contribuable de trouver son bonheur en mettant une part de ses gains à l’abri des convoitises du percepteur. Ces « exceptions culturelles » font partie de l’ « acquis social » et structurent la sphère économique.

Autant il est facile de créer une nouvelle niche, autant tenter d’en supprimer une est une entreprise souvent insurmontable, tentative ressentie par la corporation visée comme une atteinte à la liberté d’entreprendre.

Les carburants n’échappent pas à la règle.

Dans les années soixante l’Etat choisit de favoriser les utilisateurs de gazole en créant une niche fiscale sur la taxation de ce carburant.

Cet avantage, joint à la consommation réduite des moteurs Diesel et à leur grande réputation de robustesse, à conduit à la situation actuelle, renforcée ces dernières années par la lutte contre le CO2.

C’est ainsi qu’autrefois réservé aux poids lourds et aux taxis, le diesel s’est répandu chez Monsieur tout le monde au point de représenter aujourd’hui plus de 70% des ventes de voitures neuves et 60% du parc existant.

Ce déséquilibre n’a pas été accompagné par une restructuration adéquate des moyens de raffinage, et nos raffineries produisent trop d’essence et pas assez de gazole, qu’il faut acheter à l’étranger.

Le tapage médiatique orchestré autour le la lutte contre le CO2 a conforté les constructeurs français dans leur choix du tout Diesel, ce procédé étant plus performant sur ce point que les moteurs classiques à essence. Ce faisant, ils ont négligé le problème des particules émises en abondance par la combustion du gazole. L’introduction récente des filtres à particules n’apporte pas une réponse satisfaisante puisque ce procédé n’arrête pas les nanoparticules, qui sont précisément les plus nocives.

Le caractère cancérogène de ces émissions ayant été confirmé par l’OMS, et la Commission Européenne ayant placé la France en accusation à cause des dépassements fréquents des taux de pollution urbains, il n’est plus possible d’ignorer la situation. Le Gouvernement est tenu de mettre en œuvre des mesures correctrices visant à garantir à nos citadins la jouissance d’une atmosphère conforme aux bonnes mœurs.

L’accusé étant le Diesel, il semble évident que la solution réside dans l’interdiction d’icelui dans les centres-villes, solution déjà adoptée par certaines communautés urbaines, hors de France faut-il le préciser.

Un projet similaire fut donc mis sur pied en France, baptisé ZAPA du nom des zones urbaines désignées pour expérimenter la chose. Il s’agissait d’éliminer des centres-villes les véhicules les plus polluants. On sait ce qu’il advint de cette idée, le projet dût être abandonné à cause de son caractère jugé discriminatoire.

Faute de pouvoir repousser le Diesel au-delà des boulevards périphériques, le Gouvernement s’est avisé que, la situation actuelle étant le résultat d’une niche fiscale malencontreuse, il suffisait de supprimer cette niche pour retrouver une situation plus raisonnable, et faire d’une pierre deux coups en récupérant une manne fiscale conséquente.

La TICPE est une formidable pompe à phynances.

Tout ce qui circule sur les routes avec un moteur thermique est redevable de la TICPE. Son montant approximatif est de 63 centimes/Litre pour l’essence et 43 centimes pour le gazole.

Les seuls qui y échappent sont les transports fluviaux et aériens, la navigation maritime et la pêche, plus quelques autres peu nombreux.

Un remboursement partiel de cette taxe est accordé pour les transports routiers de marchandises, les transports en commun de voyageurs, et les taxis. Ils peuvent déduire environ 4 à 5 euros par hectolitre sur une taxe de 43 centimes environ sur le gazole, soit 10% de remise grosso modo.

La consommation de gazole en France s’élève à 35 millions de tonnes/an, soit environ 50 Milliards de litres.

80% sont assujettis à la TICPE, ce qui rapporte au trésor la modeste somme de 16 Milliards d’euros par an ( 40 centimes/l, remise éventuelle comprise).

L’alignement de la taxation du gazole sur celle de l’essence rapporterait donc 8 Milliards/an en supplément de rentrée fiscale.

Opération bien tentante en ces périodes de disette budgétaire.

Cette affaire de pollution citadine pourrait bien être le prétexte vertueux évoqué pour justifier la confiscation de ce pactole.

Mais les « assujettis » ne se laisseront pas plumer sans réagir. Les transporteurs routiers, les entreprises de transport en commun de voyageurs, et les taxis, possèdent des moyens dissuasifs de faire entendre leur voix, ils l’ont montré dans le passé.

Il est donc probable que seuls les particuliers seront invités à mettre la main à la poche.

Il y a en France 19 millions de véhicules particuliers motorisés en Diesel.

A raison de 20 000 km/an et 6L/100, ils consomment 23 Milliards de litres par an. Il y a donc 4,6 milliards d’euros à récupérer chaque année en alignant le prix du gazole sur celui du super.

Chaque automobiliste diésélisé se verra donc ponctionné en moyenne de 240 euros par an.

Il n’est pas sûr que cela suffise à motiver un abandon du diésel au profit de l’essence, car les avantages réels ou supposés du premier subsisteront: consommation plus faible, robustesse et longévité, et surtout moins de CO2 c’est-à-dire plus de bonus écologique.

Ce dernier point prendra tout son intérêt si, par hasard, les ZAPA reviennent à l’ordre du jour. Les Diésels équipés de filtres à particules conformes à la norme Euro 6, seront autorisés à rouler en centre ville !

Par ailleurs on peut s’attendre à un geste de la part des constructeurs pour effacer l’effet de la surtaxe en « aménageant » l’avantage client.

Geste qui n’aura d’effet que sur les véhicules neufs. Les possesseurs de véhicules d’occasion ressentiront la surtaxe comme un racket et s’estimeront piégés, à juste titre. Non seulement ils paieront la surtaxe mais en plus ils seront interdits de centres villes !

Cette mesure pourra cependant avoir des effets positifs si l’argent ainsi récolté est consacré pour partie au financement du basculement du diesel vers la motorisation électrique, et pour une autre partie au développement des énergies nouvelles, pour limiter les augmentations des tarifs publics de l’électricité et du gaz.

Par contre si l’argent est utilisé pour financer les dépenses de fonctionnement de l’Etat, la mesure n’aura pour effet que de provoquer une baisse des autres dépenses de consommation, donc une chute de l’activité économique.

Et de la cote de popularité du Gouvernement…

Repost 0
19 avril 2013 5 19 /04 /avril /2013 10:08
 
19 Avril 2013
 
Rappelons que le Gouvernement a lancé en Janvier 2013, dans une relative discrétion, un « Grand débat national sur la transition énergétique ».
 
Passer des énergies fossiles aux énergies renouvelables est une révolution à la fois économique, sociale, financière, structurale, dont la population n’a pas nécessairement encore pris toute la mesure. Il était donc indispensable d’entreprendre une vaste campagne d’information afin de préparer les esprits aux bouleversements qui ne manqueront pas de survenir au cours de cette mutation.
 
C’est le but premier de ce grand débat auquel la population est conviée soit à l’occasion de réunions publiques, soit directement sur un site internet où chacun peut laisser sa contribution.
 
Dans ce débat, il s’agit en fait d’offrir au public l’occasion de comprendre les enjeux de cette stratégie, et d’expliquer en quoi le citoyen peut être directement concerné.
 
Ce sera également un baromètre d’opinion qui permettra d’évaluer l’acceptabilité de tel ou tel choix en regard des retombées environnementales, de la lutte contre le CO2, et surtout des risques de santé publique, notamment pour le Nucléaire et les gaz de schiste, mais aussi pour l’éolien.
 
Pour élaborer sa stratégie, le Gouvernement s’appuie sur les compétences de l’ « Académie des technologies ( AT) ».
 
Cette honorable institution a été fondée en 2 000, et remplace l’ancien «Conseil de Applications de l’Académie des Sciences ( CADAS) ».
 
En 2007, l’AT est devenue Etablissement Public à Caractère Administratif, officiellement chargée d’un rôle de conseil auprès du Gouvernement.
 
Elle comprend 277 membres actifs recrutés par cooptation.
 
L’AT est participant dans l’EURO-CASE, fédération Européenne de 21 Académies des technologies, qui regroupe 6 000 experts.
 
Gérard Roucairol en assure la direction pour la France.
 
Concernant la stratégie énergétique l’AT présentera ses travaux en trois volets:
 
- 1er volet: Etude des données techniques du problème.
 
- 2è volet: Etude des coûts et des investissements.
 
- 3è volet: Choix des priorités politiques.
 
Le rapport sur le premier volet est paru le 13 mars 2013. Il est disponible sur le site de l’AT.
 
Les autres rapports suivront en cours d’année.
 
Cet organisme se défend de vouloir imposer ses choix, mais on peut penser que ses contributions seront considérées avec le plus grand sérieux.
 
La clé de voute de la stratégie énergétique est bien sûr le nucléaire, eu égard à sa participation prépondérante ( 75%) dans le mix électrique français.
 
L’Académie des Technologies a sur ce sujet une position claire, comme en témoignent les extraits suivants:
 
« … Pour la production d’électricité, le parc actuel de centrales nucléaires restera disponible, quitte à être moins utilisé.
 
…La place stratégique le l’industrie nucléaire en France, l’important potentiel de marché à l’exportation, et la prise en compte à long terme d’une situation d’ « après pétrole » , doivent continuer à maintenir et développer les compétences françaises dans ce domaine. Deux grands axes doivent être privilégiés:
 
1- La définition et la mise au point d’une offre de plusieurs produits disponibles à court terme, de différents niveaux de puissance. Ils doivent satisfaire un haut niveau de sureté, tel que celui pris en compte dans la conception de l’EPR….
 
2- Le développement d’une technologie plus avancée, permettant de brûler les produits de transmutation à très longue vie ( Génération IV)...
 
…. L’EPR de Flamanville, de 1,650 GW, remplacera les 2 x 0,9 GW de Fessenheim I et II lorsque ces réacteurs seront arrêtés. »
 
Fin de citation.
 
L’AT prévoit une puissance nucléaire installée de 63 GW en 2025, soit la même qu’aujourd’hui.
 
S’il subsistait encore un doute sur les intentions de l’establishment scientifique en matière de nucléaire, ce doute est ici levé sans ambigüité.
 
Globalement les hypothèses de l’AT prévoient une baisse de la demande énergétique de 15% environ en 2025, la demande électrique restant stable.
 
La baisse se produirait donc sur les énergies fossiles, secteurs du chauffage et des transports.
 
Le tableau suivant récapitule le mix énergétique électrique prévu par l’AT en 2025.
Mix-electrique-selon-AT.png
 
 
 
 
Actuellement le nucléaire fournit 75% de la demande électrique.
 
En 2025, la production des énergies nouvelles servira d’abord à réduire les importations d’énergies fossiles, puis à réduire la part du nucléaire dans la mesure où l’intermittence du solaire et de l’éolien le permettront.
 
A cause de cette intermittence il est nécessaire de conserver des capacités de production traditionnelles importantes pour satisfaire les pointes de consommation sans recourir exagérément aux importations d’électricité.
 
Ce premier rapport de l’Académie des Technologies est purement technique. Il décrit la situation actuelle et la projette en 2025 sans anticiper sur une éventuelle rupture technologique qui pourrait résulter par exemple d’une décision politique de sortie du nucléaire.
 
Le 2è volet portera sur l’analyse des coûts de production et des investissements.
 
Ce document de travail permettra alors au Gouvernement de prendre ses décisions en recherchant un équilibre entre d’une part les impératifs techniques et économiques, et d’autre part les attentes de l’opinion en matière de santé publique et de protection de l’environnement.
 
 
 
 
Repost 0
15 avril 2013 1 15 /04 /avril /2013 18:29
 
15 Avril 2013
Depuis déjà une bonne décennie les responsables politiques affichent une stratégie énergétique prônant la sobriété.
Dans ce but l’opinion publique est maintenue sous la menace d’un faisceau de calamités et l’usager subit une stratégie de culpabilisation visant à lui imposer un comportement énergétiquement vertueux.
La fibre écologique est sollicitée par un appel à lutter contre le réchauffement climatique et la pollution de l’environnement. Tous nos gestes sont désormais évalués en terme de CO2 émis.
La fibre Nationale est sensibilisée par les exhortations en faveur de l’indépendance énergétique, discours déjà entendu il y a un demi siècle de la part d’un certain Général pour justifier le choix du nucléaire.
Le sentiment de peur est entretenu par la menace d’un prochain épuisement des réserves pétrolières.
Le consommateur se voit prévenu d’une perspective de hausse constante du prix de l’énergie et des taxes associées, et le citoyen vit dans la crainte savamment attisée d’une tarification progressive assortie d’un bonus malus, voir même de quotas.
On aurait pu penser que, dans un environnement aussi oppressant, la consommation d’énergie aurait marqué un certain recul.
Le graphique suivant montre qu’il n’en est rien.
 evolution-conso-energie-finale-par-secteur
Depuis dix ans la consommation finale est restée stable autour de 160 Mtep, et la consommation du secteur résidentiel-tertiaire a même augmenté de 8%.
Certes il y a eu des progrès dans divers domaines comme la consommation des véhicules, l’isolation des bâtiments, l’amélioration des rendements des appareils, les techniques nouvelles comme les éclairages basse consommation, et bien sûr l’arrivée des énergies nouvelles …
Mais ces progrès ont été masqués par la croissance de la demande liée à l’augmentation de la population d’une part, et au déploiement du secteur audio visuel, informatique, et au développement de l’économie numérique et des communications d’autre part.
L’examen du graphique montre que la crise de 2008 s’est traduite par l’amorce d’une baisse importante de consommation, correspondant à une chute de l’activité économique. Ce moyen de faire baisser la consommation n’est évidemment pas à conseiller, faut-il le préciser ?
Face à un tel état des lieux, une stratégie énergétique réaliste doit donc s’appuyer sur l’hypothèse d’une consommation durablement stable, tout au moins tant que les consommateurs n’apporteront pas la preuve qu’ils sont capables globalement de réduire leur demande.
Cette confrontation de la fiction d’une sobriété énergétique planifiée avec la réalité du terrain est une leçon d’économie pratique dont il faut tenir compte avant de décider des grandes options de l’avenir.
Ce pragmatisme incontournable implique notamment qu’il ne sera possible de réduire le recours aux énergies traditionnelles qu’à la condition que les énergies nouvelles soient prêtes à prendre le relais.
A moins que les consommateurs n’apportent la preuve qu’ils sont capables de réduire fortement leur demande, ce qui n’a pas été le cas jusqu’à présent.
Le projet de mise en œuvre de mesures coercitives, telles que la tarification progressive de l’énergie avec bonus-malus, est très impopulaire et comporte un volet social difficilement gérable, surtout en période de récession économique. De plus il n’est applicable qu’aux énergies de réseaux, ce qui dispense les transports, gros consommateurs, et les autres énergies comme le bois et le fuel domestique.
Il est donc vraisemblable que la première phase de la stratégie de transition énergétique (Horizon 2020-2025) sera définie dans une perspective de stabilité de la demande, voire même d’une certaine augmentation.
Elle reposera sur deux axes principaux:
Renforcement des mesures incitatives, voire coercitives, en faveur des économies d’énergie, afin de compenser au moins l’augmentation naturelle de la demande qui résultera de l’accroissement de la population et d’une éventuelle reprise économique.
Relance du programme de développement des énergies renouvelables, en évitant d’en faire une activité subventionnée, ce qui ne serait pas supportable sur le long terme.
Au cours de cette première phase il sera procédé à une modernisation des installations de production conventionnelles, comme la généralisation de la cogénération.
La structure du réseau de distribution sera adaptée d’une part pour permettre l’interfaçage avec les installations de production des énergies nouvelles, caractérisées par la dissémination et l’intermittence, et d’autre part pour mettre en œuvre le réseau intelligent (Smart Grid) permettant un meilleur contrôle des pics de consommation.
Par ailleurs des technologies nouvelles seront utilisées pour le transport de l’énergie électrique, comme l’utilisation du courant continu, afin de réduire les pertes en ligne.
Le programme nucléaire reste la grande inconnue de cette stratégie.
Sa poursuite ou son abandon restent très dépendants du climat politique et de l’opinion qui demeure sous le choc de la catastrophe de Fukushima.
Le nucléaire fournit environ 12,5% de l’électricité mondiale.
La France est un cas particulier avec près de 80% des besoins électriques couverts par 59 réacteurs.
Un telle prépondérance ne se raye pas d’un trait de plume.
Une stratégie de retrait ne serait applicable que sur un durée suffisamment longue pour laisser aux énergies de remplacement le temps de prendre la relève. Ce basculement s’effectuerait progressivement et ne serait probablement pas achevé avant 2030.
On peut espérer une décision à l’issu du grand débat national, au moins sur le principe du maintient ou du retrait. Il ne serait pas sain que le pays demeure dans l’incertitude sur les grands choix énergétiques.
Repost 0
12 avril 2013 5 12 /04 /avril /2013 19:20

 

12 Avril 2013

Vous avez aimé les réacteurs nucléaires et admiré leurs prestations notamment à Tchernobyl et Fukushima, et à ces occasions vous avez pu apprécier le sérieux apporté à la conception et à l’exploitation de ces magnifiques réalisations.

Vous serez alors comblés par le spectacle que nous promet la prochaine version conçue par le Docteur Folamour, il s’agit du réacteur Flexblue.

Rappelons d’abord que, malgré les mouvements d’opinion exigeant la sortie du nucléaire, les objectifs de développement de la filière sont confortés et donc que les travaux continuent pendant la crise.

En France, ITER, ASTRID, EPR, se portent bien , merci.

Le fournisseur avisé d’électricité doit avoir un catalogue complet pour être en mesure de s’imposer sur le marché mondial.

Pour les pays développés, qui disposent d’une infrastructure de distribution électrique très complète, la solution choisie ( à tort ou à raison) est celle des grosses centrales équipées de réacteurs de 1 500 MWe du type de l’EPR.

Cette solution ne convient pas pour équiper des pays dépourvus d’infrastructure électrique. Il faut alors proposer des petites unités ( 50 à 250 MWe) pour alimenter des réseaux locaux.

Ce projet de dissémination de petites unités nucléaires dans des zones à stabilité politique précaire et souvent en proie à des conflits locaux, a bien sûr soulevé le problème de la sécurité. La vulnérabilité des petites installations terrestres à des attaques terroristes est un obstacle à leur implantation, et peut-être contraire à l’esprit de lutte contre la dissémination de la technologie nucléaire..

Pour tourner la difficulté, le Docteur Folamour a proposé tout simplement d’installer ces réacteurs au fond de la mer !

C’est le projet Flexblue de la DCNS.

Il s’agit en gros de placer le réacteur dans une sorte de sous-marin sans équipage, et de déposer la chose sur des fonds de 50 à 100 mètres de profondeur, à peu de distance de la côte à alimenter.

L’étude est quasiment terminée. Il reste maintenant à évaluer la validité du concept par rapport aux risques de sécurité.

Pour cette phase, essentielle dans le contexte actuel, on aurait pu penser que l’industriel aurait fait appel à ses meilleurs ingénieurs. En fait c’est un stagiaire qui est recruté !

On trouvera ci-après un extrait de l’annonce pour le recrutement de la personne qui travaillera sur le problème:

« Stage Performances de sûreté d'un réacteur immergé à sûreté passive (Flexblue) (1 poste)

Employeur : DCNS

…L’architecture préliminaire des systèmes ayant été définie, il s’agit désormais de valider et de quantifier les performances de ces systèmes, afin de s’assurer du respect des exigences de sureté.

Le/la stagiaire simulera des scénarios accidentels du réacteur Flexblue en s'appuyant sur des codes thermo hydrauliques de type CATHARE (et neutroniques si besoin). Les scénarios d'intérêt seront à déterminer en début de stage : par exemple accidents de perte de réfrigérant primaire (APRP), rupture de tuyauterie vapeur (RTV) et station blackout.

Le stagiaire évaluera les performances de sûreté de Flexblue dans ces scénarios, notamment à travers diverses études de sensibilité sur certains paramètres physiques et émettra des recommandations aux concepteurs du réacteur. On comparera ces performances avec celles des réacteurs terrestres.

Le/la stagiaire travaillera avec l'équipe conception du réacteur Flexblue, les équipes de dimensionnement et de fabrication des composants nucléaires DCNS et les spécialistes de codes de calcul….. » .

Bien sûr, on n’imagine pas que le stagiaire sera laissé seul en face d’un problème aussi primordial, mais on aurait quand même préféré un ingénieur sénior confirmé, et mieux encore une équipe pluridisciplinaire.

Quant à évaluer la sureté d’une telle installation sous-marine par rapport aux risques de sabotages terroristes, le Docteur Folamour ignore probablement qu’il est plus facile d’aller poser une mine magnétique sur une cible fixe aux profondeurs envisagées que de s’attaquer en terrain découvert à une installation terrestre qui peut être bunkerisée et gardée.

D’autre part, en l’absence de personnel permanent dans la centrale sous-marine, toute intervention de première urgence est impossible et c’est l’accident de niveau 7 assuré, avec les conséquences sur l’environnement que l’on peut aisément imaginer.

Décidément les leçons de Fukushima n’ont pas été comprises, le déni du risque reste ancré dans les esprits.

Il nous reste à espérer que les réductions budgétaires viendront à bout de ce projet démentiel.

Et de quelques autres du même tonneau.

 

 

 

 

 

 

Repost 0
8 avril 2013 1 08 /04 /avril /2013 18:17
 
8 Avril 2013,
 
Dans l’article précédent nous avons présenté sommairement le rôle des fossiles moléculaires dans l’identification des origines organiques des différents pétroles.
 
Il existe un autre marqueur très important, qui est le Carbone 13.
 
Le Carbone possède trois isotopes:
 
C12, isotope stable le plus répandu.
 
C13, également stable mais existant en proportion très faible.
 
C14, isotope radioactif de période moyenne, environ 5 000 ans.
 
Pour faire des enquêtes sur des phénomènes très anciens comme la formation du pétrole, qui s’étend sur des centaines de millions d’années, C14 ne nous est d’aucune utilité car sa période relativement courte entraîne sa quasi disparition sur des échelles de temps très longues.
 
( Sinon que son absence constatée est déjà un indice de l’âge de l’échantillon).
 
Par contre C13 est fort utile car il est et reste présent dans tous les organismes vivants et se conserve au cours des transformations de la diagénèse.
 
C13 a fait l’objet de nombreux dosages dans la plupart des milieux qui intéressent la biologie.
 
Il est caractérisé par le paramètre dC13, qui est l’écart en 1/1000 de la déviation du rapport isotopique C13/C12 par rapport à une concentration de référence internationale.
 
( Le rapport isotopique de référence, égal à 0,011238, est défini très poétiquement à partir de la calcite d’un rostre de Belemnite de la formation géologique de Pee Dee en Caroline du Sud !) .
 
Le tableau suivant, d’après Trumbore et Druffel, 1995, donne les fourchettes des valeurs de dC13 pour les milieux indiqués.
Variations de dC13
 
 
On peut constater que pour les carburants fossiles le dC13 est dans la filiation des végétaux et des organismes marins, comme le prédit la théorie classique.
 
Pour un éventuel pétrole abiotique, qui descendrait donc des roches carbonatées, on devrait trouver une filiation du dC13 plus proche du zéro, donc très différenciée du produit conventionnel.
 
Et c’est encore plus marqué pour le Méthane.
 
Du grain à moudre pour les débats autour des réserves fossiles, mais svp plutôt autour d’un spectromètre de masse qu’autour d’une table de bistrot…
Repost 0
8 avril 2013 1 08 /04 /avril /2013 11:24

 

8 Avril 2013

Le 1er Avril est désormais suffisamment loin pour pouvoir enfin parler de choses sérieuses avec quelque crédibilité.

On sait que, dès ses origines, la religion du pétrole s’est trouvée scindée en deux courants de pensée fondés sur des genèses différentes.

L’un, devenu très largement majoritaire, fonde la genèse du pétrole sur le processus d’enfouissement et de décomposition lente de matières organiques, sur des durées géologiques qui se mesurent en millions d’années. Ce processus conduit à un « stock » par définition limité, et donc fait du pétrole un produit dont les réserves sont finies.

L’autre, minoritaire pour ne pas dire confidentiel, et considéré comme hérétique, soutient une genèse différente et complémentaire faisant appel à un processus métamorphique naissant à grande profondeur dans le manteau terrestre, par réaction entre éléments exclusivement minéraux. Ce processus serait continu et donc conduirait à des stocks de produit illimités.

Les adeptes de la seconde théorie sont une poignée de chercheurs plus ou moins indépendants, largement discrédités par le courant majoritaire. Ils s’appuient sur les travaux de recherche géologique poursuivis dans le monde entier dans des buts d’approfondissement des connaissances de l’évolution de la croute terrestre et de la diagénèse. Ces travaux explorent notamment le comportement de la matière dans les conditions de haute pression et de haute température qui règnent dans les profondeurs de la terre. Ils ont conduit entre autres à des résultats encourageants concernant la possible formation d’hydrocarbures à partir de roches carbonatées, et donc donné quelque crédit à la théorie hérétique.

La validité d’une théorie s’appuie sur sa capacité à expliquer les phénomènes de son domaine d’application, et à prévoir des phénomènes nouveaux vérifiés ensuite par l’expérimentation.

En l’occurrence, pour prouver l’existence du pétrole abiotique, il faut se donner les moyens scientifiques et technologiques de l’identifier par rapport au pétrole biotique.

Ces moyens existent.

Le pétrole « conventionnel » (biotique) contient de nombreux composants, que l’on peut regrouper en quatre familles:

- Les composants de base, construits à partir des corps simples Carbone, Hydrogène, Soufre, Oxygène, Azote.

Ces composants de base sont en proportions variées qui dépendent du kérogène initial et des conditions de transformation de ce kérogène en pétrole. Le kérogène dépendant lui-même de la matière organique origine et de ses conditions d’évolution:

Résines, Asphaltènes, Hydrocarbures aromatiques et paraffiniques, etc...

Ainsi chaque pétrole possède sa propre histoire, différente des autres pétroles issus de couches sédimentaires différentes.

Il est possible, par l’analyse des composants de base, de déterminer l’origine d’un échantillon.

- Des composants reflétant la radioactivité du milieu dans lequel s’est formé le pétrole.

- Des composants minéraux autres que C, H, O, S et N, issus de la matière organique initiale.

- Des fossiles moléculaires, véritables archéosquelettes des molécules organiques présentes à l’origine de la formation des kérogènes.

Lorsque les molécules organiques se dégradent, certaines chaînes moléculaires se conservent et se retrouvent dans le kérogène et ensuite dans le pétrole, constituant une signature de l’origine du produit.

(Le lecteur curieux ou sceptique pourra consulter la thèse de Sylvain Bernard,

«  Préservation de fossiles organiques au cours de la diagénèse et du métamorphisme »

Soutenue en 2008 à l’Université Denis Diderot, paris VII.

Ou celle de Bertrand Chappe,

«  Fossiles moléculaires d’archéobactéries », de 1982 ).

Ces fossiles moléculaires, qui peuvent être présents dans le pétrole biotique (mais pas nécessairement), sont en principe absents des pétroles abiotiques.

Il « suffit » donc de réaliser une analyse fine d’un échantillon de brut pour déterminer sa provenance et donc pour identifier un éventuel intrus abiotique.

La polémique médiatique autour de l’origine possiblement abiotique d’une partie du pétrole peut donc s’appuyer sur des outils scientifiques permettant d’atteindre en quelque sorte l’ADN du produit et donc son origine sans ambigüité.

A condition bien sûr qu’il n’y ait pas eu de mélange entre les deux produits…

 

 

 

 

 

 

 

Repost 0
4 avril 2013 4 04 /04 /avril /2013 18:55

 

 

5 Avril 2013

En France, la crédibilité d’une information est inversement proportionnelle à la proximité de sa date de parution par rapport au 1er Avril, ce qui entraine parfois à l’inverse une crédulité d’autant plus grande que l’on s’éloigne de la date fatidique.

Les informations qui vont suivre seront donc reçues avec le degré de considération qui convient à un 5 Avril.

Nous avons rappelé dans l’article précédent que les expériences de laboratoire confirment la possibilité d’obtenir du Méthane et d’autres hydrocarbures abiotiques plus complexes à partir de composés minéraux donneurs de Carbone et d’Hydrogène, et dans des conditions de température et de pression élevées .

Ces synthèses sont réalisées grâce entre autres au dispositif de cellule à enclume de diamant.

De telles conditions existant dans la partie supérieure du manteau terrestre, il n’est pas interdit de penser que des hydrocarbures ont pu s’y former à partir de composés minéraux présents comme CaCO3 et H2O contenus dans la roche.

L’horizon considéré se situe de 100 à 200 km de profondeur, donc au-delà des possibilités de vérification in situ, tout au moins aujourd’hui.

Il est évidemment tentant de supposer que si ces hydrocarbures abiotiques se forment effectivement à grande profondeur, une partie d’entre eux au moins peut migrer vers la surface et se retrouver à l’état de Méthane ou de pétrole mélangé ou non aux hydrocarbures d’origine biologique.

Le problème est donc maintenant d’étudier le devenir de ces produits des grands fonds afin de comprendre les éventuelles transformations subies et les possibilités de migration à travers les failles de la croute terrestre.

De nombreux laboratoires de géophysique travaillent sur le sujet dont l’intérêt n’aura échappé à personne, au-delà du simple progrès des connaissances en géophysique.

Nous voulons présenter ici un article publié par les

« Proceedings of the National Academy of Sciences of United States of America » , Volume 108 No 17, de Leonardo Spanu, paru le 11 Avril 2011. ( Eh oui encore le mois d’Avril).

Article relayé par le «Lawrence Livermore National Laboratory ».

Ces deux honorables institutions ne sont pas des repaires de plaisantins, faut-il le souligner.

Voici un extrait traduit du sommaire:

« La détermination des propriétés thermochimiques des Hydrocarbures à haute pression et température est une étape clé dans la compréhension des réservoirs de Carbone et des flux dans les profondeurs terrestres.

La stabilité des systèmes Carbone-Hydrogène à des profondeurs supérieures à quelques milliers de mètres est mal comprise et l’extension des hydrocarbures abiotiques dans le manteau supérieur terrestre demeure un sujet de controverse……Nos résultats montrent que les hydrocarbures complexes deviennent plus stables entre 1000 et 2000 K et pour des pressions supérieures à 4 Giga Pascal….

Nos résultats fournissent une interprétation unifiée de plusieurs expériences récentes et un modèle microscopique détaillé de la dissociation du Méthane et de sa polymérisation à haute pression et température ».

Ces travaux sont soutenus par la Fondation SHELL pour la recherche.

Cet illustre parrainage n’est évidemment pas un hasard, la compagnie en question n’ayant pas pour habitude de s’intéresser à des projets cosmétiques.

Il faut cependant insister sur le fait que ces travaux et ces quelques résultats intéressants n’autorisent en aucune façon à conclure à propos d’une possible résurgence d’hydrocarbures abiotiques à portée de forages de types conventionnels (quelques km de profondeur).

Ils n’autorisent pas non plus à conclure à leur impossibilité.

La controverse actuelle est utile pour nourrir le débat et suggérer des pistes de recherche et d’expérimentation. Toute tentative d’imposer par avance une conclusion serait une imposture intellectuelle.

 

 

 

 

Repost 0
1 avril 2013 1 01 /04 /avril /2013 15:50

 

1er Avril 2013

Il n’était pas possible de laisser passer le 1er Avril sans évoquer un sujet plus distrayant que les arcanes de la transition énergétique.

Quoique, comme nous le verrons ensuite, ce sujet nous y ramène malgré nous, mais n’anticipons pas.

Tout le monde ( enfin presque) a gardé en tête l’affaire du Coelacanthe, qui un temps a partagé la communauté scientifique entre croyants et incroyants, les premiers subissant les quolibets des seconds, autoproclamés détenteurs de la vérité.

Jusqu’au jour où un scientifique s’est avisé de quitter son laboratoire pour aller un peu sur le port interroger les pêcheurs. Il découvrit alors que le poisson mythique que l’on croyait disparu depuis des millions d’années, est en fait une espèce bien vivante comme vous et moi, commune dans son biotope.

Le sujet dont je voudrais vous entretenir aujourd’hui s’apparente à l’affaire du poisson qui s’obstine à exister malgré les condamnations des savants docteurs.

Il s’agit du pétrole abiotique.

La polémique est connue, peut-être pourrait-on en rappeler brièvement les éléments:

La théorie officielle de la formation du pétrole, élevée à la hauteur d’un dogme, attribue l’origine de ces hydrocarbures à la décomposition de matières organiques enfouies dans des couches sédimentaires il y a des millions d’années.

En face de cette théorie bétonnée il existe, depuis fort longtemps, une autre théorie selon laquelle le pétrole serait dû, au moins en partie, à des phénomènes métamorphiques affectant les roches à très grande profondeur, donc très fortes pressions et températures. Les hydrocarbures ainsi formés remonteraient ensuite vers la surface par des failles affectant la croute terrestre.

On comprend aisément l’enjeu. Si cette théorie schismatique rencontrait une confirmation, alors il n’y aurait plus de limite à la production du pétrole, avec les conséquences que l’on imagine aisément.

Comme toute théorie, celle-ci ne peut recevoir de considération que si elle subit l’épreuve de la vérification expérimentale.

Et, en premier lieu, il est donc nécessaire d’établir la validité des principes de base qui la fondent.

Ces principes s’énoncent clairement: Dans des conditions de très fortes pressions et très hautes températures, et avec l’intervention de catalyseurs appropriés, il est possible d’obtenir des hydrocarbures à partir de composés minéraux donneurs potentiels de Carbone et d’Hydrogène.

Le Carbone pouvant être issu de Carbonates, et l’Hydrogène fourni par l’eau contenue dans la roche.

Ceci doit être démontré avant de commencer à prendre la théorie en considération.

L’expérimentation n’est pas à la portée du premier bricoleur venu. Les phénomènes en question sont censés se produire à des températures de 600 à 1 500 °C et des pressions de 20 à 70 KBar ( La pression atmosphérique est de 1 Bar).

Heureusement les scientifiques sont pleins de ressources. L’études des réactions dans les conditions de hautes pressions et de hautes températures intéresse de nombreux domaines de la Science et de la Technologie (Recherche fondamentale, métallurgie, pétrologie, comportement des poudres, étude des origines de la vie, géomorphologie, étude des états extrêmes de la matière, etc…).

Un dispositif permettant ce genre d’études a été mis au point dès 1958 au NBS ( Aujourd’hui National Institute of Standards and Technology) aux Etats-Unis.

Il s’agit du DAC ( Diamond Anvil Chamber, ou Cellule à enclume de diamant) couramment utilisé aujourd’hui pour le genre d’études citées.

L’appareil permet d’atteindre des pressions jusqu’à 360 GPa et des températures jusqu’à 4700 °C.

360 GigaPascal représentent 3,6 millions de fois la pression atmosphérique !

Le principe en est simple:

L’échantillon à torturer est placé entre deux diamants convenablement taillés en pointes, le tout serré dans un étau. La complexité réside dans la réalisation pratique. L’avantage des enclumes en diamant tient à la transparence du matériau qui permet des mesures optiques ( diffraction des RX, spectroscopie). L’inconvénient est évidemment la petite taille des échantillons.

On trouvera une bonne description d’un DAC sur le site de l’Université d’Oxford, Département des Sciences de la Terre, pétrologie expérimentale.

Selon les spécialistes ( les officiels, pas les hérétiques) des hydrocarbures abiotiques ne pourraient se former que dans l’Asthénosphère, à des profondeurs de l’ordre de 200 km, où l’on trouve les conditions requises par la théorie (l’officielle), 600 à 1500 °C et 20 à 70 Kbar.

Comme il n’est pas question d’aller creuser aussi loin, la seule façon d’expérimenter, c’est la cellule à enclume de diamant.

Divers essais ont été réalisés à partir des composants de base CaCO3, H2O et Fe3O4, qui on permis d’obtenir des composés CnHn+2, ou directement CH4.

Les expériences ont été menées avec la cellule à enclume de diamant, et (par d’autres labos) avec la chambre à haute pression CONAC qui permet de travailler sur des échantillons plus importants.

L’analyse des produits de réaction a été réalisée par spectroscopie Raman, chromatographie en phase gazeuse, etc...

Ces résultats apportent la preuve que des hydrocarbures peuvent se former dans le manteau terrestre à partir de composés minéraux présents en abondance dans le milieu.

Reste maintenant à expliquer la migration de cette substance jusqu’au niveau de la croute terrestre.

Mais ce premier résultat acquis justifie un approfondissement du sujet, qui ne peut plus être remisé dans le placard à hoaxes.

Le lecteur, que cette parution un 1er Avril n’aura pas rebuté, n’aura aucun mal à trouver de nombreuses sources d’informations (ou de déformation) sur la toile.

 

 

 

 

Repost 0