Overblog Suivre ce blog
Administration Créer mon blog
25 mars 2012 7 25 /03 /mars /2012 19:23

 

25 Mars 2012

Dans l’article précédent nous avons évoqué les problèmes dont la solution conditionnera le développement du marché de la voiture tout électrique:

- Nécessité d’une infrastructure dense et normalisée pour la recharge des batteries.

- Nécessité de la gestion de cette procédure de recharge en harmonie avec le contrôle de charge du réseau électrique.

- Nécessité de la mise en œuvre d’un système de mesure des consommations ( de recharges) et de tarification.

Un marché de volume ne saurait se développer tant que ces problèmes n’auront pas reçu de solution ( ce qui prendra entre cinq et dix ans).

Nous avons rappelé qu’aujourd’hui ces problèmes demeurent entiers et que donc seuls les véhicules hybrides ( HEV et PHEV) sont en mesure de circuler sur nos routes. Les « tout électriques » ( EV) restent pour le moment cantonnés à des usages urbains.

Conscients de la nécessité de lever ces obstacles, les pouvoirs publics ont commencé à légiférer pour donner un cadre règlementaire permettant aux professionnels de s’adapter à ce nouveau marché.

Le 25 Juillet 2011 est paru au JO le décret N° 2011-873 relatif aux installations dédiées à la recharge des véhicules électriques ou hybrides rechargeables dans les bâtiments.

Ce décret concerne les habitations à usage privé, les bâtiments à usage tertiaire et les bureaux. Il prévoit l’obligation de disposer de telles installations et en précise le nombre minimum. Il prévoit également l’obligation d’un système de mesure permettant une facturation individuelle des consommations.

Ces dispositions s’appliquent dans les bâtiments neufs à partir du 1er Janvier 2012, et dans les bâtiments existants à compter du 1er Janvier 2015.

Il reste maintenant à définir le contenu technique des fameuses « installations », ce qui est désormais l’affaire des professionnels de l’automobile, des fournisseurs d’électricité, des fabricants industriels de matériel électrique, des fabricants de batteries, et des professionnels du bâtiment. Il s’agit de proposer un ou des standards européens, si possible mondiaux, pour les matériels des installations de recharge afin que n’importe quel véhicule électrique de n’importe quelle marque ou modèle puisse utiliser n’importe quelle installation.

Ces installations doivent répondre à des normes de sécurité extrêmement sévères en raison des très fortes puissances mises en jeu. Elles doivent pouvoir être mises en œuvre par des usagers n’ayant aucune connaissance en électrotechnique, et doivent donc comporter une fonction de protection intégrée de très haut niveau.

La convergence vers un système garantissant la sécurité et l’interopérabilité est recherchée au sein de « EV Plug Alliance » formée en 2010, qui regroupe 21 industriels européens, sur la base des normes

CEI 610296-2 pour les prises et fiches, et

CEI 61 851-1 pour les installations ( Systèmes de charge conductive).

Ce travail de normalisation doit être mené à bien avant de démarrer les travaux d’infrastructure. On ne saurait imaginer un parc de véhicules électriques équipés de systèmes de charge différents et de prises de raccordement incompatibles ! L’échec serait assuré.

En attendant un accord international sur un standard, il reste toujours la possibilité d’une procédure de recharge « normale » en sept à huit heures sur une prise standard dédiée 20A (2P+T) ou 32A , à condition qu’elle soit câblée en 6mm2 et protégée par un Disjoncteur Différentiel de Sécurité 30mA.

Il s’agit alors d’un circuit spécialisé supplémentaire qui doit comporter son propre disjoncteur ( Il est très vivement déconseillé d’utiliser une prise « normale » 16A+T , même câblée en 2,5mm2, sous peine de problèmes d’échauffement et d’incendie).

Encore faudra-t-il que EDF soit d’accord avec ce type de branchement, et que l’installation reçoive la bénédiction du CONSUEL…

Le réseau électrique ne pourra pas supporter cette nouvelle demande d’électricité si elle intervient sans concertation, et particulièrement le soir à l’heure du pic de consommation. Pour éviter l’anarchie, EDF met en place le concept « Smart Grid » ( Réseau Intelligent) qui doit permettre, entre autres, de gérer la demande en utilisant le principe du temps partagé associé à un programme de délestage anticipé, rendu attractif par une tarification adéquate. Pour cette raison il est nécessaire de remplacer le CBE ( Compteur Bleu Electronique) par un modèle plus communicant, le LINKY.

Dans cette optique, l’installation de recharge de batterie sera elle-même raccordée au réseau communiquant pour être incluse dans la gestion du smart grid.

Notons au passage que la croissance espérée du parc de véhicules électriques ( croissance souhaitée par les écologistes) coïncide avec la décroissance du parc nucléaire, également souhaitée par ces mêmes écologistes. Pour concilier ces deux objectifs contradictoires il sera nécessaire de construire de nouvelles centrales thermiques à flamme.

Cette aberration conduira peut-être les pouvoirs publics à freiner le développement du tout électrique et à favoriser plutôt les véhicules hybrides, moins gourmands en électricité, qui réalisent un bon compromis en permettant de rouler électrique en ville, et de n’utiliser le moteur thermique que hors des agglomérations.

Une fois de plus il s’avère que le mieux est souvent l’ennemi du bien.

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
23 mars 2012 5 23 /03 /mars /2012 18:06

 

23 Mars 2012

La faible autonomie des voitures «tout électrique» ( EV) est souvent justifiée dans les gazettes par ce constat en forme d’aphorisme:

«L’automobiliste français parcourt en moyenne 40 kilomètres par jour ».

L’affirmation se fonde sur la distance moyenne parcourue par un véhicule en une année, qui est en France de 15 000 Kms , soit effectivement environ 40 Kms par jour.

Comme toute moyenne effectuée sur une population, la moyenne kilométrique ne présente aucun intérêt pour un individu déterminé. Pas plus d’intérêt par exemple que la moyenne de fréquentation des cinémas. Déclarer qu’en moyenne un individu assiste à 50 séances de cinéma par an, ne signifie nullement qu’il voit 0,14 films par jour !

Le statisticien sait que l’individu moyen n’existe pas.

Dans la population d’automobilistes, certains parcourent 60 000 kilomètres par an, voire davantage, alors que d’autres se contentent de 3 à 5 000.

Il n’est donc pas pertinent d’argumenter à partir d’une valeur moyenne abstraite pour conclure sur l’autonomie souhaitable d’une voiture tout électrique ( EV).

Il est préférable de s’interroger sur les contraintes que l’usager est prêt à accepter pour rouler en EV.

L’autonomie d’un véhicule est définie comme la distance qu’il peut parcourir avec un plein de carburant, gasoil, essence ou électricité. C’est un paramètre indicatif , très variable selon les conditions d’utilisation et la charge. Il n’est pas essentiel en soi.

Ce qui intéresse l’usager, entre autres, c’est l’assurance de pouvoir refaire le plein avant que le réservoir ne soit vide.

Ce problème n’existe pas avec les carburants conventionnels. Le réseau de distributeurs est suffisamment développé pour permettre à l’automobiliste d’échapper à la panne sèche, sauf étourderie de sa part.

Le véhicule tout électrique EV n’échappe pas à la nécessité de disposer d’un réseau de distributeurs d’électricité suffisamment dense pour garantir l’usager contre la panne sèche.

Faut-il rappeler qu’aujourd’hui un tel réseau n’existe pas, même à l’état embryonnaire, et qu’il n’existe aucun projet concret dans ce sens.

Dans ce contexte, le véhicule tout électrique ne peut se substituer au véhicule classique que dans des cas très particuliers comme les flottes de véhicules urbains d’entreprises, ou seconde voiture pour la ville pour des particuliers ayant accès facile à un point de rechargement .

L’automobiliste qui s’arrête pour faire un plein d’essence ou de gasoil accepte de « perdre » cinq ou dix minutes pour cette opération.

Pour recharger une batterie de 30KWh ( la norme actuelle des EV) dans le même temps, il faut une installation capable de fournir une puissance de 0,3 Mégawatts pendant six minutes !!!

Ce qui ne peut être obtenu qu’avec une installation équivalente à un poste de distribution EDF alimenté en moyenne tension ( HTA/BT).

Et encore faut-il que la batterie supporte ce régime de charge ultra-rapide sans exploser.

De telles installations, si toutefois elles existent un jour, ne pourront être déployées que sur une durée importante, de l’ordre de la décennie.

D’ici là l’automobiliste féru de EV devra patienter une heure en régime de charge rapide, ou six heures en régime de charge normale.

Cette contrainte en rebutera plus d’un…Sauf notre fameux automobiliste moyen qui ne parcourt que quarante kilomètres par jour et a donc tout le temps de recharger sa batterie le soir ou dans la journée sur une prise classique 16A disponible partout.

Hélas nous avons vu que cet oiseau rare n’existe pas…

Les gazettes spécialisées dans le véhicule électrique n’hésitent pas à évoquer la quasi gratuité du carburant électrique. C’est vrai pour les recharges effectuées à la maison à l’aide d’un branchement sur une modeste prise de 16A, voire même de 20 ou 32A en bricolant un peu.

A condition de ne pas dépasser la puissance souscrite, laquelle est jalousement surveillée par votre Compteur Bleu électronique. Ce petit malin enregistre tout, et je ne vous parle pas de son successeur Linky, encore plus curieux.

Mais, car il y toujours un mais, cette situation idyllique ne saurait durer.

Et ceci pour au moins deux raisons:

- Le branchement simultané de quasiment tous les EV le soir à la même heure, et au moment du pic de consommation, entraînerait une perturbation du réseau inacceptable.

- La taxe sur les carburants pétroliers rapporte 25 Milliards par an à l’Etat.

Le basculement d’une partie des véhicules sur l’électricité entraînerait une perte que Bercy n’est pas disposé à accepter.

Il faut donc mettre en place un dispositif permettant de reporter cette taxe sur l’électricité-carburant.

Le lecteur attentif aura remarqué que la TIPP a changé de nom. Elle s’appelle maintenant TICPE, Taxe Intérieure de Consommation sur les Produits Energétiques.

Les Produits Pétroliers sont devenus Produits Energétiques, lesquels incluent l’électricité.

L’usager automobiliste adepte du EV doit donc s’attendre à se voir taxer comme avec sa vieille guimbarde.

La mise en œuvre du recouvrement de cette taxe n’est pas simple, mais les spécialistes de Bercy sont pleins de ressources.

Au départ il s’agira probablement d’une taxe annuelle assise sur la capacité de la batterie, une sorte de vignette EDF.

Il faut vivre avec son temps…

Sur les voitures classiques la batterie, quoique ayant un rôle important, a su se faire oublier. D’un coût modique, d’un poids négligeable, elle assure de bons et loyaux services pendant plusieurs années et ne réclame quasiment aucun entretien.

Il en va différemment sur le véhicule tout électrique.

La batterie devient le cœur de la voiture:

- Elle est très lourde, près de 300 Kg pour 30 KWh, soit l’équivalent de quatre personnes de 75 Kg. Une charge supplémentaire qui va brider sérieusement les performances du véhicule et augmenter sa dépense d’énergie. La voiture en charge atteindra les deux tonnes.

- Elle est très complexe et restera très chère, même si les prix d’aujourd’hui ne sont pas significatifs.

On accepte une durée de vie de quelques années pour une batterie au plomb de 100 euros, on acceptera moins de débourser plusieurs milliers d’euros au même rythme.

La location de la batterie ne modifie pas son coût.

Cette avalanche de contraintes supplémentaires imposées à l’usager par le passage au véhicule tout électrique est de nature à condamner cette solution au profit de la solution hybride rechargeable ( PHEV).

Là où une batterie de 30 KWh est supposée emmener un EV sur 200 kms, à condition de se passer de climatisation, les 6 KWh du PHEV se contenteront de 40 kms, largement suffisants pour notre automobiliste moyen ( tiens, le revoilà). Il pourra ainsi accomplir ses parcours citadins grâce à l’électricité, et utilisera le moteur thermique pour les balades de week-ends ou les vacances, ou lorsqu’il aura omis de recharger le soir.

Et en plus il échappera peut-être à la TICPE électrique puisqu’il la paye déjà grâce ( ou à cause) de son moteur thermique.

Et si la batterie tombe en panne, il pourra toujours la débrancher…

 

 

 

 

 

 

 

 

Repost 0
17 mars 2012 6 17 /03 /mars /2012 10:50
 
17 Mars 2012
Notre société moderne est un organisme vivant complexe dont le métabolisme exige un apport énergétique régulier.
Le pétrole irrigue ses artères, le Méthane emplit ses poumons, et son estomac ingère du charbon.
Notre survie dépend donc au premier degré de l’apport régulier de ces denrées.
Lorsqu’aucune des ces sources d’énergie n’existe sur son territoire, l’organisme souffre du syndrome de la dépendance énergétique, se caractérisant par des hémorragies importantes de fluide monétaire, une forte dépendance du métabolisme aux variations climatiques des marchés ( appelée fièvre d’OPEP), et un état de manque portant à la recherche compulsive de fournisseurs, parfois au mépris de toute considération éthique, les dealers d’énergie ne sont pas toujours fréquentables.
Certains organismes, désireux de rompre avec cette addiction, ont recours à un traitement de substitution, sorte de méthadone énergétique, appelée énergie nucléaire. La cure n’est pas toujours bénéfique, les effets secondaires étant parfois très mal supportés par l’organisme, le remède peut tuer le malade.
Il existe bien une médecine naturelle qui propose au malade un changement radical de régime. Il s’agit essentiellement d’adopter la vie au grand air, profiter du Soleil et du vent qui sont gratuits, et mener une vie plus calme, moins frénétique.
Mais on connait les difficultés de faire accepter au malade la nécessité d’une cure de désintoxication. Le chemin est long, et les rechutes sont fréquentes.
Le pétrole irriguera donc encore longtemps les artères de nos sociétés.
Autrefois, cette précieuse denrée était disponible à un prix dérisoire. On pouvait se la procurer facilement sur les souks du Moyen Orient en quantités quasi illimitées, pour un prix extrêmement modique, quelques centimes le litre, nettement moins cher que l’eau minérale ou la livre de pois chiches chez l’épicier du coin.
Tout allait donc pour le mieux dans le meilleur des mondes possibles.
Et puis le monde a changé. Les clients sont devenus plus nombreux et se sont disputé la marchandise, les marchands du souk sont devenus plus exigeants, et comme toujours dans ce cas, les prix ont augmenté.
Oh, ils sont encore abordables. On peut se procurer sur le souk un litre de pétrole de bon aloi pour quelques dizaines de centimes d’euro. Mais pour des clients qui déboursaient seulement quelques centimes autrefois, un demi euro c’est trop !
Bref, aujourd’hui le litre de Brent est à 0,593 Euro, ce qui commence à faire monter la fièvre de notre organisme économique.
Le consommateur final, vous et moi, se satisferait pleinement d’un prix aussi léger, hélas le prix à la pompe n’a que de lointains rapports avec le cours du Brent.
Entre le prix coté à la bourse et le prix payé à la pompe un certain nombre d’intermédiaires interviennent et, grâce à un peu de travail et de nombreuses incantations, nous fournissent le prix à la pompe.
La formule magique utilisée par les thaumaturges pour établir le prix final est la suivante:
P = [ (Pp x Cp) + Pr + Pd + Pt ] x Ctva
Dans laquelle:
Pp est le prix actuel en dollar du litre de Brent sur le marché international.
Cp est le coefficient de parité Euro/Dollar.
Pr est le coût au litre du raffinage.
Pd est le coût de la distribution.
Pt est le montant au litre de la taxe prélevée par l’Etat ( TICPE).
Ctva est le coefficient multiplicateur de la TVA.
Cela nous donne:
Diesel Super
Pp = 0,777 $ 0,777 $ (123.55 $ le baril de 159 L)
Cp = 1/1,31 1/1,31
Pr = 0,081 e* 0,034 e*
Pd = 0,095 e* 0,105 e*
Pt = 0,438 e 0,612 e
Ctva= 1,196 1,196
P = 1,450 e 1,613 e
* Source UFIP ( Union Française des Industries Pétrolières) pour 2011.
On constate une taxation par l’Etat de respectivement 86,8% et 118%.
Ce taux d’imposition usuraire équivaut à une double peine. L’usager paye une première fois le produit qu’il achète, au prix du marché, puis doit verser au Trésor une somme quasiment équivalente.
Certes d’autres produits supportent également la double peine, comme l’alcool et le tabac, mais leur consommation reste très limitée comparativement aux carburants.
La TICPE ( Ancienne TIPP) descend en droite ligne de la TIP créée en 1928 soi-disant pour compenser les baisses de l’impôt sur le sel. Rebaptisée TICPE en 2011 , elle se donne une nouvelle jeunesse en s’ouvrant la possibilité de s’appliquer à toutes les sources d’énergie et non plus seulement aux produits pétroliers.
La TICPE rapporte environ 25 Milliards par an, ce qui est considérable.
Les facteurs qui influent sur le prix des carburants sont ceux qui figurent dans l’équation magique:
- Le prix du pétrole.
L’évolution du prix du baril de Brent ne laisse aucun doute sur la solide tendance haussière de cette denrée.
Depuis 26 $ en 2003 jusqu’à 125 $ aujourd’hui, la croissance est régulière, si l’on excepte les soubresauts bien compréhensibles de la crise de 2008. Ces soubresauts nous rappellent l’extrême sensibilité du prix aux conditions extérieures. Cours Brent 2002 2012
La tendance de fond haussière est due à un ensemble de facteurs dont les effets se cumulent, essentiellement l’augmentation de la demande en face d’une offre non extensible qui tend plutôt à fléchir, et l’accroissement des dépenses de recherche et de prospection pour trouver des nouveaux gisements, notamment en off shore profond.
A cette tendance de fond de caractère technique, il faut ajouter l’influence des conditions extérieures, indépendantes de notre volonté comme dirait la SNCF.
Jusqu’où le prix du baril pourrait-il monter ?
Le prix montera jusqu’au moment où les acheteurs jetteront l’éponge.
Heureusement l’économie s’adapte insensiblement à cette situation. D’abord des mesures techniques pour améliorer l’efficacité énergétique, ensuite un basculement vers d’autres sources d’énergie comme le gaz, voire même le charbon ou le nucléaire, et bien sûr les énergies renouvelables.
Les transports demeurent le secteur le plus vulnérable car la conversion à une autre source d’énergie est très difficile.
Il est aujourd’hui impossible de faire des prévisions de prix, sinon estimer à 50% la probabilité d’atteindre 200 $ le baril au cours de la prochaine décennie.
Toutes choses égales par ailleurs, les prix des carburants passeraient alors à 1,88e pour le Diesel et 1,97e pour le super.
- La parité Euro/Dollar.
Les arcanes du monde économico-financier nous sont impénétrables. En dix ans la parité est passée ce 0,8 à 1,3.
Ce paramètre est insaisissable.
- Le raffinage et la distribution.
Ces paramètres évolueront peu, et leur influence est minime.
- La TICPE.
C’est la rente pétrolière de l’Etat.
On connait la situation financière de l’Etat français. Jamais il ne renoncera à cette rente, sinon à la marge.
Nous assisterons probablement à un geste sur cette taxe, mais qui sera aussitôt compensé par l’accroissement d’un autre prélèvement dans un autre secteur de l’économie.
Ce geste pourrait être le retour provisoire à la TICPE flottante mais la marge est très faible.
En toute logique financière, l’augmentation du prix des carburants se traduira par une baisse de la consommation. La TICPE étant assise sur le volume, la rente pétrolière va baisser. Cette baisse sera en partie compensée par la TVA qui, elle, est assise sur le chiffre d’affaire.
Un bilan que Bercy examinera à la loupe avant de lâcher un peu de lest.
Certains à Bercy prônent au contraire une politique de rigueur et demandent une AUGMENTATION de la TICPE.
- La TVA.
Bercy compte sur la TVA pour compenser la baisse de la rente TICPE, baisse consécutive à un recul de la consommation.
Il ne faut donc pas espérer de miracle…
L’augmentation du prix du pétrole se traduit donc par une augmentation automatique du prix des carburants, et une augmentation non moins automatique de la part de TVA perçue, sauf si le gouvernement décide une compensation par la TICPE flottante.
Cette augmentation automatique de l’impôt perçu est évidemment une bénédiction pour Bercy, qui sera très réticent à bricoler l’équation en faveur de l’usager, sauf si celui-ci montre les dents et exhibe un pouvoir de nuisance dissuasif.
On peut compter sur les transporteurs, les taxis, les ambulanciers, les agriculteurs, pour faire entendre leurs revendications…
 
 
Repost 0
14 mars 2012 3 14 /03 /mars /2012 18:09

 

14 Mars 2012

Le maintien d’une politique énergétique faisant une grande place au nucléaire est un choix de société qui engage les générations futures. C’est pourquoi, dans un pays démocratique, ce choix doit être justifié auprès de la population et entériné par un référendum.

Un référendum n’est pertinent que dans la mesure où les électeurs possèdent les éléments de jugement leur permettant d’instruire à charge et à décharge.

Ce qui suit est une modeste tentative d’établissement d’une liste des attendus d’un éventuel procès à charge contre le nucléaire.

- L’usage établit une distinction entre le nucléaire militaire et le nucléaire civil, considérant implicitement que l’un est destiné à tuer ( même s’il est présenté comme arme de dissuasion) , alors que l’autre serait inoffensif.

Ceci est une imposture. Une centrale électronucléaire devient une arme de destruction massive si elle est l’objet d’une frappe de missile conventionnel.

(Il existe de nombreux modèles de systèmes de missiles portables, par exemple le FGM-148 JAVELIN à guidage infrarouge du type fire and forget, disséminé dans toutes les armées du monde et dont certains sont vendus sous le manteau à prix très abordable. Deux hommes suffisent à le mettre en œuvre).

D’autre part la dissémination de la technologie nucléaire génère le risque de voir des éléments actifs tomber aux mains de terroristes fanatiques, et/ou de voir des Etats voyous développer des armes à partir du combustible radioactif.

Aucune autre source d’énergie ne présente ce risque.

- Un réacteur nucléaire qui échappe au contrôle, quelle qu’en soit la cause, devient une source de rayonnements ionisants très puissants qui affectent de larges régions sur lesquelles se répand une contamination de très longue durée affectant les populations sur le long terme.

Aucune autre source d’énergie ne présente ce genre de risque.

- Le fonctionnement d’un réacteur génère des déchets radioactifs pour lesquels il n’existe encore aucune solution satisfaisante pour leur traitement et/ou leur stockage. Il en est de même pour le démantèlement des installations.

- La technologie nucléaire, très complexe, exige un personnel de très haute technicité. De plus ce personnel doit être formé aux règles de sécurité contraignantes exigées dans ce domaine, et doit présenter des garanties de valeur professionnelle de très haut niveau. Ces conditions ne sont pas toujours remplies dans la pratique, particulièrement lorsqu’il est fait largement appel à la sous-traitance.

- Une centrale électronucléaire est très vulnérable aux catastrophes naturelles, aux chutes d’aéronefs, aux pertes d’alimentation électrique, à l’interruption de l’alimentation en eau, etc, qui conduisent immanquablement à une fusion du cœur et donc à une catastrophe majeure.

Ce n’est pas le cas avec les autres énergies, pour lesquelles les conséquences d’un accident demeurent localisées et gérables.

- Les réserves de minerai permettant d’obtenir le combustible nucléaire conventionnel sont limitées. L’AIEA estime que, compte tenu du programme nucléaire identifié, ce minerai ne sera plus disponible au-delà d’une cinquantaine d’années.

Actuellement une part importante ( 40% ) de l’uranium utilisé dans les réacteurs provient du recyclage des stocks militaires, ce transfert cessera en 2023.

La prolongation de l’exploitation de l’énergie nucléaire ne pourra être envisagée que si l’on fait appel à des surgénérateurs ( Génération IV), qui présentent des risques encore plus élevés.

- L’exploitation de l’énergie nucléaire « civile » entre dans une logique de rentabilité financière. Cette logique impose que chaque étape du processus doit être pensée, réalisée, et mise en œuvre, dans un souci constant de réduction des coûts. Cette démarche est par définition incompatible avec le plus haut niveau de sécurité indispensable, qui devrait rester prioritaire.

- Les risques sanitaires que l’exploitation du nucléaire fait courir à la population ne sont pas sérieusement pris en compte. Les contrôles de sécurité sont effectués en interne, et les « incidents » sont souvent minimisés, voire dissimulés. Les populations sont mal ou pas du tout informées, tout le monde se souvient du nuage de Tchernobyl et la gestion de Fukushima est maintenant connue.

- Le prix de revient réel de l’électricité nucléaire est supérieur à celui des autres énergies lorsque l’on prend en compte tous les éléments, notamment le traitement et le stockage des déchets, et le démantèlement.

- L’indépendance énergétique revendiquée à propos du nucléaire n’est une réalité que pour les pays qui possèdent du minerai sur leur sol, ce n’est pas le cas de la France, qui se procure la précieuse denrée hors de ses frontières. Elle est donc tributaire de la pérennité des accords passés avec les Etats détenteurs des droits de propriété, et donc vulnérable aux bouleversements géopolitiques.

Cette liste, probablement non exhaustive, ne plaide pas en faveur de la poursuite du nucléaire.

Le seul argument favorable à celui-ci est la quasi absence d’émission de dioxyde de carbone. Mais le poids de cet argument est fonction de l’importance que l’on accorde à ce paramètre.

Il y a donc une ouverture pour une plaidoirie démontrant que la décision en matière de choix énergétiques ne dépend pas seulement des caractéristiques intrinsèques des différentes solutions, mais également des interactions entre ces solutions et le système Terre-Atmosphère.

Si les prévisions de réchauffement climatique se confirment, et s’il est avéré que les émissions anthropiques de CO2 y ont une part prépondérantes, et si le changement climatique résultant entraine des catastrophes pour les sociétés humaines, alors ce n’est pas le nucléaire qu’il faudra arrêter, mais bien plutôt les énergies fossiles qui sont la cause du désastre climatique annoncé.

Le nucléaire serait alors conservé comme un moindre mal, en complément des énergies nouvelles décarbonées, qui ne suffiront pas à elles seules à satisfaire les besoins énergétiques de la planète.

Le risque sanitaire lié à l’énergie nucléaire passerait alors au second plan derrière les risques générés par un réchauffement climatique catastrophique.

Le jury devra peser les risques respectifs du nucléaire d’une part, et du réchauffement climatique d’autre part, pour décider en toute connaissance des causes.

L’instruction d’un tel procès montrera qu’il manque certaines pièces essentielles au dossier. Par exemple la connaissance exacte du réchauffement attendu, la part du CO2 anthropique dans ce réchauffement, les bouleversements climatiques régionaux résultants, l’impact sur la structure des société humaines, les mouvements de population, les conflits éventuels.

Il apparaitra rapidement que plusieurs décennies seront nécessaires pour progresser dans la connaissance des conséquences de nos choix, et qu’il est pour le moins prématuré de trancher avant de connaître l’ensemble du problème.

Cependant il faut tenir compte de l’aspect émotionnel des jugements.

Le nucléaire représente des risques de court terme, localisés, dont les conséquences sont palpables, Tchernobyl, Fukushima.

Le réchauffement climatique présente aussi des risques, peut-être plus importants, mais de plus long terme et assez mal identifiés, et vus comme affectant surtout les régions de faible latitude.

Le verdict sera donc différent, selon que tel membre du jury vit en zone équatoriale ou au Nord du trentième parallèle.

Il est vraisemblable que les décisions seront argumentées par des critères régionaux, voire même nationaux. Or les problèmes de bouleversements climatiques et/ou de retombées nucléaires sont planétaires.

Les nuages radioactifs ne connaissent pas les frontières, et un réchauffement ici peut être accompagné d’un refroidissement ailleurs.

Il semble donc difficile d’aboutir à une gestion planétaire saine de l’énergie en l’absence d’un organe mondial de décision.

Les errements de Durban ne traduisent pas autre chose…

Repost 0
11 mars 2012 7 11 /03 /mars /2012 18:37

 

11 Mars 2012

Sans refaire l’analyse des causes du réchauffement climatique, il n’est pas inutile de rappeler deux ou trois choses sur les échanges entre la Terre et l’espace.

Le globe terrestre possède une source colossale de chaleur interne dont l’origine et la distribution sont encore controversées ( Eh oui, encore une controverse !).

Plusieurs phénomènes participent à ce dégagement de chaleur: L’agrégation initiale des particules qui ont formé le globe, les réactions exothermiques qui se déroulent dans le noyau, les mouvements de convection du magma, la désintégration des éléments radioactifs, la tectonique, etc…

Ce globe se refroidit à un rythme évalué à 70 à 130 °C par milliard d’années, donc insensible à notre échelle de temps.

Cette chaleur se dissipe à l’extérieur sous forme de rayonnement infrarouge conformément à la Loi de Kelvin, corrigée de l’émissivité.

Le Soleil , qui est un réacteur nucléaire, rayonne de l’énergie, dont la Terre bénéficie et qui va augmenter sa température de surface.

Cette température de surface dépend de l’équilibre thermique établi entre l’énergie reçue, l’énergie réfléchie, et l’énergie émise.

Si l’atmosphère n’existait pas, cet équilibre ne dépendrait que du rayonnement des deux corps et de l’albedo de la Terre. Il en résulterait une température moyenne de surface terrestre d’environ - 18°C.

L’atmosphère modifie ce bilan radiatif en piégeant une partie des infrarouges émis par la Terre ( Effet de serre), et en modulant le rayonnement solaire par les réflexions sur les couches nuageuses.

Ce qui permet à la température moyenne de surface d’atteindre + 15°C.

Les paramètres qui contribuent au bilan radiatif sont très nombreux. Ils ne sont pas tous encore identifiés et leurs interactions demeurent insuffisamment quantifiées. La liste ci-dessous n’est pas exhaustive:

- Energie rayonnée par le Soleil.

- Distance Terre-Soleil.

- Albedo de la Terre.

- L’émissivité de la Terre.

-Concentration dans l’atmosphère des gaz à effet de serre:

- Vapeur d’eau.

- Dioxyde de Carbone.

- Méthane.

- Ozone.

- Oxydes de soufre.

- Oxydes d’Azote.

- Gaz anthropiques.

-Etc…

- Formations nuageuses.

- Précipitations.

- Vents.

- Pression.

- Aérosols .

- Cycle de l’eau.

- Particules naturelles et anthropiques .

- Rayons cosmiques.

- Magnétisme terrestre.

- Paramètres océaniques:

- Température des eaux.

- Salinité des eaux.

- Concentration en gaz dissous.

- Concentration en minéraux.

- Ph.

- Courants marins.

- Phytoplancton et zooplancton.

- Volcanisme.

- Position du système solaire dans la galaxie.

- Processus végétaux d’échanges gazeux.

- Composition et évolution de la zoosphère.

- Activités anthropiques:

- Bilan énergétique.

- Emissions de gaz et de particules.

- Influences sur l’albedo.

- Influences sur l’émissivité.

- Influences sur le bilan carbone.

Ces paramètres ne sont pas constants dans le temps ni dans l’espace géographique, et de plus il existe entre eux des relations d’interactions assez mal identifiées.

Leur action conjuguée se traduit pas une élévation de température de

33 °C au niveau des basses couches de l’atmosphère, dans les conditions actuelles, et il en résulte une température moyenne de + 15°C.

Pour déterminer l’évolution dans le temps du bilan radiatif, donc de la température moyenne de la surface de la Terre, il est nécessaire de construire un modèle et de le faire tourner sur des ordinateurs puissants.

Ce modèle doit tenir compte de tous les paramètres influents, de leurs interactions, et de leurs variations propres, et ceci en chaque point du système Terre-Atmosphère.

Ceci est évidemment impossible car la complexité du calcul serait infinie, et de plus les conditions initiales ne sont jamais connues avec une telle précision. Il faut donc procéder comme en météorologie, découper l’espace en mailles de taille compatible avec les possibilités des calculateurs du moment.

En plus de cette simplification du maillage, il faut également simplifier la prise en compte des paramètres pour rendre le calcul possible.

Il existe donc deux limites:

Le choix d’un maillage trop fin, qui conduit à une impossibilité de définir les conditions initiales de chaque maille au même moment, et à un calcul si lourd qu’il dépasse les possibilités des l’ordinateurs.

Le choix d’intégrer un grand nombre de paramètres, qui

conduit au même résultat.

Il faut donc se satisfaire d’un compromis dans lequel on maîtrise les conditions initiales et la puissance de calcul, mais sachant que la marge d’erreur est importante.

Un modèle, quel qu’il soit, doit être validé.

Il est facile de valider un modèle lorsqu’il représente des phénomènes de courtes durées. Il suffit de comparer les résultats du modèle avec les phénomènes réels et de répéter l’expérience aussi souvent que nécessaire pour affiner le modèle.

Un modèle climatique se donne pour objectif de prédire l’évolution du climat sur de longues périodes, plusieurs dizaines d’années.

Sa validation doit donc être effectuée sur des périodes comparables. Par exemple les prévisions d’un modèle établi en 2010 doivent être comparées au climat effectif de 2020 ou 2040, afin de le valider ou d’apporter des corrections qui seront à leur tour validées en 2050 ou 2060, et ainsi de suite.

La machine à voyager dans le temps n’existant pas encore, notre modèle de 2010 ne peut donc pas être validé, ce qui est évidemment fâcheux.

Comme il n’est pas sérieux de faire confiance à un modèle non validé, qui n’aurait aucune crédibilité, on utilise un artifice qui consiste à effectuer une rétro validation sur une séquence climatique passée.

(C’est un peu l’histoire de l’homme qui a perdu sa clé dans l’obscurité, et qui va la chercher sous un réverbère parce que là il y a de la lumière…)

Ce tour de passe-passe n’abuse que les béotiens, les scientifiques ne sont pas dupes, mais tout le monde est d’accord pour reconnaitre qu’il n’y a pas d’autre méthode, alors on s’en contente.

Car le problème n’est pas seulement de principe, il existe une difficulté intrinsèque:

la climatologie est une science récente, et il n’existe pas de base de données suffisamment précise et étendue pour des périodes antérieures de quelques dizaines d’années au temps présent. Encore aujourd’hui les recherches climatologiques apportent tous les jours des nouvelles découvertes et de nouvelles bases de données, notamment satellitaires.

Faire tourner un modèle de 2010 sur des données approximatives et incomplètes du passé n’est pas satisfaisant.

Il y a d’autre part une impossibilité de principe à connaître les conditions initiales autrement qu’approximativement.

Nous avons donc un modèle impossible à valider dans son domaine temporel de fonctionnement, et un corpus de données du passé impropres à fournir une validation consistante.

Pour sortir de cette impasse, il a été décidé de faire développer plusieurs modèles par différentes équipes de scientifiques. Chaque équipe conçoit son modèle sur la base d’hypothèses qui lui sont propres, et réalise ses propres simulations. Ces résultats sont ensuite comparés afin d’en tirer des enseignements.

C’est la démarche qui a été adoptée par le GIEC, et qui a permis d’obtenir un ensemble de courbes d’évolution de la température terrestre, qui sont le résultat d’un consensus et ne doivent pas être considérées comme gravées dans le bronze.

Il reste que les modèles actuels devront être validés un jour ou l’autre. La procédure consistera à suivre en temps réel l’évolution du climat et à comparer les prévisions des modèles avec la réalité. Les écarts seront interprétés pour corriger les modèles au fur et à mesure et à procéder par itérations.

De nombreux programmes de recherches et de mesures sont en cours pour faire progresser la science climatologique. Les nouveaux résultats seront intégrés aux modèles de prévisions qui eux-mêmes seront confrontés aux relevés de mesures climatiques sur de longues périodes.

La prévision de l’évolution climatique sera donc plutôt un suivi permanent. Comme en météorologie, nous aurons plusieurs types de prévisions:

- Prévisions à dix ans, avec une très bonne fiabilité.

- Prévisions à moyen terme, trente à cinquante ans, avec une fiabilité moyenne.

- Prévisions à long terme, un siècle ou deux, non directement exploitables mais indicatives.

La science peut nous délivrer des prévisions variables selon diverses hypothèses, mais elle ne saura jamais nous donner la recette politique pour que les sociétés humaines choisissent l’hypothèse la plus sage…

 

 

 

 

 

Repost 0
9 mars 2012 5 09 /03 /mars /2012 18:30

 

9 Mars 2012

L’idée que la Terre tourne autour du Soleil, et non l’inverse, a mis longtemps à s’imposer, car en fait pour le commun il s’agissait d’une abstraction sans aucune conséquence pour les sociétés humaines. Seuls étaient concernés évidemment l’Eglise et quelques rats de bibliothèques ou quelques astronomes un peu curieux. Et de plus, à l’époque la curiosité était un vilain défaut.

Notre époque nous confronte à un nouveau changement de paradigme, dont cette fois les conséquences sont susceptibles d’impacter directement nos sociétés, voire même la survie de l’espèce humaine.

Il s’agit bien sûr du changement climatique.

Nos ancêtres ont longtemps vécu dans la tranquille certitude de l’immuabilité des choses de la nature. Le déroulement des saisons souffrait bien parfois de quelques sautes d’humeur, mais les années de vaches maigres étaient suivies d’années de vaches grasses, en sorte que sur une période de trois ou quatre générations le climat paraissait constant. Une fois disparu l’arrière grand père, la mémoire du climat passé s’estompait et le climat présent devenait le climat de toujours. C’est d’ailleurs encore vrai de nos jours tant la mémoire collective est courte; les hivers considérés comme froids aujourd’hui font sourire les anciens qui ont connu les années cinquante.

Nous savons maintenant que les variations climatiques de fortes amplitudes ont toujours existé, et peut-être même ont-elles favorisé l’expansion de l’espèce humaine en stimulant les capacités adaptatives de nos lointains parents et en les incitant à parcourir le monde pour découvrir des territoires plus cléments.

Cependant, depuis environ 10 000 ans, la température moyenne du globe s’est maintenue dans une fourchette de 2°C, avec de fortes variations régionales il est vrai. Le dernier épisode remarquable, le « petit âge glaciaire », du XVIè au XIXè siècle, est resté gravé dans les écrits du temps malgré une baisse de température moyenne faible, environ 1°C par rapport à l’optimum médiéval.

Aujourd’hui nous sommes confrontés à une menace autrement plus sérieuse, celle d’un réchauffement d’une ampleur et d’une rapidité sans précédents dans le passé, entre 2 et 6°C, voire même davantage selon certaines évaluations, et ceci en seulement un siècle.

Une telle montée en température, sur une période aussi courte, serait une catastrophe planétaire entrainant des bouleversements géopolitiques susceptibles de compromettre la fragile stabilité de nos sociétés.

Il est facile de comprendre que plus la montée en température sera grande, et plus grands seront les bouleversements. Il n’est donc pas indifférent de savoir si la hausse sera de 2°C ou de 6°C; dans le premier cas la situation sera difficile mais gérable, dans le second cas c’est l’apocalypse qui nous guette…

Dans l’un ou l’autre cas nous avons des dispositions à prendre et les décideurs de la planète doivent savoir à quels types de catastrophes ils auront à faire face afin de prendre des mesures pour minimiser les dégâts.

L’oracle de Delphes ayant fermé boutique, nous devons nous adresser aux mages modernes que sont les scientifiques. Ils ne lisent pas l’avenir dans les entrailles de mouton, ils disposent de truchements en principe plus crédibles, ils interrogent même les cieux par l’intermédiaire de satellites, ils refont le monde avec leurs ordinateurs. De la connaissance du passé ils estiment pouvoir prédire l’avenir ( Ah, se prendre pour le créateur…).

Les mages officiels ont délivré des prédictions à tiroirs. Plusieurs options sont proposées, selon la sagesse des hommes. Nous retrouvons là l’expression d’un plan divin laissant à l’Homme une part de libre arbitre.

Seulement la recette pour rendre les hommes plus sages n’est pas fournie…

A coté de cette « magie d’Etat » il existe une magie dissidente qui propose d’autres prédictions reposant sur une autre façon d’interroger les entrailles de mouton , pardon, les ordinateurs. Leurs crédibilité est aussi bonne que celle des mages officiels, car les diplômes dont ils sont bardés sont délivrés par les mêmes druides.

Faire confiance aux uns ou aux autres, c’est donc un peu jouer le destin de la planète au tric trac, ce qui fait désordre. Qui a dit « Dieu ne joue pas aux dés ? ».

Certains décideurs de la planète, et non des moindres, ont rapidement réalisé que les perspectives d’évolution du climat décrites par les experts n’étaient que des prédictions et qu’il y avait lieu de leur accorder l’importance que l’on accorde habituellement aux prédictions, c’est-à-dire une écoute bienveillante accompagnée d’une croyance conditionnelle et d’un engagement limité et prudent.

( Voir protocole de Kyoto et sommet de Durban)

Sans aller jusqu’à cautionner la déclaration de Corinne Lepage à l’AFP:

« Dans le monde politique tout le monde s’en fout complètement », il faut admettre que les décideurs de la planète ont tendance à traiter le problème « par-dessous la jambe ».

Il est vrai que s’occuper à la fois des problèmes urgents et des problèmes du prochain siècle nécessite de pratiquer un grand écart intellectuel pour lequel nos structures de gouvernement ne sont pas préparées.

Peut-être aussi faudrait-il commencer par le commencement: Avant de penser à organiser l’avenir, il ne serait pas absurde de commencer par mettre de l’harmonie dans le présent.

Du pain sur la planche….

Repost 0
8 mars 2012 4 08 /03 /mars /2012 18:54

 

8 Mars 2012

Dans l’article précédent nous avons tenté d’imaginer un scénario sur notre avenir énergétique, sur les bases de la situation actuelle et des paramètres connus susceptibles d’influer sur l’évolution.

Compte tenu:

- De la position très majoritaire des énergies fossiles carbonées dans le mix énergétique mondial ( plus de 80%), et de l’absence de tendance au changement,

- Des abondantes réserves disponibles de ces mêmes énergies,

- De la probable exploitation de réserves nouvelles liées à l’off shore profond et aux huiles et gaz de schistes,

- De la demande croissante d’énergie, liée au développement économique des pays émergents,

- De l’absence de portée pratique des résolutions portant sur la réduction des émissions de dioxyde de carbone, sinon à l’échelon local,

On peut légitimement inclure dans notre scénario le maintien de la consommation des combustibles fossiles jusqu’à épuisement des réserves, c’est-à-dire pour encore une centaine d’années.

Les énergies durables propres et décarbonées seront appelées à prendre le relais lorsque les conditions économiques seront favorables, mais sans remettre en question la consommation totale des réserves fossiles.

Cette hypothèse, hélas vraisemblable, doit donc intégrer des émissions de CO2 conduisant à l’un des pires scénarios du GIEC. Le taux de CO2 atmosphérique pourrait alors dépasser 800 ppm v, avec une élévation de la température moyenne planétaire de plus de 6 °C.

Aujourd’hui la menace de scénario du pire n’est qu’un chiffon rouge agité par les écologistes soutenus par les travaux du GIEC, elle demeure sans écho dans les instances de pouvoir, dont les préoccupations ne sauraient s’étendre au-delà de la future échéance électorale.

Il faut dire, à la décharge des hommes politiques, que les signaux d’alarme d’un éventuel réchauffement catastrophique se font attendre, la communauté scientifique est divisée, au point que la notion de «réchauffement climatique» a été remplacée par celle de « changement climatique » beaucoup plus nuancée et ouverte à d’autres interprétations, notamment celle de changements régionaux plutôt que planétaires.

Par ailleurs l’attribution du « changement climatique » au seul CO2 anthropique ne fait plus l’unanimité, d’autres causes possibles sont considérées, et d’autres modèles sont proposés ( Le caractère non-officiel de ces théories n’enlève rien à leur valeur scientifique, seule est à considérer la valeur des arguments et les résultats de mesure).

On sait que le GIEC a fait l’objet d’une sérieuse controverse, à la suite de laquelle ses méthodes de travail ont été réorganisées. Le prochain rapport, prévu pour 2013, incorporera les nouveaux résultats obtenus par la communauté scientifique et les nouvelles interprétations en résultant.

Ce flottement dans la consistance des théories décrivant le changement climatique peut justifier en partie l’attentisme des décideurs, peu soucieux de bouleverser un système socio économique déjà fragile, sur la foi d’assertions fondées sur des bases révisables, voire même contestées.

Quel qu’il soit, le changement climatique sera le résultat d’une évolution du système planétaire. Des mesures drastiques de réduction des émissions de CO2 seront sans effet global si elles ne sont appliquées que dans une région limitée du globe. Et même dans les pays soucieux d’adopter un comportement vertueux, on ne sera pas à l’abri des incohérences. Par exemple, à quoi bon remplacer les moteurs thermiques par des moteurs électriques si cette électricité est produite par des centrales à combustibles fossiles ? C’est ce que nous sommes en train de faire en Europe, région qui se veut pourtant exemplaire en matière d’énergie propre !

La réalité de la situation en matière de lutte contre le réchauffement climatique, les incohérences, les hésitations, les atermoiements, le manque d’unanimité planétaire, conduit à douter fortement de notre capacité à obtenir des résultats significatifs. Les réunions internationales des G8, des G20, des G77, n’auront sans doute que très peu d’influence sur le changement climatique.

Le principe de réalité conduit alors à admettre l’inéluctabilité d’un changement climatique associé à une élévation de température moyenne de 3 ou 4°C d’ici la fin de ce siècle, et à se préparer à y faire face.

On ne lutte pas contre l’inondation en essayant d’empêcher la pluie de tomber, mais en construisant des barrages et des digues…

 

 

 

 

 

Repost 0
7 mars 2012 3 07 /03 /mars /2012 18:20

 

7 Mars 2012

L’enthousiasme suscité par l’émergence des énergies renouvelables décarbonées, porteuses d’espoir pour l’avenir de la planète, ne doit pas nous distraire de la réalité d’aujourd’hui:

En 2009 la production mondiale d’énergie primaire se répartissait ainsi:

- Pétrole: 32,8%

- Charbon: 27,2%

- Gaz naturel: 20,9%

- Biomasse: 10,2%

- Nucléaire: 5,8%

- Hydraulique: 2,3%

- Eolien, Solaire,

Géothermie: 0,8%

Source: « Key World Energy Statistics » iea.org

81% de la production d’énergie primaire est donc constituée par les combustibles fossiles carbonés, non renouvelables et fortement émetteurs de dioxyde de carbone.

10,2% sont attribués à la biomasse, essentiellement du bois énergie, dont une faible partie seulement est renouvelable.

Les énergies non émettrices de CO2 contribuent pour 8,9% du total, encore faudrait-il compter à part le nucléaire, dont l’avenir est compromis.

Les énergies renouvelables et propres ( Hydraulique, Eolien, Solaire, Géothermie) ne représentent donc que 3,1% .

Cette répartition appelle quelques remarques:

- Bien que technologiquement réalisable depuis une trentaine d’années, l’exploitation des énergies Eolienne et Solaire ne représente aujourd’hui qu’une part dérisoire de la production énergétique mondiale. Elles ne peuvent soutenir la concurrence des énergies fossiles qui sont disponibles à coût «dérisoire» . Elles ne pourront s’imposer qu’à la faveur d’une crise provoquant un renchérissement considérable et durable des combustibles traditionnels, ou de la mise en application sérieuse des accords internationaux sur la réduction des émissions de CO2, circonstances qui n’ont pas encore été observées à ce jour.

- Bien qu’au centre des débats planétaires en raison de la récente catastrophe du Japon, l’énergie nucléaire ne représente qu’une part minime de la production mondiale, environ la moitié de ce que fournit la biomasse. Son seul intérêt réside dans l’absence d’émission de CO2.

La puissance du lobby nucléaire a réussi ( jusqu’à Fukushima) à escamoter les inconvénients majeurs que sont les risques d’accidents catastrophiques, les risques à long terme représentés par les déchets, les risques de dissémination, et le coût réel du traitement des déchets et du démantèlement.

L’opinion est en droit de demander si l’on doit accepter de tels risques pour les générations futures.

Le trio de base Charbon, Pétrole, Gaz naturel, reste donc très largement majoritaire dans le mix énergétique mondial, et probablement pour quelques décennies encore, avec des variations locales.

Cette situation place notre civilisation technologique sur la corde raide, eu égard à la perspective d’épuisement de ces ressources.

La connaissance des réserves énergétiques est donc essentielle. La notion de réserve étant très variable ( Une réserve est toujours associée à un coût d’exploitation) selon les bases de l’analyse, on trouve des données différentes selon les sources.

Par exemple, voici les chiffres selon BP Statistical Review of World Energy 2009:

Pétrole: 44 ans

Gaz naturel: 64 ans

Charbon: 183 ans

D’autres données sont proposées par d’autres sources, mais qui ne modifient pas l’aspect qualitatif.

Il semble donc que le charbon restera maître du terrain à la fin de ce siècle, avec la participation de l’hydraulique, de l’Eolien, du Solaire, de la Géothermie, et de la Biomasse, à des hauteurs qui ne dépendent que de notre volonté de les promouvoir.

Le sort du nucléaire est en suspens. Il n’est pas possible de prévoir ce qui dépend de décisions politiques et/ou de recherches avancées dont les résultats sont par définition aléatoires.

Cette revanche du vieux charbon ira de pair avec la persistance des émissions de CO2 associées, qui resteront importantes malgré l’amélioration des procédés de combustion et l’application des procédés d’enfouissement.

L’augmentation du taux de CO2 sera naturellement maîtrisée par l’épuisement du pétrole et du gaz naturel, et l’accroissement de la production des énergies décarbonées et/ou renouvelables ( Biomasse).

Le taux de CO2 atmosphérique se stabilisera à un niveau probablement très supérieur au taux actuel, plus près de 700 ppmv que de 500.

A nous de construire un autre scénario…

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0
3 mars 2012 6 03 /03 /mars /2012 18:08

 

 

3 Mars 2012

Les circonstances dramatiques que l’on sait ont placé le Japon dans une situation involontaire de sortie brutale du nucléaire. Depuis la catastrophe, la plupart des réacteurs ont été arrêtés pour travaux d’entretien réguliers, et personne ne veut prendre la responsabilité de les remettre en service eu égard à la forte opposition des populations. Seuls deux réacteurs demeurent encore en service sur un parc de cinquante-quatre avant la catastrophe, ces deux réacteurs devant d’ailleurs être arrêtés au mois de Mai pour les habituels travaux d’entretien programmés.

Cette sortie impromptue du nucléaire s’est donc effectuée spontanément sans décision gouvernementale, évènement sans précédent.

Devant le fort mouvement d’opinion contre la remise en service des réacteurs arrêtés, même après une inspection poussée et des travaux de consolidation, le gouvernement ne prendra pas le risque de passer en force.

Le pays se prépare donc à une année 2012 difficile au plan énergétique.

C’est 28% de la production d’électricité qui fait défaut, et qu’il faut compenser d’une manière ou d’une autre, en attendant une solution définitive.

Dans l’immédiat une trithérapie est appliquée:

- Augmentation de l’activité des centrales thermiques à charbon, gaz et fuel, qui assuraient déjà 68% de la production électrique, accompagnée de la remise en service de vieilles centrales thermiques déclassées.

- Augmentation des importations de combustibles fossiles, pour alimenter les centrales en fuel et gaz naturel.

- Mise en place d’une politique imposée de réduction des consommations.

Ce traitement ne peut être que transitoire, car il est un retour à des pratiques condamnées d’usage des énergies fossiles dont l’épuisement est inéluctable, il est aussi un renoncement aux engagements de réduction des émissions de CO2, et une aggravation de la dépendance énergétique. Sans compter la charge sur le bilan du commerce extérieur.

Le suivi de la mise en oeuvre de cette trithérapie de choc sera du plus grand intérêt pour les Etats susceptibles d’être confrontés à un problème similaire dans les prochaines années. Il permettra de mesurer l’aptitude du gouvernement nippon à résister à la solution de facilité que serait une relance des réacteurs nucléaires, plutôt que de choisir la voie étroite du développement massif des énergies durables. Il sera également intéressant de mesurer le niveau d’adhésion des populations aux consignes de modération.

Un an après le séisme, les programmes nucléaires dans le monde ne semblent pas significativement affectés: L’Agence Internationale de l’Energie maintient ses prévisions d’accroissement de 60% des capacités nucléaires en 2035 pour l’ensemble de la planète.

Tchernobyl et Fukushima n’auront donc pas suffit à « régler son compte » au nucléaire, sauf dans certaines régions du monde où l’opinion des populations possède encore quelque influence, et bien sûr sous la pression des circonstances comme au Japon.

Repost 0
17 février 2012 5 17 /02 /février /2012 15:17

17 Février 2012

La formule désormais célèbre « La France n’a pas de pétrole, mais etc… » est toujours d’actualité. Hélas nous n’avons pas davantage de Gaz naturel ni de charbon.

En attendant un hypothétique âge d’or des énergies renouvelables, nous sommes donc entièrement dépendants des importations pour nous fournir en carburants pour nos automobiles, et pour le reste...

En attendant d’avoir résolu l’imbroglio énergétique où s’entremêlent l’écologie, le CO2, le Nucléaire, le réchauffement de la planète, les gaz de schiste, le photovoltaïque, les biocarburants et les éoliennes, nous en sommes réduits à consommer du pétrole encore pour un certain temps.

Il est donc important de s’intéresser à son prix.

Aujourd’hui le baril est à 100 dollars, soit 0,48 euro par litre.

Rappelons que, dans le rapport « Perspectives de l’OCDE » No 76 paru en 2005, l’honorable institution prévoyait une hausse du prix du baril à hauteur de 30 dollars en 2010, et jusqu’à 35 dollars en 2030 ( !!!).

Ne tirons pas sur le pianiste car l’exercice de la prévision est semé d’embûches. Néanmoins, cette erreur de 300% donne une mesure de la modestie qui doit entourer toute annonce concernant l’avenir, particulièrement en ce qui concerne les prix de l’énergie.

Revenons à la réalité d’aujourd’hui , c’est-à-dire 0,48 euros le litre de brut.

Le raffinage et la distribution portent le coût à 0,60 euro environ.

Grâce à l’Art des magiciens de Bercy le gazole se retrouve à 1,40 euro par litre à la pompe, ce qui représente environ 100 euros mensuellement pour une automobile parcourant 15 000 km par an, et consommant 6 litres aux cent kms.

Les uns estimeront cette dépense « raisonnable », elle sera jugée scandaleuse par les autres.

En 2010 le budget culture et loisirs des français s’est élevé à 93 Milliards d’euros ( INSEE), ce qui fait 4 227 euros annuellement par ménage, soit 352 euros par mois. Il s’agit d’un moyenne bien entendu, certains dépensent davantage, d’autre doivent se serrer la ceinture.

Ces chiffres montrent que, pour la moyenne des ménages français, quelques dizaines d’euros en plus ou en moins sur le budget carburant n’auront pas beaucoup d’impact, sinon celui d’inciter à avoir le pied plus léger sur l’accélérateur, et pratiquer une légère restriction du budget loisirs.

Il faudra donc beaucoup plus que 100 euros le baril pour entraîner des changements significatifs des modes de vie de la majorité des ménages.

Comme toujours, ce sont les plus défavorisés qui subiront au premier euro le contrecoup des hausses.

Depuis 2003 le prix du baril a été multiplié par quatre ( en 9 ans).

Sans être un expert on peut quand même avoir conscience des paramètres qui influent sur l’évolution probable du marché:

- Augmentation des coûts de recherche et d’extraction.

- Approche probable du pic de production, donc tension sur les prix.

- Forte augmentation de la demande des pays émergents.

- Forte probabilité d’évènements géopolitiques induisant des tensions sur le marché, avec probabilité d’une crise.

Cet environnement n’est pas de nature à laisser espérer une baisse des cours.

En 2005 les experts prévisionnistes n’avaient pas cru en la possibilité d’une explosion durable du prix du pétrole, ils avaient prévu 30 Dollars le baril pour 2010 alors qu’il est monté à 100 Dollars.

Ne commettons pas la même erreur, mais ne tombons pas dans l’excès inverse. Si le taux de croissance du prix se maintenait à son niveau de la dernière décennie, le baril serait à près de 500 Dollars en 2025.

Le prix à la pompe serait alors voisin de 3,80 euros le litre de gazole, à TICP et TVA inchangées.

Pour notre automobiliste, la dépense de carburant passerait à 270 euros par mois, ce qui serait difficile à gérer, même pour les revenus moyens.

Mais le plus insupportable serait pour notre balance du commerce extérieur.

Aujourd’hui les importations d’énergie entraînent un déficit annuel de

50 Milliards d’euros. Un baril à 500 Dollars porterait ce déficit à 250 Mds d’euros, évidemment impossible à assumer.

Le Gouvernement serait amené à prendre des mesures de restriction.

Il existe une quasi indexation du prix du Gaz naturel sur celui du pétrole, il n’y a donc pas de porte de sortie de ce côté. Et ce n’est pas la création du FPEG ( Forum des Pays Exportateurs de Gaz ) qui améliorera la situation.

Pour tenter d’échapper à ce piège à retardement, les Etats dépendants des importations pour leur énergie recherchent l’indépendance énergétique, au moins partielle. En son temps la France a choisi le Nucléaire, qui couvre 75% des besoins en électricité. Aujourd’hui une autre voie est possible, celle des énergies renouvelables, déjà largement mises en œuvre dans certains pays.

Toutes ces solutions de rechange fournissent de l’électricité. Or notre consommation n’utilise l’électricité que pour le quart de ses besoins.

Le reste fait appel aux énergies fossiles carbonées.

La tâche principale qui nous attend est donc de basculer tout nos besoins sur l’électricité, ou au moins les trois quarts.

C’est une tâche très difficile car sa nécessité ne fait pas consensus. On pense généralement au remplacement du nucléaire par du solaire ou de l’éolien, en oubliant complètement les trois quarts de nos besoins actuellement satisfaits par le pétrole et le Gaz naturel.

Le problème des carburants n’est que la partie émergée de l’iceberg. La voiture électrique ne nous permettra pas d’échapper au piège du pétrole.

Mais toujours à quelque chose malheur est bon: toute augmentation du prix du baril est un argument en faveur du développement des énergies durables. Si elles ne sont pas compétitives contre un pétrole à 100 Dollars le baril, il en ira différemment à 200 ou 300 Dollars !

Il nous faut accepter la fin de l’énergie à bon marché.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Repost 0