Overblog Suivre ce blog
Administration Créer mon blog
11 avril 2015 6 11 /04 /avril /2015 18:47

11 Avril 2015

On parle, on parle, … et la vie continue hors du microcosme politicien hexagonal.

C’est ainsi qu’il n’aura échappé à personne que nous vivons des temps inquiétants, inquiétudes hélas concrétisées dans l’horreur pour certains. A force d’entendre des bruits de bottes à l’Est, on a fini par les voir arriver. A force de bouillir, la marmite moyen-orientale a fini par déborder, et l’écume de se répandre alentours, avec les dégâts que l’on sait.

Il se trouve que ces trublions sont aussi des acteurs majeurs de l’énergie, et leurs soubresauts ne manqueront pas d’avoir des conséquences sur les approvisionnements des pays dépourvus de toute ressource dans ce domaine.

La France doit acheter à l’extérieur 80% de l’énergie nécessaire à son fonctionnement. Même si une grande partie de ces achats proviennent de sources non directement contrôlées par le Tsar ou les émirs, Elle supporte les variations des cours soumises aux aléas géopolitiques engendrés par iceux.

Par ailleurs notre situation économique est si dégradée que le « Trésor » public en est réduit à prendre l’argent des pauvres. Le bateau prend l’eau et toute proposition est bonne pourvue qu’elle contribue à étancher la voie d’eau. On verra plus tard à choisir la couleur pour repeindre la coque…

Il n’est pas nécessaire d’être un économiste pour comprendre que la conjoncture internationale peut se retourner; des taux d’intérêt un peu plus élevés, et un pétrole qui reviendrait à cent dollars, il n’en faudrait pas plus pour torpiller un navire déjà bien engagé.

Aussi la tentation est-elle grande d’aller voir si ce fameux gaz de schiste n’existerait pas par hasard sous nos pieds, pour nous permettre de refaire le coup du gaz de Lacq. On pourrait espérer en tirer un double bénéfice: réduire les importations, donc gagner en indépendance énergétique, et créer des emplois, saint graal de toute politique sociale.

Mais l’exploitation des éventuels gisements comportent des inconvénients largement médiatisés, ayant conduit à une condamnation sans appel par les instances écologiques, condamnation entérinée par l’actuel gouvernement et une partie de l’opinion.

L’attribut « sans appel » est jugé irrecevable par une partie de la communauté scientifique et de l’opinion, qui considèrent que face à un problème, quel qu’il soit, l’attitude ne doit pas être dogmatique et la voie ne doit pas être fermée à toute recherche de solution.

Cette polémique, et bien d’autres comme celles des OGM, des antennes-relais, de l’aéroport de NDDL, etc…est censée trouver son issue dans l’application du principe de précaution désormais inscrit dans la Constitution:

« Lorsque la réalisation d'un dommage, bien qu'incertaine en l'état des connaissances scientifiques, pourrait affecter de manière grave et irréversible l'environnement, les autorités publiques veilleront, par application du principe de précaution, et dans leurs domaines d'attribution, à la mise en œuvre de procédures d'évaluation des risques et à l'adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage. »

Comme à l’accoutumée la rédaction de cette pièce d’anthologie est suffisamment vague pour laisser une large place à l’interprétation. Qu’est-ce donc qu’un dommage dont la réalisation serait incertaine, sinon un risque imaginaire, pour ne pas dire un fantasme ? Quels sont les critères d’une atteinte irréversible de l’Environnement ?

Dans le même texte il est prévu la mise en œuvre de procédures d’évaluation des risques, ce qui est la moindre des choses. Quant aux mesures provisoires et proportionnées, chacun pourra les imaginer tant est grande l’imprécision des termes.

Relativement aux gaz de schiste, la procédure définie par cette « Charte de l’Environnement » est donc très précise: il faut procéder à une évaluation des risques avant de prendre une décision.

Déontologiquement parlant, cette nécessité n’est contestée par personne. Le problème vient du niveau de crédibilité accordé aux résultats de l’évaluation des risques.

Le risque zéro n’existe pas, il n’existe que des probabilités de l’occurrence de tel ou tel dommage. Par exemple la probabilité de rupture accidentelle de la cuve d’un réacteur nucléaire a été calculée. Les chiffres sont connus. Ils expriment la probabilité de rupture d’une cuve donnée en fonction de sa durée d’exploitation. Les valeurs calculées ont été rassurantes, à un point tel que ce type d’accident n’était même pas envisagé dans les procédures.

Jusqu’à la catastrophe de Fukushima…

Le risque de pollution des océans lié à l’exploitation offshore des hydrocarbures a également été calculé, et considéré comme acceptable, la notion d’irréversibilité n’ayant pas été prouvée.

Il en sera de même pour le gaz de schiste; les facteurs de risques seront répertoriés, quantifiés, entrés dans l’ordinateur, qui fournira son verdict favorable évidemment puisque l’accident majeur est toujours causé par un facteur imprévu, et que l’ordinateur ne connaît pas l’imprévu.

Une fois de plus il faudra mettre en balance les risques, plus ou moins bien évalués, et les avantages attendus, réels ou imaginaires.

Par ailleurs le Nucléaire et le Gaz de schiste constituent des enjeux électoraux majeurs entretenant une haute pression barométrique écologique peu propice aux débats dépassionnées. Cette pression est susceptible de perturber l’évaluation bénéfices-risques et de faire pencher la balance du côté politique, quel qu’il soit.

Mais n’est-ce pas aussi cela la Démocratie ?

Repost 0
28 mars 2015 6 28 /03 /mars /2015 09:59

28 Mars 2015

Dans la stratégie de lutte contre le réchauffement climatique, focalisée sur les émissions de CO2, l’Automobile constitue une cible de choix parmi d’autres moins médiatisées. Elle est également une cible dans le cadre de la protection de l’environnement, par ses émissions de polluants et en particulier de particules fines qui sont particulièrement difficiles à éliminer, notamment les plus nocives, les nanoparticules.

Bien sûr il y a d’autres sources d’émissions de CO2 et/ou de particules: l’Industrie, les activités manufacturières, le secteur de l’Energie, le secteur Résidentiel/Tertiaire, l’Agriculture, le traitement des déchets, y ont leur part globalement aussi importante que les transports et peut-être plus. Chacune est susceptible de recevoir un traitement particulier.

Mais l’Automobile occupe le devant de la scène de par son exposition et son caractère emblématique de notre civilisation.

La solution pour éliminer les émissions de CO2 et les particules nocives des automobiles est connue, c’est la motorisation électrique. A condition bien entendu que l’électricité soit obtenue par des procédés exempts d’émissions de CO2 et/ou d’autres polluants.

En version tout électrique pour les usages urbains, et hybride pour les usages mixtes, la technologie existe et a donné la preuve de sa fiabilité de par le monde, même si la part de marché est encore modeste.

L’introduction de cette nouvelle technologie, onéreuse de par sa nouveauté et ses coûts de production non encore optimisés à cause du manque d’effet d’échelle, concerne le marché des voitures neuves évidemment, soit moins de deux millions de véhicules par an en France.

Dans le cas idéal d’un basculement total d’une technologie sur l’autre, il suffirait donc d’environ quinze ans pour renouveler le parc. L’affaire pourrait être réglée dès 2030.

Hélas le tableau n’est pas aussi idyllique qu’il y paraît.

La version tout électrique, séduisante par sa simplicité et son coût atténué par une prime d’état substantielle, n’est utilisable qu’en agglomération eu égard à sa faible autonomie.

La version hybride, utilisable sans restriction de distance, est très onéreuse à cause de sa double motorisation, qui ne la dispense pas d’une batterie importante pour assurer les trajets en agglomération.

Le marché est donc limité au haut de gamme et/ou aux flottes captives, soit moins de 20% des ventes en année pleine.

La technologie est une chose, les infrastructures en sont une autre. Le tout électrique ne peut se généraliser qu’à deux conditions au moins:

- Offrir une autonomie raisonnable, au moins 300 à 400 km.

- Disposer d’une infrastructure territoriale de rechargement rapide suffisamment dense.

Aucune de ces deux conditions n’est remplie aujourd’hui, et l’avenir à moyen terme n’est pas très encourageant. Tant qu’il en sera ainsi le marché de ce type de motorisation sera limité aux usages locaux ( Taxis, véhicules de livraisons, réseaux de bus, véhicules de location, flottes captives, second véhicule, etc…). Ce qui n’est déjà pas si mal.

L’automobiliste moyen, qui ne peut investir dans un hybride multi-usages, et qui n’a aucune raison contraignante de le faire, continuera donc de rouler au super ou au gazole, du moins tant qu’il ne lui sera pas interdit de le faire.

Les véhicules à moteur thermique récents respectent les dernières normes, actuellement Euro 6 pour les nouveaux modèles en homologation. Cette norme ne supprime pas les émission de CO2, qui sont inhérentes à la combustion des combustibles fossiles. Elle se borne à les mesurer et à imposer leur affichage dans les caractéristiques techniques des véhicules. Le législateur décide ensuite de l’application d’un bonus ou d’un malus selon le niveau des émissions de chaque nouveau modèle, mais sans interdiction de circuler pour les modèles les plus émetteurs. L’application de cette norme ne participe donc pas à la lutte contre le réchauffement climatique.

Pour ce qui concerne la pollution ( le CO2 n’étant pas considéré comme un polluant !) la norme impose des limites pour les oxydes d’Azote, les Hydrocarbures imbrulés, les particules fines, et depuis peu pour les nanoparticules, au moins certaines d’entre elles. Les nouveaux modèles de véhicules qui ne respectent pas ces limites sont refusés à l’homologation.

Mais, à ce tableau apparemment satisfaisant, il faut apporter quelques remarques:

Les limites imposées à l’émission des polluants correspondent non pas à des seuils qui seraient acceptables du point de vue de la santé publique, mais à ce que les constructeurs de voitures savent faire de mieux au moment où la norme est écrite, ce qui constitue une nuance importante.

Par ailleurs les tests d’homologation se déroule selon un processus bien défini censé représenter les conditions normales moyennes de circulation. Or il s’est avéré ( c’est maintenant admis officiellement ) que ces conditions de test sont très éloignées des conditions réelles au point de n’avoir que de très lointains rapports avec la réalité du trafic. L’affaire a fait grand bruit et des corrections doivent être apportées afin de réduire quelque peu cette distorsion inacceptable. Acceptons-en l’augure.

De plus, il est de notoriété publique que les constructeurs équipent les calculateurs de leurs véhicules de logiciels capables de détecter la survenue d’un cycle de test, et de modifier automatiquement les réglages du moteur pour obtenir des résultats flatteurs, ou tout simplement réussir l’homologation. Hors des conditions de test le calculateur revient aux réglages donnant les meilleurs résultats en performances, celles que le client verra sur le catalogue. La pollution émise dépendra alors de sa façon de conduire, du parcours, de la charge, et n’aura que de lointains rapports avec les valeurs relevées au cours du test.

Airparif mesure la qualité de l’air notamment pour la région parisienne. Les résultats sont publiés sous la forme de l’indice Atmo qui intègre la pollution sur une échelle de 0 à 10.

En 2010 les chiffres étaient les suivants pour cet indice:

Supérieur à 3 pendant 158 jours.

Supérieur à 4 pendant 120 jours.

Supérieur à 5 pendant 46 jours.

Supérieur à 6 pendant 19 jours.

Supérieur à 7 pendant 11 jours.

En 2014 ces valeurs sont passées à:

Supérieur à 3 pendant 154 jours.

Supérieur à 4 pendant 115 jours.

Supérieur à 5 pendant 52 jours.

Supérieur à 6 pendant 21 jours.

Supérieur à 7 pendant 11 jours.

Supérieur à 8 pendant 4 jours.

On constate une augmentation du nombre de jours où l’indice a été supérieur à 5: 77 jours en 2014 contre 65 jours « seulement » en 2010, soit + 18,5%.

Avec un indice supérieur à 8 pendant quatre jours en 2014 !

La sévérisation des normes Euro a permis de contenir la pollution sans toutefois la faire baisser en valeur absolue puisqu’on constate un accroissement de 18,5% de l’indice Atmo dans la même période. Cette augmentation est due en majeure partie à l’accroissement des difficultés de circulation comme en témoignent les chiffres de Média mobile ( V-Traffic.com), qui traduisent une augmentation de 26% du nombre de kilomètres d’embouteillages pour la région parisienne entre 2010 et 2013.

L’âge moyen des véhicules du parc roulant est de huit ans, ce qui est cohérent avec une période de renouvellement de quinze ans. Dans l’hypothèse, fort improbable ( on a vu pourquoi plus haut ), où le marché de l’électrique pourrait démarrer rapidement, il faudrait attendre une dizaine d’années avant de constater un effet positif global sur les taux de pollution en agglomération. Or dans les zones fortement peuplées, particulièrement dans l’Ile-de-France, le taux de pollution est déjà supérieur au taux maximum acceptable. La France a déjà été condamnée par la Communauté Européenne pour des dépassements de taux trop fréquents. Il est donc urgent de prendre des mesures de court terme, susceptibles d’apporter des améliorations dans des délais de quelques années, sans remettre en question les mesures de long terme comme le développement des transports collectifs, de la voiture de location, des parkings périphériques, etc…

Ces mesures de court terme seront nécessairement contraignantes, et concerneront d’abord les zones aujourd’hui touchées par les dépassements des taux de pollution définies par la Communauté Européenne, l’Ile-de-France étant particulièrement visée.

La mise en œuvre de telles mesures pose des problèmes économiques et d’acceptabilité, le premier échec des ZAPA en témoigne suffisamment.

La circulation alternée pair-impair n’est qu’un pis-aller applicable exceptionnellement car ne reposant sur aucun critère en relation avec la pollution.

L’interdiction d’accès faite aux véhicules les plus polluants semble aller de soi mais pose le problème du critère d’élimination, dès lors que tous les véhicules ont satisfait au contrôle technique officiel. Il faudrait préalablement modifier les normes en conséquence avec effet rétroactif, un loi serait nécessaire pour imposer le nouveau critère.

Le rejet des véhicules âgés ( plus de dix ans ?) porterait un sérieux coup au marché de l’occasion. Aujourd’hui 75% des transactions automobiles portent sur des véhicules d’occasion, dont l’âge moyen est de 8,5 ans. Les conséquences économiques de leur éviction seraient considérables, pour des résultats aléatoires puisque les véhicules récents ne sont pas eux-mêmes exempts d’émissions polluantes dans les conditions de circulation urbaine. ( Il y aurait beaucoup à dire sur le filtre à particules…).

L’obligation du covoiturage serait une mesure efficace pour réduire le nombre de véhicules entrants, à condition que son efficacité ne soit pas annulée par un système de dérogations trop laxiste ( les régimes de dérogations sont une spécialité française).

Le projet d’interdiction pure et simple du diesel est une gesticulation sans conséquence. Dès lors que les filtres à particules sont homologués selon la norme Européenne, on ne voit pas bien quelle voie juridique pourrait être utilisée pour interdire durablement les véhicules qui en sont équipés.

Il n’existe pas aujourd’hui de solution satisfaisante à court terme pour réduire significativement les taux de pollution urbaine automobile sans pénaliser lourdement l’une ou l’autre des catégories d’usagers, avec des répercutions économiques importantes.

Nous avons rappelé plus haut que l’indice de pollution atmosphérique en région parisienne continue d’augmenter significativement malgré la sévérisation des normes Euro dont les effets sont impuissants à compenser l’influence contraire de l’augmentation des difficultés du trafic.

Et peut-être parce que leur efficacité en circulation réelle est moins forte que durant les tests d’homologation, mais ceci est une autre histoire…

Les grandes agglomérations touchées par ce problème n’ont pas trouvé de solution radicale. Elles tentent de gérer les pics de pollution par des combinaisons de mesures de dissuasion comme le péage, l’interdiction du centre-ville aux véhicules les plus polluants, les réduction de vitesse, la circulation alternée, la gratuité des transports en commun, l’incitation au covoiturage, à la location de véhicules urbains électriques, etc…

A ces mesures applicables occasionnellement doivent s’ajouter des mesures de fond d’accompagnement visant à réduire durablement l’affluence pendulaire des véhicules vers et hors des grandes agglomérations.

En attendant la ou les solutions miracles, il est prudent de s’équiper de masques filtrants ou d’aller s’installer dans la Creuse.

Alphonse Allais proposait déjà de reconstruire les villes à la campagne…

Repost 0
16 mars 2015 1 16 /03 /mars /2015 19:06

16 Mars 2015

L’exploit réalisé dans le cadre du projet Solar impulse frappe les esprits à plus d’un titre:

- Il démontre que l’avion électrique n’est pas un mythe.

- Il démontre qu’un avion peut voler sans recourir aux énergies fossiles.

- Il démontre qu’un avion peut voler en autonomie énergétique.

Ces trois performances réalisées dans le même projet sont représentatives du challenge de la transition énergétique: Se passer des énergies fossiles, recourir à l’électricité, économiser l’énergie.

Solar impulse 2 est un planeur motorisé de 2 340 kg et sa vitesse de croisière est de 70 km/h. Plus qu’un prototype industriel il faut le voir comme un symbole, une bannière, un exercice de style, et il constitue à juste titre l’emblème de la transition énergétique.

L’enthousiasme médiatique en a fait l’avion de demain, alors qu’il est surtout un démonstrateur du savoir-faire des ingénieurs qui ont su réunir leurs compétences en aéronautique, en mécanique, en électronique, en science des matériaux, en électrochimie des batteries, en électromécanique, en météorologie, en géolocalisation, en science des courants aériens et du routage. Ce qui est une performance dont il faut saluer les initiateurs.

En soi cet objet n’est pas représentatif d’une quelconque application industrielle future. Il est un banc d’essai pour les technologies de la transition énergétique. Il est équipé de quatre moteurs qui développent chacun 12,8 kW avec un rendement revendiqué de 94%. Les batteries, développées par SOLVAY, offrent une capacité énergétique totale de 164 kWh pour un poids de 633 kg, soit une capacité massique de 260 Wh par kg ( deux fois plus que les batteries qui équipent aujourd’hui les voitures électriques ).

Pendant les périodes nocturnes l’alimentation des moteurs est assurée par les batteries, qui peuvent ainsi fournir environ 5 kW par moteur pendant 12 heures. Pendant les périodes de jour les 17 248 cellules photovoltaïques réparties sur une surface de 200 m2 rechargent les batteries. Le rendement global annoncé de la chaîne de propulsion du Soleil à l’hélice est de 12%.

La puissance moyenne sur 24 h rayonnée par le Soleil est de 250 W/m2. La puissance moyenne fournie par les 200 m2 de cellules est donc de 6 kW, dont devront se contenter les quatre moteurs électriques pour assurer une vitesse moyenne de 70 km/h.

On voit qu’il s’agit d’un planeur à assistance électrique, plus que d’un avion au sens habituel du terme.

La batterie occupe plus du quart du poids total de l’engin, malgré des performances plus de deux fois supérieures aux batteries modernes qui équipent les voitures électriques. On imagine sans peine la capacité qu’il faudrait donner à la batterie pour d’une part emporter non pas 2 340 kg de charge mais dix ou vingt fois plus, et d’autre part voler non pas à 70 km/h mais à dix fois plus. Plusieurs terrains de football tapissés de cellules solaires ne suffiraient pas à fournir le courant nécessaire…et ceci quel que soit les progrès accomplis dans le futur sur les batteries et les cellules solaire.

Le rayonnement solaire est une constante et la surface des ailes d’un avion est forcément limitée.

L’avion électrique de demain devra donc emporter sa réserve d’énergie.

La solution qui semble adaptée pour les produits du futur est l’association d’une réserve d’Hydrogène avec une pile à combustible. Un kilogramme d’Hydrogène contient trois fois plus d’énergie qu’un kilogramme de supercarburant. Le problème de stockage de ce gaz est un obstacle puisqu’il doit être très fortement comprimé pour diminuer le volume, ou liquéfié. On peut également le stocker par adsorption dans un matériau solide. Aujourd’hui la batterie au Lithium développée pour Solar impulse permet d’emporter jusqu’à 260 Wh par kg.

C’est la solution retenue pour le prototype E-Fan développé par Airbus. Il s’agit d’un petit avion une place équipé de deux moteurs développant une puissance totale de 60 kW. L’autonomie est d’environ une heure et la vitesse de croisière atteint 160 km/h. Le poids au décollage est de 550 kg. L’autonomie et les performances dépendent de la capacité et du poids de la batterie.

Une batterie de 200 kg dans la technologie SOLVAY PVDF poussée à 260 W/kg contient 50 kWh, largement suffisant pour plus d’une heure d’autonomie.

Des modèles « upgradés » à deux places, puis quatre places, sont prévus pour servir le marché de la formation des pilotes, et de la petite aéronautique civile. La mise au point des systèmes de propulsion à pile à combustible et carburant Hydrogène permettra d’ouvrir la voie à des applications de cours et moyen courrier.

Mais les exigences des normes de sécurité dans l’aviation civile imposeront une très longue période de mise au point et de validations de toutes ces technologie nouvelles.

Rendez-vous en 2050.

Repost 0
15 mars 2015 7 15 /03 /mars /2015 12:17

15 Mars 2014

La mobilisation contre le changement climatique est la tarte à la crème de ce début de XXIè siècle. Ce branle-bas, initié par le GIEC en 1988, a déjà donné lieu à d’innombrables représentations internationales sur les places mondiales les plus réputées.

Les accords internationaux sur la réduction des émissions de CO2 ne se comptent plus, ce produit se vend désormais à la tonne, comme les patates. Une brosse à dent ou une automobile ne s’apprécient plus au service rendu, mais à l’ « empreinte Carbone » associée.

Aux travaux du GIEC correspondent des réunions internationales à caractère politique, dont le but est d’obtenir un consensus mondial entre les Etats autour d’un programme commun de lutte contre le changement climatique. Ces conférences baptisées COP ( COnférence des Parties de la Convention Cadre des Nations Unies sur les changements climatiques) se sont déjà tenues à vingt reprises.

La prochaine ( COP 21) aura lieu à Paris en Décembre 2015, la France étant le pays Hôte.

Cette fois c’est juré, l’objectif de cette 21è Conférence est de fixer un agenda de décisions comportant les engagements d’investissements de chaque partie en vue de contenir l’augmentation de la température de l’Atmosphère sous le seuil de 2 °C. Ce seuil de 2°C est évidemment un seuil psychologique puisqu’il n’est pas démontré que les mesures correctrices, quelle que soit leur sévérité, suffiront à obtenir le résultat souhaité.

L’objectif est en fait de poser le cadre d’une économie « bas-Carbone ».

Dans l’immédiat, et pour au moins deux ou trois décennies, il s’agit de dépenser quelques milliers de milliards de dollars avant d’espérer constater un résultat positif côté thermomètre.

L’Atmosphère est un énorme système thermodynamique dont l’inertie est colossale; ce système possède une constante de temps très longue et de nombreux sous-systèmes de contre-réaction ainsi qu’un multitude de paramètres qui interagissent d’une manière non encore complètement élucidée, notamment les paramètres anthropiques. Il en résulte une incertitude quant à l’efficacité climatique des actions stratégiques qui seront entreprises, le remède pouvant se révéler pire que le mal.

(En effet, un accroissement de l’énergie interne du système thermodynamique atmosphérique dû à l’effet de serre peut se traduire par une augmentation de la température moyenne ou bien par une augmentation de l’énergie cinétique macroscopique ( tempêtes et ouragans), probablement les deux, sans que l’on puisse prédire lequel des deux l’emportera).

Des actions ont déjà été entreprises, certains pays peuvent exhiber des comportements écologiques, mais malgré ces quinze années de mobilisation massive contre le CO2, force est de constater que sa concentration dans l’atmosphère augmente toujours.

De 1990 à 2005 le taux d’augmentation était de 0,45% par an. De 2005 à 2014 ce taux est passé à 0,52% par an. ( Source NOAA). Le seuil de 400 ppm a été dépassé en 2014. On peut donc légitimement se poser des questions sur l’utilité des ces grand’messes, dont par ailleurs la propre empreinte Carbone est significative.

Les obstacles à la mise en œuvre d’une stratégie contre le réchauffement sont connus:

- la stratégie doit être mondiale sous peine de perdre toute efficacité. Or l’absence de gouvernance mondiale ne permet pas l’application de mesures contraignantes.

- Les investissements nécessaires atteignent des montants exorbitants, hors de portée des pays en voie de développement, ceux-là même dont les besoins énergétiques vont croître dans l’avenir.

- les énergies fossiles continuent d’être disponibles en quantités illimitées et pour un coût encore gérable; les Etats n’accepteront pas facilement d’abandonner ce pactole pour des solutions plus onéreuses et dont l’efficacité reste à démontrer.

Pour la conférence COP 21 François Hollande devra revêtir le costume de Monsieur Loyal puisqu’il lui revient la charge de faciliter la convergence des points de vue et d’obtenir l’unanimité sur un accord global.

Sa crédibilité dépendra de la consistance du programme national de la France qu’il sera chargé de présenter et de justifier. l’un des points essentiels de la stratégie de transition énergétique française est la politique électronucléaire. Or aujourd’hui pour connaître les projets du Gouvernement en ce domaine il faut soit consulter madame Irma, soit lire les ragots dans la presse, ce qui revient à peu près au même. Une troisième voie consiste à pratiquer l’exégèse du contenu des discours ou paroles « off » de tel ou telle ministre.

Une telle situation est évidemment inadmissible ( intenable) à la veille d’une conférence mondiale dont l’objectif est de prendre des décisions impliquant des investissements.

Nous attendons donc avec impatience de connaître enfin la stratégie énergétique de la France pour le XXIè siècle.

Repost 0
4 mars 2015 3 04 /03 /mars /2015 19:12

4 Mars 2015

La transition énergétique est le fil rouge de l’actuel quinquennat.

Comme dans une « Via ferrata », c’est la main courante qui doit servir de guide et de tuteur à tout programme énergétique concret. ( Nous ne parlons pas des programmes énergétiques électoraux qui ont pour seul but la séduction des gogos).

Notre « Via ferrata », c’est cette fameuse « Loi sur la transition énergétique pour une croissance verte » sans laquelle rien de sérieux ne peut être entrepris.

Un projet de Loi a été adopté en première lecture par l’Assemblée Nationale le 14 Octobre 2014. Le texte a été transmis au Sénat qui l’a adopté le 3 Mars 2015 après certaines modifications.

Concernant la politique nucléaire, ces modifications portent sur deux points:

- Suppression de la date butoir de 2025 pour la réduction à 50% de la part du Nucléaire dans le mix électrique. L’échéance est reportée « à terme » c’est-à-dire sine-die.

- Augmentation de la puissance max du parc nucléaire, la limite passe de 63,2 GW à 64,85 GW.

Le premier amendement tient compte de l’impossibilité d’arrêter vingt réacteurs d’ici 2025, sans s’être au préalable assuré des moyens de production de remplacement.

Le second amendement doit permettre la mise en service de l’EPR de Flamanville en 2017 (1650 MW) sans avoir à arrêter dans le même temps deux réacteurs du parc actuel.

Ces amendements doivent être examinés en CMP ( Commission Mixte Paritaire) dont la première réunion est prévue le 10 Mars. En cas de désaccord l’Assemblée Nationale aura le dernier mot.

Ces amendements proposés par le Sénat mettent le doigt sur le cœur du problème, qui est la politique nucléaire, pierre angulaire de la politique énergétique. Un compromis crédible devra être trouvé avant l’ouverture de la 21è Conférence sur le climat, prévue à Paris en Décembre 2015, la France étant le pays organisateur. 195 pays participeront.

Chaque pays devra présenter son programme national de préservation du climat, la France ayant la volonté d’être exemplaire et donc de montrer une cohérence sans faille dans sa propre stratégie.

La réduction des émissions de CO2 est le facteur clé dans la lutte contre le réchauffement. Une réduction de la production électronucléaire actée avant de disposer d’une production de remplacement à partir d’énergies renouvelables rendrait obligatoire le recours à une production de relève basée sur les énergies fossiles, fortement génératrices de CO2.

Programme tout à fait inacceptable dans le cadre d’une conférence dont l’objectif est précisément de réduire les émissions de CO2! On ne voit pas très bien comment le Président pourrait convaincre ses pairs que la meilleure façon de réduire les émissions de CO2 est de remplacer des centrales nucléaires par des centrales thermiques !!!

Même la meilleure et la plus sexy des actrices à la mode ne pourrait pas faire avaler une telle couleuvre à un auditoire, fut-il affaibli par un bon déjeuner.

L’électronucléaire constitue donc une patate chaude qu’il sera bien difficile de neutraliser.

Le conserver, c’est accepter le risque d’un accident nucléaire aux conséquences incalculables.

En sortir à court terme, c’est s’obliger à recourir aux énergies fossiles en attendant que les énergies renouvelables soient prêtes à assurer la relève.

Le chemin vers un compromis acceptable sera semé d’embûches tant sont rigides les positions des deux camps. Et de plus ce compromis devra rester cohérent avec les positions officielles défendues par le Gouvernement à la 21è conférence sur le climat.

Repost 0
13 février 2015 5 13 /02 /février /2015 11:48

13 Février 2015

Les objectifs du Grenelle de l’environnement comportent des engagements sur le développement des énergies renouvelables. Sans être impérieux et contraignants, ces engagements impliquent la mise en œuvre effective d’un programme industriel dont les résultats seront en accord avec les objectifs convenus.

Il s’agit en fait d’initier un mouvement vers une transition énergétique visant à réduire, voire supprimer à longue échéance, la part des énergies fossiles dans le mix énergétique.

Les engagements du Grenelle ont entre autres pour objectif la réduction des émissions de CO2. La production électronucléaire étant exempte de CO2, la France se trouve en position favorable sans avoir à investir lourdement dans les nouvelles énergies.

Aujourd’hui, grâce au nucléaire, à l’hydraulique, et à un peu d’éolien terrestre et de solaire, le mix énergétique français comprend environ 25% de décarboné pour la consommation finale. Il s’ensuit un retard certain dans les domaines de la production issue des énergies nouvelles.

Cette situation n’est pas tenable à long terme. D’une part parce que 25% ne sont pas suffisants, il faut viser très au-delà de 50%, et d’autre part parce que l’électronucléaire est menacé dans son principe et sa part de production doit être réduite, ce à quoi s’est engagé le Gouvernement.

Nous avons vu dans l’article précédent que l’arrêt des seuls vingt réacteurs les plus anciens entraînerait un déficit immédiat de production électrique de 120 TWh. Le temps est donc venu d’investir lourdement dans les énergies nouvelles, non plus pour des études de procédés innovants, mais bien pour des réalisations industrielles qui soient autre chose que des démonstrateurs.

Le premier effort significatif a été décidé sur l’éolien offshore, pour plusieurs raisons:

La France possède l’un des potentiels offshore parmi les plus importants d’Europe, tant en ce qui concerne les éoliennes posées que flottantes.

Les industriels français ( ALSTOM et AREVA) possèdent déjà une compétence dans le domaine des machines posées de forte puissance et une activité industrielle à l’export.

L’objectif fixé par le Gouvernement est d’atteindre une puissance installée nominale de 6 000 MW à l’horizon 2020, pour une production annuelle de 18 TWh environ avec un facteur de charge de 35%. Il s’agit bien sûr d’une première étape, mais d’une ampleur significative.

Une première partie de l’objectif porte sur 3000 MW, qui ont été attribués sur deux appels d’offres. Techniquement il s’agit d’éoliennes posées, d’une puissance de 5 à 8 MW selon les offres retenues. L’ensemble comprendra environ 1000 machines réparties en six parcs sur la côte atlantique.

La mise en service de ces installations est espérée pour 2018-2020 sous réserve du bon déroulement des travaux associés d’enfouissement des câbles, d’atterrage et de raccordement au réseau.

Un troisième appel d’offres est envisagé en 2015 pour tâcher de s’approcher de l’objectif de 6 000 MW. Cet ensemble de 6000 MW, qui pourrait être opérationnel à l’horizon 2025, produira annuellement 18 TWh, équivalent à trois réacteurs de 900 MW.

Or, pour compenser l’arrêt de seulement vingt réacteurs de ce type, ce n’est pas 18 TWh qu’il faut produire, mais bien 120 TWh, soit près de sept fois plus !

Et il resterait encore 38 réacteurs en fonctionnement…

La construction d’un parc éolien doit s’accompagner de la mise en œuvre des moyens de compensation de l’intermittence de la production car, même au large des côtes, le vent n’est pas régulier. La plage de vent exploitable s’étend de 10 km/h à 90 km/h environ, la puissance variant comme de cube de la vitesse.

Le régulateur du réseau de distribution doit donc connaître les prévisions de production afin de déclencher au moment opportun les moyens de substitution ou de stockage. Ces prévisions s’expriment en probabilité d’avoir, pour un parc donné, tel niveau de production à telle échéance, au quart d’heure près. Ceci nécessite de disposer d’un maillage météorologique dense et précis à quelques centaines de mètres près, sous peine d’avoir à gérer des « black out » à répétition.

Les moyens de substitution doivent être capables de démarrer rapidement, de fournir des puissances très élevées, et d’assurer leur service sur des durées qui peuvent être très longues, fonction des conditions météo saisonnières.

On utilise à cet effet des centrales thermiques, si possible CCG ( Cycles Combinés à Gaz). Les STEP ( Stations de Transfert l’Energie par Pompage) permettent d’assurer également la relève, mais pour une courte durée, fonction de la capacité du réservoir d’eau.

Ces moyens de compensation de l’intermittence sont indissociables des moyens de production Solaire et Eolien. Leur ampleur est fonction de plusieurs facteurs:

- L’historique des fluctuations de production pour chaque parc, qui ne peut évidemment être connu qu’à l’issue de plusieurs années d’exploitation.

- Les possibilités d’équilibrage de la production par la mise en commun des ressources de tout les parcs raccordés au réseau. Une baisse de production dans une région peut être en partie compensée par un excès dans une autre.

- Les possibilités d’échanges transfrontaliers avec les autres pays producteurs grâce aux interconnexions à haut débit.

- Les possibilités de gérer la demande grâce à l’instauration du réseau intelligent ( Smart Grid) .

Aux parcs éoliens de la côte atlantique devront être adossés des moyens de relève capables de fournir une production de base de 2 ou 3 TWh au moins.

On constate qu’il ne suffit pas de planter des éoliennes et de les raccorder au réseau pour faire une transition énergétique. Il faut en fait développer une approche différente de la gestion de ce réseau, ce qui nécessite des investissements importants et une acceptation du public, notamment en matière d’interactivité.

On mesure l’énormité de l’effort industriel à accomplir pour espérer remplacer un jour le parc électronucléaire par un parc d’énergies durables. Mais la première pierre est posée, et l’appétit vient en mangeant…

Repost 0
7 février 2015 6 07 /02 /février /2015 19:25

07 Février 2015

Les antinucléaires ont donc remporté une grande victoire, la stratégie de transition énergétique intègre désormais l’abandon de cette technologie pour la production de l’électricité. Nous parlons de nucléaire « civil ».

Cet abandon prendra la forme d’un retrait progressif sur une durée qui dépendra de la capacité des énergies de remplacement à pourvoir aux besoins du Pays, l’impératif élémentaire étant de ne pas mettre la France en panne.

Une première phase de cette stratégie consistera ainsi à mettre à l’arrêt vingt réacteurs parmi les plus anciens, sans toucher dans l’immédiat au reste du parc ni au programme EPR de Flamanville qui est le prototype de validation de la génération III+, ni aux programmes d’études d’AREVA et du CEA.

Cette première phase pourrait s’étendre sur deux décennies (Horizon 2030).

Conformément aux règles définies par l’autorité de sureté nucléaire, le démantèlement des réacteurs arrêtés sera entrepris dès la fermeture des sites.

D’autres décisions seront prises à l’issue de cette première phase, en fonction de la montée en puissance des énergies de remplacement.

Les réacteurs dont l’arrêt d’exploitation a été décidée produisent annuellement 120 TWh, soit environ 27% de la production électronucléaire française.

Les projections de la demande interne d’électricité d’ici 2030 ne prévoient pas de diminution significative, bien au contraire, malgré le programme conséquent d’économies d’énergie. La première phase du programme d’arrêt du nucléaire doit donc être accompagnée de la mise en œuvre de moyens de production équivalents dans des technologies basées sur les énergies renouvelables, sur la base de 1MWh pour 1 MWh.

Le calendrier effectif d’arrêt des réacteurs sera donc indexé sur celui de la montée en puissance des énergies de remplacement.

Les technologies de production électrique de remplacement sont connues: Eolien, Solaire photovoltaïque, Solaire thermodynamique, Hydraulique, Thermique ( CCCG) au Biogaz.

La mise en œuvre de ces technologies variées ne peut être entreprise sans un solide programme cadre, seul garant d’une avancée cohérente et d’une bonne coordination des moyens technologiques et financiers.

L’établissement de ce programme a été confié à un consortium regroupant les principaux industriels du secteur de l’énergie sous l’égide du nouveau Ministère de l’énergie dont les compétences ont été recentrées. L’objectif n’est pas la réalisation d’études scientifiques visant à la mise au point de technologies innovantes futuristes, mais l’utilisation de technologies existantes pour construire des installations capables de produire 120 TWh supplémentaires à l’horizon 2030.

Cette production viendra s’ajouter à la production d’électricité déjà existante des énergies renouvelables, qui atteint aujourd’hui 90 TWh avec l’Hydraulique, l’Eolien terrestre et le Photovoltaïque.

Ce surcroît de production de 120 TWh sera réparti entre les différentes technologies.

La stratégie de transition s’appuiera en partie sur le concept d’autoconsommation. En effet, les énergies renouvelables peuvent être exploitées localement: le vent, le Soleil, la biomasse, les déchets organiques, sont disponibles partout et permettent donc une production locale d’électricité grâce à des installations dimensionnées à la mesure des besoins d’une petites collectivité. Une partie significative des besoins peut ainsi être satisfaite sans faire appel au réseau, dont la tâche est soulagée d’autant. Le programme de retrait du nucléaire sera donc accompagné d’un programme d’incitation à la production locale associée à l’autoconsommation, en favorisant l’échelon de la collectivité ( Village, Commune, Communauté de Communes). Une commission est chargée d’étudier un modèle économique susceptible se porter ce concept, sans créer d’effet d’aubaine, et sans pour autant décourager les initiatives. Ainsi le développement de l’autoconsommation créera un secteur à part entière dans le mix énergétique.

Les sources d’énergie solaire et éolienne étant par nature intermittentes, le concept de production-consommation locales ne peut fonctionner que s’il existe un moyen de relève et/ou de stockage de l’énergie produite Les systèmes connus sont très variés:

- Des installations pouvant assurer la relève pour une durée illimitée. Il s’agit de centrales thermiques, par exemple du type CCCG ( Cycles Combinés à Gaz).

- Des installations de stockage, dont la capacité énergétique est limitée et donc pouvant assurer la relève pour une durée réduite. Elles sont de trois types:

- Relève de courte durée ( Horaire) Stockage électrochimique: Batteries à circulation, Electrolyse, Pile à Hydrogène. Hydrures métalliques. Stockage mécanique: Energie cinétique ( Volant). Gaz comprimé. Stockage chimique: Matériaux à changement de phase.

- Relève de durée moyenne ( Hebdomadaire) Stockage gravitaire: STEP ( Stations de Transfert d’Energie par Pompage).

Certains de ces procédés sont utilisables à l’échelon local, d’autres relèvent du réseau de distribution national ou régional.

Cet aspect de relève de l’intermittence constitue un des principaux obstacles à l’extension des énergies renouvelables intermittentes. Il n’existe pas encore aujourd’hui de solution satisfaisante

. L’objectif de 120 TWh supplémentaires ne pourra être atteint qu’en répartissant l’effort entre les différentes technologies. La partition pourrait être la suivante ( en TWh):

- Hydraulique: 15

- Eolien terrestre: 15

- Eolien offshore: 50

- Photovoltaïque: 20

- Solaire thermodynamique: 10

- Thermique au Biogaz: 10

Un effort très important portera sur l’éolien offshore pour lequel les côtes françaises offrent l’un les plus importants potentiels d’Europe. (Rappelons qu’aujourd’hui la France ne possède encore aucune éolienne offshore).

Cet objectif de production correspond à une puissance installée de 16 GW, obtenue grâce à un ensemble de 2 700 éoliennes offshore de 6 MW avec un facteur de charge de 35%.

(Le potentiel éolien offshore du littoral français est estimé à plus de 50 GW en tenant compte des possibilités des plateformes flottantes).

Le coût actuel de l’éolien offshore atteint 3 millions d’euros par MW. Le coût de construction serait donc de l’ordre de 50 Milliards.

Auxquels viendront s’ajouter les moyens de production de relève de l’intermittence.

A l’issue de cette première phase ( horizon 2030) la réalisation sera évaluée par rapport à l’objectif fixé, et selon le bilan technique, financier et environnemental, il sera décidé soit de poursuivre selon le programme initial de sortie du nucléaire, soit de réorienter la stratégie en fonction des impératifs nouveaux. Il sera notamment procédé à une évaluation des autres programmes (Photovoltaïque, Hydraulique, Solaire thermodynamique, Thermique CCCG Biogaz) qui auront été menés en parallèle avec l’éolien offshore, ainsi qu’à l’état des lieux en ce qui concerne les moyens de stockage et de relève de l’intermittence.

La seconde phase de la transition intégrera ces résultats pour définir les nouveaux objectifs ( Période 2030-2050).

Voici donc enfin achevée la période des discours, des colloques, des promesses, des faux-semblants, des hésitations. Le temps de l’action est arrivé.

PS. Le lecteur aura compris bien sûr que tout cela n’est que pure fiction. Tout le monde a le droit de rêver.

Repost 0
3 février 2015 2 03 /02 /février /2015 10:09

3 Février 2015

La voiture électrique (La vraie) est fréquemment vantée pour les économies qu’elle engendre grâce au faible coût de l’électricité. La promesse d’un plein à deux euros est un argument qui retient pour le moins l’attention.

Voyons ce qu’il en est et surtout ce qu’il en sera dans l’avenir.

La consommation d’une voiture électrique peut varier du simple au double selon le type de conduite, la vitesse, le type de parcours (agglomération, route, autoroute), le profil de la route ( pente), la charge (Nombre de passagers), l’utilisation ou non du chauffage, de la climatisation, le poids chargé dans le coffre.

Ainsi une Renault ZOE, disposant des 20 kWh de la batterie (90% de la capacité nominale) pourra parcourir entre 90 et 180 km selon les circonstances. Il en est à peu près de même pour les autres modèles électriques du marché, tout au moins ceux qui sont équipés d’une batterie de 22 kWh. Pour les autres une règle de trois suffit.

On peut donc parler d’une consommation comprise entre 11 et 22 kWh aux cent km pour une voiture électrique moyenne.

Dans l’hypothèse d’un rechargement au domicile, au tarif Bleu/ 6 kVA (Tarif domestique standard), le prix du kWh est de 17 centimes, en incluant l’énergie fournie, l’abonnement, la TCFE, la CSPE, la CTA, et la TVA.

Le coût pour parcourir cent km est donc compris entre 2,08 euro et 4,16 euro selon les circonstances comme décrit ci-dessus.

Une voiture à moteur diésel équivalente et de mêmes performances consomme entre 4 et 6 litres aux 100 km, toujours selon les circonstances, qui sont les mêmes que pour la voiture électrique. Le coût aux 100 km sera donc compris entre 4,4 et 6,6 euro au prix actuel.

Donc entre 1,5 et 2 fois plus qu’avec l’électricité.

Cet écart, à première vue médiatiquement « décisif » , représente un montant annuel de 250 à 300 euros pour un kilométrage de 12 000 km.

A mettre en balance avec les contraintes de la voiture électrique:

- Un prix d’achat plus élevé, lié au coût de la batterie au Lithium.

- Une perspective de revente problématique à cause de la batterie dont la durée de vie est limitée et dont le remplacement est TRES onéreux.

- Obligation d’immobiliser la voiture 4 à 6 heures par jour pour recharger la batterie ( les bornes de rechargement rapides ne sont encore qu’un projet, et le tarif ne sera pas le même que celui d’EDF).

- Préoccupation permanente de l’adaptation du mode de conduite à l’itinéraire envisagé sous peine de s’arrêter aux fraises avant d’arriver au bout.

- Impossibilité d’emprunter les autoroutes tant qu’un réseau de rechargement rapide ne sera pas généralisé ( 2020, 2030 ?).

- Performances limitées par la nécessité de préserver un minimum d’autonomie.

- Impossibilité de réaliser un déplacement impromptu de quelque distance si la batterie n’est pas suffisamment chargée.

Le cumul de ces inconvénients peut décourager plus d’un client. En fait un tel véhicule a une vocation essentiellement citadine, ou de seconde voiture.

Aujourd’hui les carburants diesel et essence supportent la taxe TICPE, qui représente respectivement 57% et 62% du prix de vente. Le kWh électrique supporte également des taxes ( pas les mêmes) et un abonnement, le tout à hauteur de 39% de la facturation TTC, lorsque l’électricité est prélevée sur un compteur ERDF au tarif réglementé 6KVA.

Dans l’avenir l’écart de prix entre l’électrique et l’essence ou le diesel variera en fonction de l’évolution du prix du pétrole, de l’évolution du prix des énergies renouvelables, et de la politique de taxation décidée par le Gouvernement.

Nos voitures consomment annuellement 29 Milliards de litres de carburants, qui rapportent à l’Etat, via la TICPE, près de 15 Milliards par an, et davantage si la politique d’harmonisation entre essence et diesel devient effective ( d’ici 2020 ? ).

Depuis des décennies le prix du pétrole, moyenné sur plusieurs années, est en constante augmentation. L’effondrement actuel n’est probablement pas durable et l’on peut s’attendre à une reprise vers les niveaux post 2008 supérieurs à cent dollars.

Les projections à long terme ne vont pas dans le sens d’une diminution du prix des carburants à la pompe, l’épuisement des réserves, programmé pour hier, finira bien par se produire un jour.

Les Biocarburants de deuxième et troisième génération coûteront cher, ils ne contribueront pas à la baisse des prix.

Pour des raisons de renouvellement du parc de production électrique, et d’arrivée des énergies renouvelables, le prix de l’électricité va de son côté continuer à monter, d’autant plus que son niveau actuel (en France) est maintenu artificiellement bas. Le tarif réglementé de 10,8 centimes TTC le kWh en contrat de base 6 KVA ( Hors taxes spécifiques) ne peut qu’augmenter significativement pour s’aligner sur les prix européens ( 30 centimes ?).

Par ailleurs, le futur réseau de bornes de rechargement sera exploité par des sociétés privées qui pratiqueront des tarifs n’ayant que de lointains rapports avec le tarif réglementé domestique. La situation actuelle n’est pas représentative, la plupart des bornes de recharges sont installées par des commerces ou des collectivités dans un but publicitaire ou de promotion du concept. La recharge y est gratuite, ou payante à un niveau symbolique. Quant au futur réseau de rechargement rapide ( 80% de la charge en moins de trente minutes), les gazettes en parlent beaucoup mais il est impossible de trouver le début d’une information sur le prix du kWh fourni par ces bornes.

Or c’est de lui que va dépendre le modèle économique de la voiture électrique.

Il se peut alors que l’écart de coût carburant entre la voiture électrique et les autres se réduise fortement, voire même s’inverse. (La politique du Gouvernement en matière de TICPE peut nous réserver des surprises, il se pourrait qu’elle soit appliquée aussi à l’électricité…)

La vraie raison du choix d’une voiture électrique reste l’absence d’émission de CO2 et d’oxydes d’Azote. A condition que l’électricité soit issue de sources renouvelables…

L’acheteur d’un véhicule électrique se doit donc de souscrire un contrat de fourniture d’électricité verte sinon son geste écologique est dépourvu de sens.

Pour les entreprises, EDF propose les contrats « Equilibre » et « Equilibre+ » qui garantissent l’origine « verte » de l’électricité livrée. ( Les numéros des certificats de garantie d’origine contrôlés par Powernext sont communiqués à l’entreprise). Le surcoût est de 1 à 3% selon les contrats.

Pour les particuliers la plupart des fournisseurs ont une offre de contrat « vert » avec un surcoût négocié. Nous ne doutons pas que ce surcoût sera facilement accepté par le consommateur qui se prétend soucieux d’écologie.

En France les ventes de voitures électriques et hybrides représentent environ 3% du marché (56 000 véhicules en 2013), dont 0,45% seulement en tout électrique ( 8 000 voitures).

Décidément l’argument du plein à deux euros n’a pas convaincu beaucoup de clients…

Repost 0
1 février 2015 7 01 /02 /février /2015 10:09

1er Février 2015

Lors de la nationalisation des secteurs de production électrique et gazier en 1946 l’Etat a instauré un tarif réglementé des énergies de réseaux. En 2004, les entreprises historiques EDF et GDF ont été partiellement nationalisées, et en 2007 le marché de l’énergie a été ouvert à la concurrence. Mais l’Etat a maintenu le système des tarifs réglementés de vente ( TRV) pour les fournisseurs historiques. Les fournisseurs alternatifs sont libres de choisir leurs tarifs.

Pour l’électricité il existe trois types de tarifs réglementés:

- Bleu, pour les particuliers et professionnels.

- Jaune, pour les entreprises moyennes.

- Vert, pour les grandes entreprises électro-intensives.

Ces tarifs sont périodiquement ajustés, après avis de la Commission de Régulation de l’Energie ( CRE ). Le principe de base est la couverture des coûts. Le fournisseur historique ne doit pas globalement vendre à perte.

Pour ménager le porte-monnaie des consommateurs domestiques ( Qui sont aussi des électeurs) le tarif Bleu a été maintenu déficitaire, les pertes étant récupérées sur les tarifs Vert et Jaune.

Le consommateur domestique paye donc son électricité en-dessous du prix de revient, ce qui constitue une distorsion de concurrence qui n’a évidemment pas échappé à la Commission Européenne.

Les TRV constituent une « anomalie » dans un marché qui se veut ouvert à la plus large concurrence.

Pour mettre fin à tout risque de procédure Européenne, la loi NOME (Nouvelle Organisation du Marché de l’Electricité) a été promulguée en 2010, qui prévoit entre autres la fin des tarifs Jaune et Vert pour les entreprises au 31 Décembre 2015.

Les tarifs réglementés de vente pour les petits consommateurs ( Tarif Bleu) sont pour le moment maintenus. Mais il subsiste l’impératif de ne pas vendre en dessous des coûts, donc il faudra d’ici fin 2015 rattraper le « retard » puisque le tarif Bleu est aujourd’hui « bradé » à 12 centimes le kWh.

Le tarif « normal » sera alors peu différent de celui de nos voisins, aux alentours de 20 centimes le kWh, dès 2016/2017.

Au-delà, l’avenir s’annonce douloureux pour le consommateur:

- Le parc de centrales nucléaires est vieillissant, il faudra donc dépenser beaucoup d’argent pour le maintenir en fonctionnement, ou bien dépenser dans le démantèlement tout en investissant dans de nouvelles installations de production ( nucléaires ou thermiques).

- Les énergies renouvelables coûtent cher, très cher si l’on tient compte de la nécessité de construire des installations de stockage de l’électricité pour compenser l’intermittence.

Ces dépenses considérables seront nécessairement chargées sur la facture d’électricité puisqu’il sera « interdit » de vendre à perte.

Le fait que ces charges nouvelles soient en partie facturées aux lignes « CSPE » et « TCFE » plutôt qu’à la ligne « Consommation » ne consolera pas l’abonné, qui verra sa facture grimper inexorablement sans préjudice des effets de la probable application de la tarification progressive.

Le tarif réglementé continuera d’exister, mais à un niveau qui n’aura plus rien à voir avec les 12 centimes actuels.

Voici venu le temps de renoncer au chauffage électrique et à la climatisation, et de réfléchir sérieusement au coût d’utilisation d’une voiture électrique avec un kWh à 20 ou 30 centimes, voire plus pour une recharge sur des bornes publiques exploitées par des entreprises privées.

Et sans oublier une probable extension de la TICPE à l’électricité de recharge des batteries, qui viendrait en complément de la CSPE consacrée en principe au financement des énergies nouvelles.

Un simple effet de la baguette magique de la fée électricité…

Repost 0
30 janvier 2015 5 30 /01 /janvier /2015 11:12

30 Janvier 2015

Grâce aux énergies renouvelables la production d’électricité est devenue une activité comme une autre, en ce sens qu’elle est accessible aux petites et moyennes entreprises, voire même aux particuliers. Il est ainsi possible de créer une entreprise dont l’activité sera la production d’électricité à partir d’une ou plusieurs sources d’énergie renouvelable décarbonées ou à Carbone recyclable.

Ce nouveau secteur de marché a ceci de particulier que, sous certaines conditions, la production est largement subventionnée par le Gouvernement qui garantit son écoulement non seulement en volume mais également en valeur (Article L314 du code de l’énergie) pendant une durée spécifiée au contrat. Les conditions à remplir sont nombreuses et sévères:

Conditions techniques de respect du cahier des charges autorisant la réinjection dans le réseau, de l’efficacité énergétique des processus de production, de la qualité de la fourniture, etc….

Conditions relatives au mode de production, à la durée du contrat, aux formalités d’implantation du ou des sites de production, à l’impact sur l’environnement, etc, etc…

La production d’énergie renouvelable peut être motivée soit par la volonté d’un geste écologique désintéressé, soit par la recherche d’un profit, éventuellement les deux.

Qu’en est-il en pratique ?

Prenons le cas d’un petit parc éolien d’une puissance installée de 8 MW Constitué par exemple de 4 éoliennes de 2 MW.

Selon l’ADEME, « les coûts d’études, de construction, de raccordement et de démantèlement pour de l’éolien terrestre atteignent environ 1,2 millions d’euros par mégawatt. Les coûts d’exploitation, d’entretien et de maintenance représentent près de 3% par an de l’investissement total »

En zone favorisée ce petit parc produira une énergie de 14 GWh/an en moyenne calculée sur 10 ans pour lisser les variations annuelles ( facteur de charge moyen de 20%).

Aujourd’hui cette production est achetée par EDF à 82 euros/MWh, soit deux fois le prix du marché environ. Ce prix est garanti pour une durée de 10 ans par contrat. Pour les cinq années suivantes le prix d’achat fixé est plus faible, notablement inférieur à 82 euros/MWh, variable selon les conditions particulières ( entre 28 et 82 euros/Mwh).

Dans notre hypothèse l’investissement est couvert par un emprunt bancaire de 9,6 millions d’euros sur 15 ans au taux de 3% et annuités constantes.

Sur la période contractuelle de dix ans le chiffre d’affaire annuel est donc de 1,148 millions d’euros ( 14 GWh au tarif de 82 euros le MWh).

Les charges sont les suivantes:

- Annuités de remboursement de l’emprunt: 0,874 millions d’euros.

- Charges d’exploitation, maintenance et entretien ( 3% du coût d’investissement): 0,288 millions. Nous arrivons à 1,162 millions d’euros par an, l’affaire est déjà déficitaire sans même compter les inévitables aléas:

- Facteur de charge effectif inférieur à la valeur de référence.

- Problèmes techniques entraînant des frais supplémentaires et des interruption de production. Au-delà de 10 ans et sur les 5 années suivantes le prix d’achat est diminué, ce qui rend le bilan financier encore plus catastrophique.

Ce calcul simple montre que l’éolien n’est pas la poule aux œufs d’or que l’on présente habituellement. Seules les subventions diverses permettent d’afficher des résultats acceptables.

Par contre, si l’on se place du point de vue de l’autoconsommation, les choses sont différentes: Le parc éolien que nous avons pris en exemple peut alimenter 5000 logements en énergie électrique hors chauffage et eau chaude sanitaire. ( 2 800 KWh/an par logement). Avant la construction du parc éolien cette énergie est fournie par EDF au prix de 0,14 euro/KWh, en incluant TVA, Taxes et contributions diverses dont CSPE, et abonnement. Le total se monte à près de 2 millions d’euros annuellement.

Le parc éolien permet de fournir la même quantité d’électricité pour une dépense de 1,16 millions d’euros environ, soit presque deux fois moins.

Ce parc, géré en autoconsommation, devient alors très rentable pour la collectivité si le parc est en autogestion. De plus il met les consommateurs à l’abri des augmentations de tarif EDF, et des augmentations de la CSPE qui ne manqueront pas de survenir dans l’avenir. Au terme de la période d’amortissement de 15 ans le parc continue à produire à un coût très faible.

Les consommateurs peuvent soit rester raccordés au réseau EDF et continuer à payer les frais fixes ( Abonnement et contribution tarifaire d’acheminement), soit se désolidariser du réseau dans la mesure où la réglementation le permet.

Mais ce programme idyllique n’est hélas pas réaliste.

Un parc éolien en autoconsommation ne peut fonctionner que s’il est couplé à une installation de stockage de l’électricité pour compenser l’intermittence des fournitures.

Et aujourd’hui on ne sait pas faire…

Actuellement la vente de l’électricité à EDF permet de reporter sur ce dernier le problème de la compensation d’intermittence, ce qui commence d’ailleurs à lui poser de sérieux problèmes, et l’oblige à maintenir une capacité de production thermique.

Ces « petits » problèmes expliquent en grande partie le quasi effondrement du marché depuis 2010, avec l’incertitude sur la pérennité du tarif d’achat EDF, qu’il faut bien appeler une subvention, laquelle est une distorsion de concurrence prise dans le collimateur de Bruxelles.

Tout ceci pour montrer une fois de plus que le problème des énergies renouvelables intermittentes reste le stockage de masse de l’électricité. Seule la résolution de ce problème permettra le dévérouillage du déploiement à grande échelle de ces nouvelles applications.

Repost 0