Overblog Suivre ce blog
Administration Créer mon blog
27 mai 2012 7 27 /05 /mai /2012 19:23

 

28 Mai 2012

Le grand battage autour de la voiture électrique me rappelle l’ancienne sagesse populaire qui nous enseigne qu’on peut mener un âne à l’abreuvoir, mais qu’on ne peut pas l’obliger à boire.

Avec la publicité dans le rôle de l’abreuvoir, et l’usager moyen dans le rôle de l’âne ( Pardon cher lecteur), nous somme à peu près dans la même situation.

Chaque mois, de merveilleux engins sont exhibés par des constructeurs qui rivalisent d’imagination pour qu’enfin l’automobiliste moyen consente à se faire électrifier. Les EV, les HEV, et les PHEV étalent leurs arguments en jouant sur les cordes de l’écologie, du standing, de l’économie, du silence, de l’avant-gardisme, du bonus, et même de la menace de taxe carbone, sans réussir à convaincre quiconque, à part une poignée de consommateurs inconditionnels de nouveautés.

C’est que l’automobiliste moyen est devenu un homme averti qui s’efforce de ne pas prendre des vessies pour des lanternes. L’homme du terroir, et le citadin, qui est bien souvent un ancien paysan, ont gardé l’habitude de regarder dans la bouche du cheval avant de l’acheter.

Et dans la bouche du cheval électrique, on y voit de drôles de choses qui incitent à la réflexion:

- C’est nouveau, donc il y a forcément des plâtres à essuyer.

- L’ancien système fonctionne, je ne vois pas pourquoi j’en changerais.

- C’est compliqué et bourré d’électronique, et les batteries ne sont pas au point.

- C’est beaucoup trop cher, même avec le bonus.

- Il faut recharger une batterie, et cela prend des heures.

- L’autonomie est ridicule.

- Je ne pourrait pas recharger ma batterie sur la route.

- A la revente j’y perdrais beaucoup.

- Etc…

Les promoteurs de la chose électrique se prennent à rêver d’une bonne fée qui, d’un coup de baguette magique, créerait l’environnement propice:

- Pétrole à 500 Dollars le baril.

- Prix du KWh stabilisé à onze centimes.

- Nouvelle règlementation interdisant les centres villes aux véhicules émettant plus de 50 g de CO2 au km ( Coucou la pastille verte).

- Instauration d’une taxe carbone dissuasive.

- Génération spontanée d’une structure de recharge des batteries.

- Et pourquoi pas, rationnement du carburant.

Mais hélas la réalité est obstinée, le pétrole persiste à rester collé à la barre des cent Dollars, la taxe carbone se fait attendre, les centres villes restent ouverts aux pires engins pollueurs, et on parle même d’une augmentation du tarif de l’électricité, soutien aux énergies renouvelables oblige. Quant aux structures de recharge des batteries, il n’en est question que dans les projets d’études subventionnés.

Face à cette situation les constructeurs ont fini par comprendre que le marché de masse de la voiture électrique n’est pas pour demain matin.

Comme il faut quand même se faire la main pour être prêts au cas où, ils ont décidé d’exploiter les niches existantes, et au besoin en créer de nouvelles.

Car il existe des créneaux exploitables dans les véhicules de sociétés, les taxis, les véhicules de location ou en libre service, les flottes de véhicules de collectivités locales, les véhicules de livraison en circuit court, les flottes de l’Administration, et bien sûr EDF et la Poste, toujours en première ligne dans ce genre d’opérations. A cela pourront s’ajouter quelques particuliers assez motivés pour acquérir un véhicule qu’ils pourraient obtenir pour la moitié du prix en technologie conventionnelle.

Mais quand on aime on ne compte pas….

Pour illustrer le propos, j’aimerais présenter le nouveau bébé d’Opel, qui tente de corriger certaines lacunes des autres véhicules déjà présents sur le marché. C’est bien sûr un véhicule hybride rechargeable, plus personne ne croit au véhicule routier uniquement électrique.

Pour garantir les performances et l’autonomie, l’engin est doté de trois moteurs ! C’est la ceinture et les bretelles.

- Un moteur électrique puissant A de 111 KW ( 150 CV) pour assurer la traction en régime électrique de croisière.

- Un batterie de 16 Kwh ( 198 Kg ) pour fournir une autonomie de 60 à 80 Kms. Donc beaucoup plus que les autres hybrides du commerce.

- Un second moteur électrique B, de 54 KW ( 72 CV) qui a deux fonctions:

D’une part, assister le gros moteur électrique A en cas de demande élevée de puissance sur la route.

D’autre part, fonctionner en générateur pour recharger la batterie.

- Un moteur thermique à essence, de 1400 cc, et 63 KW ( 86 CV) dont le rôle est de recharger la batterie en entraînant le moteur-générateur B.

Tout cela est couplé par un système mécanique assez complexe, géré par un calculateur non moins complexe.

La vitesse de la chose est limitée à 160 Km/h pour ménager la consommation d’électricité.

Le poids à vide de la bête est de 1 700 Kg avec la batterie.

Ce véhicule est conçu manifestement pour couper court aux critiques habituelles sur l’autonomie et les performances.

Le prix est de 40 000 euros bonus déduit.

La niche visée n’est évidemment pas la voiture de Monsieur tout le monde, qui sera plutôt intéressé par une voiture « ordinaire » à essence, qui lui offre les mêmes performances et le même équipement pour deux fois moins cher.

Ce véhicule a au moins l’intérêt de montrer ce que pourrait être le véhicule électrique du futur, lorsque la courbe d’apprentissage aura amené son prix à une valeur compatible avec les moyens financiers de la masse des acheteurs.

Ce qui ne saurait advenir avant une petite décennie.

On pourra s’étonner de ne pas trouver ici l’éloge de la CITROEN DS5

Hybrid 4, qui se place sur le même créneau que l’OPEL.

Mais l’autonomie électrique ridicule de la CITROEN, environ 3 Km, ne permet pas de la considérer comme un véhicule électrique, même partiellement. La référence à l’hybride est dans ce cas un abus de langage à la limite de l’escroquerie vis-à-vis d’une clientèle pas toujours avertie.

Il serait souhaitable que la profession cesse d’exploiter la naïveté technologique des acheteurs pour leur vendre des objets non conformes à ce qu’ils sont en droit d’attendre. Ces comportements ne sont pas de nature à soutenir le développement futur du véhicule électrique.

Désormais en 2012 un véritable véhicule hybride doit appartenir au type VHAE (Véhicule Hybride à Autonomie Etendue) ou encore E-REV (Electric- Range Extanded Vehicle), ce qui est le cas de l’Opel citée.

 

Repost 0
23 mai 2012 3 23 /05 /mai /2012 15:09

 

22 Mai 2012

Cette affaire de fusion froide, rebaptisée LENR pour tenter d’effacer toute connotation sulfureuse évoquant l’alchimie, n’est pas autre chose que la bonne vieille transmutation à basse énergie, laquelle nous renvoie illico aux époques dites obscures que notre civilisation « éclairée » répudie au nom du progrès de la Science et du savoir absolu.

Jusqu’à la fin du XIXè siècle la Science officielle n’avait que de très vagues idées sur la structure atomique de la matière. Toute prétention à vouloir modifier la nature des corps pouvait alors encore passer pour élucubration d’un cerveau dérangé.

Il faut attendre 1911 pour que Rutherford découvre le noyau de l’atome, puis le proton en 1919, le neutron n’étant découvert qu’en 1932 par Chadwik. La théorie atomique pouvait naître et se développer.

C’est à cette époque que les progrès de la physique théorique ont permis d’ouvrir la voie à cette nouvelle branche qui est la physique/chimie nucléaire, et d’en découvrir les possibilités.

On connaît les premières applications « énergétiques » de la physique nucléaire, purement militaires pour notre malheur. Le premier réacteur équipait un sous-marin à propulsion nucléaire dès 1955.

Ces travaux ont, entre autres découvertes, mis en évidence les transmutations nucléaires, déjà pressenties auparavant mais non encore théorisées. La transformation d’un élément en un ou plusieurs autres fut donc reconnue comme un phénomène observé, théorisé et quantifié.

Les transmutations, couramment observées et provoquées dans les réacteurs et les accélérateurs de particules, ne sont donc plus des phénomènes maudits, mais le résultat classique de réactions de chimie et de physique nucléaire, banalisées et enseignées dans les écoles.

Jusqu’à présent, les réactions nucléaires impliquant des transmutations n’ont pu être observées qu’à haute énergie. Qu’il s’agisse de fission ou de fusion, la mise en œuvre nécessite des moyens colossaux et des températures ou des vitesses de particules extrêmement élevées, justifiés par une théorie considérée comme robuste.

Rappelons que la Science considère comme robuste une théorie capable d’expliquer tous les phénomènes connus dans le domaine revendiqué.

Lorsqu’un phénomène observé nouveau met cette théorie en défaut, il devient nécessaire de modifier la théorie ou d’en construire une nouvelle.

Selon les connaissances actuelles en Physique théorique, les transmutations nucléaires ne sont possibles qu’à haute énergie.

Cela ne démontre pas que de telles transmutations sont impossibles à basse énergie, cela montre simplement que la théorie actuelle ne les prédit pas.

Industriellement, pour produire de l’énergie, on utilise la fission qui résulte de la radioactivité naturelle d’une variété d’Uranium ( pour faire simple).

Les inconvénients du procédé font la une des journaux, nous n’y reviendront pas.

Il est un autre procédé, convoité depuis longtemps, qui consiste à reproduire sur Terre une réaction semblable à celles qui se déroulent dans le Soleil. Il s’agit de la fusion de l’Hydrogène.

Ce procédé ne comporte que des avantages:

- Les réserves d’Hydrogène sont illimitées.

- Il n’y a aucun déchet polluant.

Mais la mise en œuvre est extrêmement difficile.

En effet, dans les réacteurs actuels à fission contrôlée, c’est une réaction naturelle qui est exploitée. Il « suffit » de réunir une quantité suffisante de produit naturellement radioactif pour que la réaction se déclenche.

Pour la fusion de l’Hydrogène on ne peut exploiter aucun phénomène naturel spontané. Pour que la réaction se déclenche il faut porter les noyaux d’Hydrogène à très forte pression et très forte température (il s’agit alors d’un plasma à plusieurs millions de degrés), ce qu’on ne sait faire aujourd’hui qu’à petite échelle et sur des faibles durées .

Le projet ITER a pour objectif de démontrer la faisabilité industrielle d’une telle machine. Il subsiste encore de nombreuses inconnues.

Pour comprendre l’importance de la recherche sur la fusion de l’Hydrogène, regardons quelques chiffres:

La réaction de fusion de l’Hydrogène la plus courante consiste en la transformation de quatre noyaux d’Hydrogène ( quatre Protons) en un noyau d’Hélium, accompagnée d’un dégagement d’énergie égal à 25,7 Mev.

25,7 Mev ( Millions d’électron-Volt) est une très faible quantité d’énergie, équivalente à environ 114x10 E(-20) KWh.

Mais il y a beaucoup d’atomes d’Hydrogène dans une mole, exactement 2 x 6,02x10 E(23), avec deux atomes par molécules H2.

Une mole de H2 occupe un volume de 22,4 litres à température et pression ordinaires, soit la taille d’un gros ballon d’enfant.

L’énergie dégagée par la fusion de une mole d’hydrogène est égale à

0,25 x 12,04x10 E(23) x 114x10 E(-20) KWh = 344 000 Kwh, ou 344 MWh.

Ce qui est tout à fait considérable.

344 MWh à partir du gaz contenu dans un ballon d’enfant !

Au vu de ces chiffres extraordinaires on comprend que, s’il existe le moindre espoir de réaliser même partiellement une telle réaction par des moyens simples ( à basse énergie), il serait absurde de ne pas essayer.

C’est le raisonnement que tiennent certains scientifiques chercheurs plus ou moins indépendants, dont les travaux sont tout de même suivis de près par les instances officielles et les organisations et industriels impliqués dans le secteur de l’énergie.

L’inquisition n’étant plus là pour envoyer les hérétiques au bûcher, pourquoi s’opposer à des travaux qui ne coûtent pas cher et qui pourraient rapporter gros.

En cas d’échec la perte sera minime, en rapport avec l’investissement très modeste.

En cas de succès, même partiel, le bénéfice serait considérable.

C’est, en somme, le pari de pascal transposé à la Science.

La course à l’échalote est lancée; nous ne manquerons pas de vous tenir informés des résultats, ou de l’absence de résultat.

Les informations disponibles ne sont pas de première main, elles émanent de sources journalistiques qui relaient essentiellement des analyses à priori provenant de l’un des deux camps, les sceptiques ou les anti-sceptiques. Les informations provenant de sources directes ( labos travaillant sur le sujet) ne sont pas vérifiables.

Actuellement il n’est pas pertinent de prendre position pour ou contre, la Science n’étant pas une affaire d’opinion mais de travail.

Il faut donc prendre du recul et attendre que l’affaire se décante, pour savoir s’il s’agit d’un canular ou d’une escroquerie comme les avions renifleurs, ou bien si nous sommes en présence de la plus grande découverte depuis l’électricité.

 

 

 

Repost 0
21 mai 2012 1 21 /05 /mai /2012 11:09

 

21 Mai 2012

 

Mon petit, tu as déjà vu que lorsque ton vélo est un peu rouillé il faut mettre de l’huile dans les moyeux et sur la chaîne pour lui permettre de continuer à rouler.

 

Eh bien l’économie c’est comme ton vélo. C’est une grosse machine avec beaucoup de rouages, des ateliers, des usines, des commerces, des artisans, des banquiers, des ouvriers, des fonctionnaires, des gens qui achètent, des gens qui vendent, etc…

 

Pour que cette machine fonctionne bien il faut y mettre une sorte d’huile qui va lubrifier les rouages. Cette huile s’appelle l’argent, on l’appelle aussi monnaie.

 

C’est l’Etat qui fabrique l’argent, et cet argent est distribué là où il faut par les banques, qui sont les graisseurs de l’économie.

 

Lorsque la machine économique fonctionne bien, le lubrifiant argent est versé aux bons endroits à graisser, et de là il est récupéré et recyclé pour resservir.

 

C’est du moins ce qui doit se passer normalement.

 

Car en effet l’argent ne s’use pas , c’est un lubrifiant que l’on peut réutiliser en le réinjectant dans la machine économique.

 

Bien sûr il est purifié avant d’être réutilisé, c’est ce qu’on appelle

destruction suivie de création de monnaie.

 

Lorsque la machine économique grandit, l’Etat fabrique un peu plus d’argent pour graisser les nouveaux rouages.

 

En pratique les choses ne sont pas aussi simples. Le moteur économique est d’un type ancien qui fonctionne grâce au système de lubrification appelé «  graissage par huile perdue » , que les mécaniciens connaissent bien par exemple sur les mobylettes.

 

Ce qui veut dire que la machine économique ne recycle qu’une partie du lubrifiant argent, le reste étant perdu, parti dans les poches d’agents économiques qui en constituent des stocks colossaux.

 

Le fluide ainsi stocké fait défaut à la machine qui ne peut plus fonctionner normalement.

 

Pour corriger ce défaut, l’Etat a plusieurs possibilités:

 

Soit colmater les fuites, ce qui se fait en imposant une saine gestion, une grande transparence financière, une surtaxation des hauts revenus, la chasse aux niches fiscales, la chasse aux paradis fiscaux, etc…

 

Cette méthode exige beaucoup de vertu de la part des agents économiques, et un pouvoir politique fort et lui-même vertueux. Toutes conditions qui sont rarement réunies.

 

Une autre voie est celle dite de la «planche à billets » . Si la machine manque d’huile, il suffit d’en fabriquer. Mais, ajouter un excès d’huile dans un moteur pourri qui en consomme trop et en perd par des fuites, n’importe quel mécanicien sait que cela revient à prolonger une agonie.

 

Une troisième voie existe, celle de la facilité à court terme. Si l’on manque d’huile, il suffit d’en acheter à ceux qui en possèdent un stock.

 

L’Etat peut ainsi emprunter de l’argent pour entretenir et lubrifier son économie.

 

Il est alors amené à emprunter à ceux-là mêmes qui ont détourné l’argent qui aurait dû rester dans la machnine économique.

 

Non seulement cet Etat verse de l’huile dans un moteur économique pourri avec des fuites, mais en plus il doit acheter cette huile au prix fort à des prêteurs dont il devient l’esclave.

 

En somme il emprunte son propre argent, un peu comme si tu devais acheter un vélo à celui qui a volé le tiens !

 

Les prêteurs d’argent à l’Etat sont évidemment bien conscients de cette imposture, c’est pourquoi ils acceptent souvent d’annuler une partie de la dette de l’Etat avant que celui-ci ne l’annule complètement pour remettre les compteurs à zéro, tuant ainsi la poule aux œufs d’or.

 

Tu vois, mon fils, l’argent c’est bien compliqué.

 

 

Repost 0
15 mai 2012 2 15 /05 /mai /2012 14:41

 

15 Mai 2012

On attribue à Einstein ( On ne prête qu’aux riches) le constat suivant:

«La théorie, c’est quand on sait tout et que rien ne fonctionne; la pratique, c’est quant tout fonctionne et que personne ne sait pourquoi. »

Ce constat s’applique merveilleusement à la fusion froide.

Chaque génération de physiciens théoriciens est convaincue de détenir le savoir ultime, jusqu’à la génération suivante qui apporte des vues nouvelles repoussant les bornes du savoir ancien.

Nous avons tous présents à l’esprit les bonds que les Galilée, Newton, Maxwell, Einstein, et d’autres, ont fait accomplir à la physique théorique à partir de bases pourtant considérées à l’époque comme ultimes.

Mais les progrès sont lents, d’autant plus lents que les changements de paradigme proposés sont importants.

Les physiciens préfèrent avancer dans leurs travaux en utilisant les outils existants, c’est-à-dire les théories connues et réputées robustes ( Une théorie robuste est celle qui permet d’expliquer les phénomènes qu’elle est censée couvrir sans être démentie tous les six mois).

Lorsqu’une observation ne cadre pas avec l’une ou l’autre des théories connues, les physiciens adoptent une démarche en trois temps:

Dans un premier temps l’observation doit être validée. Les expériences sont répétées, effectuées par des équipes de chercheurs différentes, dans des conditions différentes, le but étant de prouver la reproductibilité et d’éliminer les biais, et notamment de s’affranchir de l’équation personnelle.

Dans un deuxième temps, si l’observation a été validée et considérée comme révelatrice d’un phénomène nouveau, les physiciens recherchent une explication à partir des théories officielles ou de nouveaux développement théoriques en accord avec les paradigmes actuels.

Dans un troisième temps, si les théories officielles sont impuissantes à expliquer le phénomène nouveau, et seulement si, alors on considère la nécessité d’élaborer d’autres théories, quitte à sortir des sentiers battus du paradigme officiel.

Cette suite de démarches, appelée « méthode scientifique », ne permet pas une progression rapide mais garantit la solidité du terrain sur lequel le physicien construit son savoir.

En clair il s’agit de ne pas prendre des vessies pour des lanternes.

Le phénomène allégué de la fusion froide a longtemps stagné au niveau de la première étape, c’est-à-dire de la validation.

Présenté initialement sous l’appellation de « Transmutations à basse énergie », il s’est trouvé immédiatement rangé au magasin de la patascience à cause de la forte connotation alchimique.

( Voir notamment l’ouvrage « Transmutations biologiques et physique moderne » de Louis Kervran, Ed. Maloine, 1982, ISBN 2-224-00831-7).

Le phénomène, rebaptisé « fusion froide » plus récemment, a trouvé un certain écho auprès de quelques groupes de chercheurs un peu kamikazes désireux de secouer la chappe de plomb de la hiérarchie scientifique.

( La Science officielle ne cautionne aujourd’hui que les travaux dans la lignée du Tokamak, c’est-à-dire le projet ITER, qui consiste ni plus ni moins qu’à reproduire un Soleil artificiel ).

Et puis, si par hasard çà marche, les perspectives énergétiques de la fusion froide pourraient révolutionner nos sociétés, comme l’électricité le fit en son temps.

Quelques résultats positifs ont été annoncés, avec suffisamment de crédibilité pour amener les grands de la recherche internationale et industrielle à s’intéresser à la question. Les perspectives de juteux brevets sont si formidables qu’aucune piste ne doit être écartée. Qu’est-ce quelques millions de dollars consacrés à la recherche, en face des milliards de royalties potentielles ?

Comme indiqué dans un article précédent, on ne parle plus maintenant de fusion froide, décidémment encore trop connotée, mais de LENR ( Low Energy Nuclear Reaction) ou de CANR ( Chimically Assisted Nuclear Reaction). Ces nouvelles appellations, anglo saxonnes de surcroît, devraient suffire à donner à la chose la respectabilité qui lui faisait défaut.

( Dame Pernelle serait bien aise de voir son cher Nicolas ainsi réhabilité).

Dûment dotée d’une identité honorable, et cautionnée par de solides parrainages, la fusion froide est donc entrée ( aux forceps il est vrai) dans le saint lieu de la Science officielle.

De nombreux groupes d’études ont en cours des expérimentations visant à établir sur des bases solides l’existence du phénomène, et à rechercher des pistes théoriques pour donner du corps à ce qui pourrait bien être la découverte du siècle.

On peut trouver un état des lieux sur le site

 

http://lenr-canr.org/

Affaire à suivre…

 

 

 

 

Repost 0
13 mai 2012 7 13 /05 /mai /2012 16:18

 

13 Mai 2012

Les certitudes de la Science des lumières ont définitivement rangé l’alchimie au placard des pseudo sciences, en compagnie des phénomènes paranormaux, récemment rejoints par les OVNIS, le Yeti et les extraterrestres.

Quelques phénomènes inexpliqués trouvent encore cependant une certaine créance, dans le cadre des croyances religieuses il est vrai, les uns soutenant les autres comme l’aveugle soutient le paralytique. On parle alors de miracles, sans toutefois prétendre à une quelconque onction scientifique reconnaissons-le.

Il est de ces des mystères impénétrables…

La Science avec un grand S s’est instituée le garant d’un paradigme à l’intérieur duquel n’ont droit à l’existence que les phénomènes dûment théorisés et démontrés.

Pour faire de la recherche il faut beaucoup d’argent, lequel n’est disponible que pour les travaux dont le but est conforme au paradigme.

Mais, faites-vous remarquer, si l’on n’obtient des crédits que pour ce que l’on connait déjà, comment ferons-nous des découvertes nouvelles ?

Comment ferons-nous pour aller voir ce qu’il y a au-delà du paradigme ?

Eh bien vous n’irez pas, car aller voir au-delà du paradigme, ce n’est pas politiquement correct, et si vous insistez vous serez déconsidérés et votre carrière en souffrira.

Il y a, ainsi , des sujets de recherches tabous pour lesquels il est impossible de trouver des soutiens et des crédits.

La fusion froide est l’un de ces sujets.

Qu’est-ce que la fusion froide ?

La matière est constituée d’atomes. Les particules des noyaux atomiques (Protons, Neutrons,…) tiennent ensemble grace à des forces de liaison et les édifices atomiques contiennent de ce fait une énergie potentielle importante, qu’il est évidemment interessant de chercher à récupérer pour nos besoins.

Jusqu’à présent, on exploite cette énergie potentielle grace au phénomène de fission spontanée des noyaux de certains éléments, c’est la radioactivité. Ces noyaux sont assez coopératifs pour se casser spontanément, libérant une partie le leur énergie potentielle. On en met beaucoup et ainsi on récupère beaucoup d’énergie.

Mais on récupère aussi beaucoup d’ennuis: les réactions génèrent de nombreux déchets eux-même radioactifs, si la réaction s’emballe on risque un Fukushima, et de plus les réserves de produits radioactifs sont limitées.

Un autre procédé est possible, c’est celui qui se déroule dans notre Soleil, c’est la fusion, qui est l’inverse de la fission. L’ennui c’est qu’il nécessite des températures extrêmes et des conditions que l’on ne sait pas encore réunir. Le projet ITER a pour but de tenter de réaliser la fusion à une échelle énergétique industrielle.

ITER est une machine colossale qui devra supporter des conditions extrêmes. Un éventuel aboutissement n’est pas attendu avant la fin du siècle.

La Science officielle n’explore aucune autre piste car le paradigme en vigueur postule qu’il n’y a pas d’autre piste, la théorie s’y oppose.

L’idée que la théorie en question n’est peut-être pas parfaite et pourrait contenir des lacunes laissant place à des voies nouvelles, est déjà une idée hérétique. Sa simple formulation par un chercheur équivaut à une auto-excommunication.

Privé de crédit ( discrédité), privé de soutien, interdit de publication, le chercheur téméraire en est réduit soit à faire amende honorable, soit à travailler en secret avec des moyens limités.

Des chercheurs indépendants ont osé braver le tabou et se sont demandé si par hasard il n’y aurait pas une méthode plus simple pour récupérer l’énergie contenue dans les noyaux.

Au cours des dernières décennies, plusieurs groupes de scientifiques ont réussi à publier les résultats de leurs travaux sur ce qu’il faut bien appeler la fusion froide. Les premières publications n’ont pas été convaincantes et ont été facilement contrées, ce qui a jeté le discrédit sur le terme même de fusion froide.

Les recherches n’ont pas été interrompues pour autant. Aujourd’hui on ne parle plus de fusion froide, mais de LENR ( Low Energy Nuclear Reaction), et il semble que l’affaire trouve un regain d’intérêt.

Il s’agit ni plus ni moins que de récupérer l’énergie potentielle de la matière en faisant appel à des réactions à basse température, et avec des moyens considérablement plus simples que ceux mis en œuvre dans un réacteur nucléaire ou un Tokamak.

Nous n’allons pas ici prendre parti.

Nous voulons simplement signaler que le tabou semble en parti levé, et que à la fois les grands laboratoires et les grandes compagnies commencent à s’intéresser à la question.

Nous suivrons cette affaire qui, si elle se révèle ne pas être un canular, ouvre la voie à une révolution énergétique aussi importante que la découverte de l’électricité.

Repost 0
7 mai 2012 1 07 /05 /mai /2012 10:59

 

 

7 Mai 2012

 

A l’échelle de l’Histoire, on sait depuis peu que l’environnement dans lequel se développe la vie est un système complexe dont l’état à un moment donné est le résultat des interactions d’une multitude de paramètres.

 

L’Homme, par son activité, modifie certains de ces paramètres.

 

Jusqu’à l’époque industrielle, ces modifications n’avaient qu’un effet mineur sur l’état global du système, effet bien inférieur à celui des éléments naturels, des évènements géologiques et des influences cosmiques.

 

Les variations d’état du système Terre-Atmosphère-Vie étaient alors uniquement l’effet de causes naturelles qui étaient considérables, pensons aux époques glaciaires avec les variations du niveau des océans, et plus près de nous la désertification du Sahara, le petit âge glaciaire, etc.…

 

Les deux derniers siècles ont été marqués à la fois par l’essor de l’industrie et par l’expansion démographique, qui ont donné à l’Homme les moyens de modifier son éco système et de marquer de son empreinte la planète entière.

 

Homo Sapiens sapiens s’est découvert une responsabilité nouvelle.

 

Responsabilité à l’égard de la vie en général, et de sa propre survie en particulier.

 

Le contrecoup des actions inconsidérées de notre espèce se manifeste sous de multiples formes:

 

- Perturbations du climat, sous l’effet des émissions de gaz à effet de serre, de méthodes agricoles et forestières modifiant l’albédo de la planète, de modifications du cycle de l’eau, etc…

 

- Atteinte à la biodiversité à la fois par l’extension de l’emprise au sol de nos sociétés, et par une agriculture artificielle abusant de produits toxiques.

 

- Pollution de l’environnement consécutive à l’usage frénétique d’une technologie développée sans considération des conséquences négatives pour la planète et pour l’Homme lui-même.

 

La prise de conscience de cette malfaisance est très récente, quelques décennies tout au plus.

 

L’Homme découvre que sa civilisation technologique, pour lui synonyme de progrès, est destructrice du milieu qui assure sa propre survie, et se retourne contre lui directement par l’atteinte de son patrimoine génétique sous l’effet des agents toxiques d’origine anthropique, comme les pesticides, les nanoparticules, les additifs alimentaires, l’ozone, les oxydes d’azote et de soufre, les gaz industriels, les métaux lourds, et bien sûr les produits radioactifs.

 

Le second degré de prise de conscience s’est produit encore plus récemment, lorsque les instances internationales ont admis la nécessité absolue de prendre des mesures pour tenter d’enrayer le processus de destruction déjà bien avancé.

 

Il est très vite apparu que la tâche serait colossale, car toutes les activités humaines sont concernées par des abus d’une sorte ou d’une autre.

 

Bien sûr en premier lieu les activités grosses consommatrices d’énergie fossile et nucléaire, comme les transports, l’industrie, le chauffage, mais également des activités dont la vocation a pour but premier la survie de l’espèce, comme l’agriculture, la pêche, l’agroalimentaire, la pharmacie, qui se sont elles aussi révélées destructrices de l’écosystème.

 

Il s’agit en fait de toutes les applications de la technologie.

 

Par ailleurs, il existe un consensus sur la nécessité de préserver le mode de vie dit « occidental », voire même de l’étendre au reste du monde, ce qui complique sérieusement la tâche.

 

Certains n’hésitent pas à affirmer que ce consensus est une utopie.

 

Quelle qu’en soit la vraisemblance, Il n’est de toutes manières pas question de rejeter la technologie, ce qui ne serait pas accepté par les peuples car elle demeure vecteur de progrès. Il faut donc de trouver des compromis et des nouvelles technologies dites « propres » capables de réaliser les objectifs sans imposer une régression.

 

Le tableau apocalyptique de toutes les malfaisances perpétrées par l’espèce humaine contre son environnement et contre sa propre survie donne le vertige.

 

La nécessité d’y mettre bon ordre ne fait pas débat.

 

Mais par ou commencer ?

 

Parce que les effets d’un dérèglement climatique sont directement appréciables sur l’ensemble de la planète, il a été décidé de mettre l’accent sur les causes anthropiques des variations de température moyenne de l’atmosphère, unanimement attribuées aux émissions de CO2 liées à l’utilisation des énergies fossiles.

 

Les instances internationales ont donc décidé de lancer une croisade contre les émissions abusives de dioxyde de Carbone, mobilisation concrétisée par le protocole de Kyoto.

 

Par voie de conséquence, les autres malfaisances de la civilisation technologique ont bénéficié d’un sursis, la très grande majorité des efforts étant concentrée sur un objectif quasi unique, réduire la croissance du taux de CO2 atmosphérique.

 

Cette absence de stratégie globale n’a pas manqué de provoquer des dérives dans d’autres secteurs qui n’ont pas été l’objet d’attention suffisante.

 

Par exemple, au nom de la lutte contre le CO2, beaucoup de pays, dont la France, ont favorisé l’utilisation des moteurs Diesel dans l’automobile. L’objectif a été atteint, mais c’est au prix d’une augmentation des émissions de suies, de nanoparticules et d’oxydes de soufre et d’azote, qui sont des agents de pollution atmosphérique à l’origine de graves problèmes de santé publique.

 

Un autre exemple nous est donné par la promotion du bois énergie. Son caractère renouvelable en a fait un matériau noble pour la nouvelle croisade. Mais c’était oublier que l’utilisation inadaptée du bois de feu génère des produits de combustion toxiques nuisibles à la pureté de l’air.

 

Le nuage brun d’Asie témoigne des dégâts potentiels de l’usage incontrôlé du bois.

 

Toujours dans la même veine, l’énergie nucléaire a connu un regain d’intérêt lié à l’absence d’émissions de CO2. Hélas il n’est plus nécessaire de rappeler quel prix il faut accepter de payer pour utiliser cette énergie.

 

Encore un exemple, l’automobile électrique. Sa promotion, à un moment où les énergies durables ne sont pas encore prêtes à assurer la relève des énergies fossiles, engendre un surcroît de la demande électrique qui ne peut être satisfaite qu’avec des énergies fossiles émettrices de CO2. Une erreur de timing dont nous devrons payer les effets.

 

Enfin la majorité des efforts s’étant portée sur le CO2 et la recherche de l’optimisation de l’utilisation des énergies fossiles et nucléaire, il n’est plus resté suffisamment de moyens pour le développement des énergies durables, alors que la logique aurait voulu l’inverse.

 

Ces quelques exemples témoignent de la nécessité d’une stratégie globale planétaire si l’on désire éviter les dégâts collatéraux et contre productifs d’une croisade exclusive.

 

Il serait probablement plus avisé d’éviter de se précipiter tête baissée dans un combat contre un ennemi désigné unique, combat qui nous laisserait vulnérables sur d’autres plans environnementaux, laissés sans protection faute d’y porter suffisamment d’intérêt.

 

A moins que la recherche du bien être des peuples à travers le progrès technologique ne se révèle n’être qu’une voie sans issue, le remède risquant de tuer le malade.

 

Certains le pensent…

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 
Repost 0
28 avril 2012 6 28 /04 /avril /2012 15:57

 

28Avril 2012

Il paraît maintenant acquis que la première génération de voitures électriques produites en grandes séries sera équipée de batteries au Lithium. Plusieurs millions de véhicules électriques circulent déjà sur la planète, préfigurant la tendance à long terme de l’abandon progressif des carburants fossiles.

C’est sous la forme hybride rechargeable ( PHEV pour «Plug in Hybrid Electric Vehicle » ) que les nouveaux véhicules vont se répandre, suivis plus tard par les EV, entièrement électriques. Ces derniers resteront cantonnés aux usages citadins et péri urbains tant que le territoire ne sera pas équipé des infrastructures de rechargement ad-hoc, ce qui peut prendre une ou deux décennies.

La batterie au Lithium est actuellement la seule solution largement industrialisable capable de répondre aux besoins du marché automobile, même si son efficacité énergétique reste encore perfectible.

D’autres solutions sont en cours d’évaluation ou même de pré-développement, comme la batterie Zinc-air ou la pile à combustible dont la version à Hydrogène satisfait parfaitement aux nécessités écologiques. Des réalisations industrielles sont déjà commercialisées pour des applications spécifiques à poste fixe.

On peut penser que le Lithium occupera le terrain pendant une ou deux décennies, avant de partager le marché avec ces autres solutions faisant appel à d’autres technologies.

Le problème se pose donc de savoir où nous allons trouver ce Lithium, s’il y en aura pour tout le monde, et à quel prix.

La technologie de batterie Lithium-ion la plus adaptée au cahier des charges automobile est basée sur le composé Li M PO4 ( M pour métal), avec une préférence pour le Fer, soit Li Fe PO4, appelée LFP.

Le composé LFP constitue environ 75% du poids de la batterie, le reste comportant l’anode, les connexions, l’électrolyte, les membranes, la boîte, et l’électronique de contrôle.

La masse molaire du LFP est de 158 g, dans lesquels le Lithium figure pour 7 g, soit 4,4% , ce qui est plutôt modeste.

Le stockage de l’électricité, et son déstockage, sont réalisés grâce à l’intercalation et la désintercalation des ions Lithium dans la structure cristalline du LFP. Chaque molécule de LFP contribue donc en théorie à hauteur de la charge de un électron au bilan électrique (Un ion Lithium qui fait le va et vient entre la cathode et l’anode transporte avec lui une charge égale à celle de un électron).

Il est alors facile de calculer l’efficacité énergétique théorique du LFP (Rendement électrochimique), il suffit de multiplier le nombre de molécules présentes dans un gramme de LFP par la charge élémentaire.

On trouve 554 mWh /g, ou encore 170 mAh/g puisque la tension de cellule est de 3,3 Volt environ.

Mais cela vaut pour une masse de produit dont on peut exploiter toutes les possibilités de stockage du cristal.

En pratique le rendement d’intercalation/désintercalation dépend beaucoup de la structure du matériau LFP, qui elle-même est fonction de la méthode de préparation et de l’incorporation de certains adjuvants.

La technologie actuelle industrialisable permet d’obtenir une efficacité énergétique de l’ordre de 130 mWh /g de LFP, soit environ 23% de la valeur théorique.

Note:

De nombreux laboratoires travaillent à l’amélioration de ce paramètre, notamment par le recours aux nanotechnologies pour la préparation du matériau LFP. Une efficacité supérieure à 50% est envisageable à moyen terme ( 2015), comme le montrent les travaux du CEA.

Aujourd’hui, pour fabriquer une batterie de 24 KWh (par exemple comme celle de la Renault FLUENCE ZE), il faut donc 184 Kg de LFP avec une efficacité de 130 Wh/Kg, auxquels il faut ajouter l’anode, l’électrolyte, le container, l’électronique de contrôle, et la connectique, ce qui nous amène à 250 Kg environ, dont 8 Kg de Lithium métal.

Pour une voiture hybride rechargeable, une batterie de 6 KWh est suffisante. La quantité de Lithium métal nécessaire est alors seulement de 2 Kg.

Pour connaître la quantité de Lithium nécessaire à l’application automobile, il faut considérer plusieurs étapes, qui sont autant d’hypothèses de travail:

Une première période d’apprentissage, d’une dizaine d’années, pendant laquelle les PHEV feront la grande majorité du marché. Si l’on estime la pénétration du parc à 5% à la fin de cette première période ( 2025 ?), environ 40 millions de véhicules seraient des hybrides rechargeables, sur un parc estimé à 800 Millions de véhicules.

A raison de 2 Kg de Lithium métal par batterie de 6 KWh , 80 000 tonnes de Lithium métal seront donc nécessaires pour cette première période (qui viendront s’ajouter aux besoins des autres applications non automobiles).

Une seconde période, de deux ou trois décennies, qui verra la croissance du marché et son partage entre PHEV et EV. Lorsque 50% du parc sera équipé ( 400 Millions de véhicules), 2 Millions de tonnes de Lithium métal auront été utilisées ( Horizon 2040-2050).

Une troisième période pourrait voir l’introduction de la pile à combustible (ou de tout autre dispositif nouveau), susceptible de prendre une part importante du marché, réduisant d’autant la pression sur la demande de Lithium.

On peut, sur ces bases fragiles, estimer le besoin en Lithium métal à environ 4 Millions de tonnes pour équiper la presque totalité du parc, sur une période de quatre à cinq décennies (Horizon 2050-2060).

Durant cette période, de grands progrès sont attendus dans la fabrication des batteries, et il n’est pas déraisonnable d’envisager à court-moyen terme un doublement de l’efficacité énergétique qui passerait de 23% de la valeur théorique à 50%, ce qui diviserait par deux les besoins en Lithium (ou multiplierait par deux l’autonomie des véhicules).

Notons au passage que le Lithium n’est pas un combustible, il ne disparaît pas au cours du fonctionnement de la batterie, il est recyclable pour fabriquer d’autres batteries .

Une fois l’ensemble des véhicules équipés, c’est le même stock qui tourne, le Lithium des batteries usagées étant recyclé pour équiper les véhicules neufs. La consommation nouvelle de Lithium étant destinée à alimenter la croissance du stock.

Un peu comme l’acier des vieilles voitures qui est réutilisé pour faire des voitures neuves.

On peut donc estimer que 3 à 4 millions de tonnes de Lithium métal seront

« immobilisées » dans les batteries d’un parc automobile de 1 Milliard de véhicules et constitueront un stock tournant recyclable.

Ce stock devra être augmenté de 40 à 50 000 Tonnes de Lithium métal annuellement pour suivre l’accroissement du parc.

Ces chiffres sont à minorer en fonction de l’importance des parts de marché prises par les nouvelles technologies comme la pile à combustible, ou d’autres technologies de batteries, et des améliorations apportées à l’efficacité énergétique des batteries Li-ion.

Face à ce besoin, quelles sont les réserves disponibles ?

Aujourd’hui ces réserves ne sont pas identifiées de manière exhaustive. Les quelques sites exploités suffisent à répondre aux besoins actuels des outils de communication mobiles et des appareils électroniques divers tels que PC, appareils photos, tablettes, et de l’outillage portatif .

Mais la perspective de l’électrification du marché automobile, et des transports en général, a suscité une activité intense de recherche de nouveaux sites et d’identification des réserves possibles de Lithium.

Selon diverses estimations les réserves terrestres pourraient varier entre 50 et plusieurs centaines de millions de tonnes de produit de base ( carbonate et/ou chlorure de Lithium), soit entre 10 millions et plusieurs dizaines de millions de tonnes de Lithium métal. Le jackpot pour certains pays d’Amérique du Sud…

Le Lithium est également présent dans les océans . Mais l’extraction est plus difficile, donc plus chère.

Les réserves terrestres annoncées dans l’euphorie par les nouveaux futurs gagnants du loto sont à considérer avec circonspection, eu égard au caractère stratégique de la chose. Le lecteur averti aura compris que les chiffres produits sont à peu près aussi crédibles que ceux annoncés par les émirs (les vrais) pour les réserves de pétrole du Moyen-Orient…

Le passage du Pétrole au Lithium sous-entend de profonds bouleversements géopolitiques qui ne seront pas exempts de frictions entre les protagonistes du monde de l’énergie qui craignent de voir dépérir leur poule aux œufs d’or.

Il y a de la recherche d’indépendance énergétique dans l’air, et le fait que l’essentiel des réserves accessibles soit dans le continent Sud-Américain fait grincer quelques dents. D’aucuns craignent l’émergence d’un nouveau Moyen-Orient et s’empressent déjà auprès des futurs émirs afin de gagner les faveurs de l’OPEL ( Organisation des Pays Exportateurs de Lithium) qui ne manquera pas d’être créée sous peu. Quant aux Etats qui font aujourd’hui danser la planète au son du baril, ils craignent de se voir retirer leur bâton de commandement, ce qui les exposerait à toutes sortes de désagréments.

Tout ceci aura des répercussions directes sur le prix du produit, qui est déjà fortement orienté à la hausse.

Le matériau de base qui entre dans la fabrication du LFP est principalement le carbonate de Lithium Li2 CO3, dont le Kilogramme se négocie autour de 7 $, alors qu’il ne valait que 1 $ en 2005 .

Il n’intervient donc encore que pour une faible part dans le coût de la batterie, mais ceci pourrait changer dans le futur.

Le concept d’épuisement des réserves, au sens de l’épuisement du pétrole, est ici dépourvu de sens puisque le matériau utilisé n’est pas détruit mais recyclé et réutilisable indéfiniment. Le stock est simplement déplacé de la Terre vers les batteries, où il pourra être récupéré lorsque les batteries au Lithium seront remplacées par des piles à hydrogène ou une autre sorte de batteries.

Les choses se compliquent quelque peu si l’on considère un autre besoin de stockage d’énergie électrique, en relation avec la croissance des énergies nouvelles. En effet, le solaire et l’éolien sont des sources intermittentes, qui doivent alimenter un réseau sur lequel la demande d’énergie est également variable. Il est donc nécessaire de prévoir un tampon capable de stocker l’énergie quand l’offre dépasse la demande, et de la restituer dans le cas contraire. Aujourd’hui les énergies solaire et éolienne ne représentent qu’une très faible part de la production, leur intermittence est peu gênante et facilement gérée car l’essentiel de la production est assurée par des centrales thermiques dont la puissance peut être ajustée à la demande. Mais dans l’hypothèse d’une prépondérance des énergies nouvelles ( au-delà de 2030 ?) il devient indispensable de disposer d’un système de stockage de masse.

De tels systèmes sont à l’étude, certains déjà opérationnels à petite ou moyenne échelle. Plusieurs voies sont expérimentées comme le stockage direct en batteries, ou sous forme de chaleur dans des matériaux à changement de phase, ou dans des volants d’inertie, ou sous forme d’Hydrogène après électrolyse, etc…Sans oublier le pompage-turbinage déjà en service.

Le stockage en batteries Lithium-ion est une solution parmi d’autres, qui a le mérite d’être disponible aujourd’hui. Sa mise en œuvre pourrait aisément doubler ou tripler la demande de Lithium, avec cette fois des conséquences sur le marché, pouvant aller jusqu’à de réelles difficultés d’approvisionnement, si les réserves annoncées ne sont pas au rendez-vous.

Les obstacles qui pourraient freiner le développement de la voiture électrique sont en fait à rechercher ailleurs:

- Le pétrole, dont on annonce périodiquement l’imminente disparition, est toujours disponible sans restriction à la pompe, à un coût certes élevé mais encore gérable. Les conditions d’un basculement imposé vers l’électricité (prix excessif du pétrole et/ou restrictions ) ne sont pas encore d’actualité, et les prévisions dans ce domaine sont impossibles.

A moins que les rumeurs permanentes de conflit au Moyen-Orient ne trouvent une confirmation prochaine…

- Les politiques de lutte contre le CO2 sont décidées en tenant compte de la nécessité de préserver le secteur de l’énergie et de la construction automobile. Les règlementations sur les émissions de CO2 sont donc établies en tenant compte des progrès raisonnablement possibles des technologies actuelles. Les seuils imposés ne sont alors pas suffisamment dissuasifs.

De plus, toujours pour éviter des perturbations préjudiciables à l’économie du secteur, ces seuils ne sont applicables qu’aux véhicules récents.

Rien donc là non plus qui soit de nature à précipiter les acheteurs vers l’électrique.

- Le coût des véhicules hybrides rechargeables ( les seuls réellement utilisables en l’absence d’infrastructures de rechargement) est nettement plus élevé que leurs homologues classiques. Ce surcoût est normal s’agissant d’une technologie nouvelle et d’un marché naissant, mais l’acheteur hésite à sauter le pas car le différentiel de prix n’est pas compensé par l’économie de carburant promise, et la politique de prix du KWh de rechargement reste une inconnue, notamment la taxation. Sans parler de l’absence de bornes publiques de rechargement dont même les PHEV ont grand besoin.

- On pourrait cependant penser que les acheteurs soucieux de la protection de l’environnement choisiraient sans hésiter le véhicule électrique, mais ces acheteurs n’ignorent pas que l’électricité est aujourd’hui très majoritairement produite par des centrales thermiques émettrices de CO2, ou par des réacteurs nucléaires, émetteurs de substances encore moins recommandables. Rouler électrique ne change donc rien au volume de CO2 émis globalement. Ces acheteurs avisés savent par ailleurs que les projets de capture et séquestration du carbone n’aboutiront à des résultats concrets que dans une ou deux décennies.

- Les véhicules électriques PHEV sont équipés d’une batterie plus modeste que celle des EV, 6 KWh contre 24 Kwh en EV. Cette batterie de 6 KWh reste un composant onéreux dont la durée de vie n’excède pas quatre ou cinq ans. Le coût de son remplacement est à ajouter au coût d’exploitation.

Pour tous ces inconvénients les usagers en situation d’acquérir une nouvelle voiture ont donc d’excellentes raisons de rester dans le classique et de reconsidérer leur choix dans quatre ou cinq ans.

Dans cette situation, l’amorçage du marché nécessite quelques mesures incitatives des Etats, des constructeurs, et des distributeurs d’énergie électrique.

L’Etat peut intervenir par des mesures de défiscalisation, des primes, mais aussi en décidant d’une règlementation plus sévère, par exemple l’interdiction d’accès aux centre villes aux véhicules non électriques.

Les constructeurs peuvent offrir des contrats de garantie plus longs et plus sécurisants, incluant la batterie, et comportant notamment des garanties de reprise du véhicule.

Les distributeurs d’ électricité, aidés par une législation adéquate, peuvent mettre en place un réseau public de bornes de rechargement, et inciter les entreprises et les particuliers à faire de même dans leurs locaux. Les tarifs pratiqués ne devront évidemment pas être dissuasifs.

Il est donc fortement probable que le développement de la voiture électrique dépendra surtout de l’évolution du marché pétrolier, de la politique des Etats, des constructeurs, et des distributeurs d’énergie électrique.

L’hypothétique épuisement des réserves de Lithium n’est peut-être pas le principal problème…

 

 

Repost 0
14 avril 2012 6 14 /04 /avril /2012 18:53

 

14 Avril 2012

La voiture électrique est entrée chez nous par la petite porte. Nous voulons parler de la tout électrique qui ne peut compter que sur sa batterie pour avancer. L’objet qui commence à sillonner nos villes est la « Blue car » mise en location en libre service. Elle n’a pas la prétention de remplacer une berline routière.

Les hybrides déjà commercialisées ne sont que des semi électriques qui vivent leur vie de voitures classiques avec un moteur auxiliaire électrique.

Au contraire, l’engin qui nous intéresse ici est la berline tout électrique, telle que la FLUENCE ZE que Renault doit commercialiser cette année.

Les pratiques marketing ( douteuses) laissent entendre que le client pourra faire le plein d’électricité pour deux euros, ramenant ainsi son budget carburant à quasiment rien.

Voyons ce qu’il en est.

Un calcul simple laisse entrevoir la possibilité de diviser par quatre ou davantage le budget carburant d’un usager moyen.

Selon la technologie, pour parcourir 100 km en auto, il faut environ 5 L de gazole, 7 L de super, ou encore 20 KWh d’électricité, ceci pour une honnête voiture moyenne de cinq places.

Sur cette distance l’usager deva donc dépenser respectivement 7 euros de gazole, 11,2 euros de super, ou 1,8 euros d’électricité ( tarif EDF Bleu ciel, puissance souscrite 9KVA, option HP/HC, charge de batterie à la maison en HC).

Pour 15 000 km par an, son budget carburant annuel sera donc de:

1 050 euros de gazole ou

1 680 euros d’essence ou

268 euros d’électricité.

L’usager se frotte les yeux et refait son calcul, pas d’erreur le jackpot est à sa portée.

Et que dire du gros rouleur qui parcourt beaucoup plus de kilomètres.

Sans hésitation notre homme signe un bon de commande pour la petite merveille.

Le lendemain il rencontre son comptable et ami, qui lui tient un langage de comptable, lequel est rarement désopilant comme l’atteste la liste ci-dessous des surprises qui l’attendent :

L’exemple de la Renault Fluence ZE nous montre que le prix de la voiture ( 26 000 euros) est sensiblement égal à celui du modèle à moteur thermique de même facture, mais sans la batterie, qui est uniquement proposée en location.

Pour un contrat de location de 60 mois et 15 000 km par an, il en coûtera mensuellement 96 euros TTC, sans l’électricité évidemment, que l’usager devra payer par ailleurs.

La location seule de la batterie coûtera donc 1 152 euros TTC par an, soit davantage que le budget gazole équivalent.

Notre usager commence à pâlir.

Il n’est pas au bout de ses surprises:

Les carburants pétroliers supportent la TICPE ( ex TIPP) , qui rapporte 25 Milliards d’euros par an à l’Etat. L’électricité en est exempte, pour le moment. Mais Bercy n’a évidemment pas l’intention de renoncer au produit de cette taxe, et réfléchit à la manière de l’appliquer à l’énergie de recharge des batteries. Dans un premier temps la taxe sera supportée par les bornes publiques, car la mise en œuvre en est simple. Dans un second temps elle sera étendue aux installations particulières selon une méthode à définir, Bercy étudie la question avec EDF ( soit une taxe annuelle fonction du véhicule, soit un circuit séparé géré par un compteur Linky).

Il est plus que probable que le KWh « automobile » coûtera alors nettement plus que 0,0895 euros…

1 litre de gazole permet d’obtenir environ 4 KWh efficaces dans un moteur moderne. On peut alors imaginer que 1 KWh d’énergie électrique de recharge de batterie devrait supporter le quart de la taxe supportée par un litre de gazole, soit une dizaine de centimes d’euro, pour conserver l’intégralité du rapport de la TICPE.

Le prix du courant serait alors multiplié par deux.

Voilà notre usager au bord de l’asphyxie.

Mais le comptable n’a pas fini:

Pour une voiture à moteur thermique la notion d’autonomie est sans signification. Lorsque le réservoir se vide il suffit de le remplir à la première station-service, toujours proche.

Pour une voiture électrique il en va tout autrement, l’autonomie est un paramètre très important, au point que le constructeur lui-même la place en tête des spécifications. Elle sera une cause de stress permanent car il n’existe aucune infrastructure publique de rechargement des batteries. Le conducteur devra à chaque déplacement sortir sa calculette pour évaluer le nombre de KWh nécessaires au trajet prévu en fonction de son chargement, du profil de la route, et de la distance au prochain point de recharge!

Lorsque cette infrastructure existera ( dans cinq ans, dans dix ans ?) il ne faudra pas espérer y trouver de l’électricité à 0,09 euros le KWh. Ce KWh sera devenu un produit commercial sur lequel le distributeur prendra sa marge, et qui supportera la TICPE.

On pourra donc, peut-être, refaire le plein, mais au prix fort.

Notre usager se sent de plus en plus mal.

Hélas le comptable n’en a pas encore fini avec lui:

Si, malgré de savants calculs d’autonomie, la voiture s’arrête faute d’énergie, il est infiniment peu probable que la panne sèche se produise devant une station service. Il sera donc nécessaire de procéder à un remorquage, rarement effectué à titre gracieux, et d’accepter une interruption du voyage de peut-être plusieurs heures selon le lieu et l’heure et la disponibilité d’un poste de recharge rapide .

Pour éviter la panne sèche l’usager devra donc prévoir une recharge de batterie ou un échange standard tout les cent kilomètres. Il ne pourra donc emprunter que les itinéraires comportant ces facilités, lesquelles seront payantes bien entendu.

Notre usager, complètement découragé, commence à se demander si, en guise de voiture, on ne lui a pas vendu une tringle à rideau.

Ce sombre tableau n’est que la liste des aléas auxquels sera exposé l’usager acheteur d’une voiture tout électrique en 2012 et dans les deux ou trois prochaines années, en attendant la mise en place d’un réseau dense de stations de rechargement.

Donc, non seulement la voiture tout électrique n’est pas une bonne affaire financière, mais elle peut s’avérer source d’ennuis sans fin…

 

 

 

 

Repost 0
13 avril 2012 5 13 /04 /avril /2012 11:27

 

13 Avril 2012

Donc nous voici une fois de plus mis en demeure de rouler électrique. Deux ou trois tentatives eurent déjà lieu dans le passé, la première à l’occasion de la crise pétrolière de 1973. Chaque tentative s’est soldée par un fiasco public et par l’achat d’une centaine de véhicules par EDF, la Poste et quelques collectivités locales.

L’impossibilité d’ouvrir le marché à un large public a toujours été liée à l’insuffisance d’efficacité énergétique des batteries.

La tentative actuelle semble plus sérieuse.

Au prix de prouesses technologiques très onéreuses, les fabricants de batteries sont parvenus à développer des produits industriels dont l’efficacité énergétique est 2,2 fois celle des batteries au plomb de mon grand père.

De 35 Wh/kg on est passé à environ 78 Wh/kg.

( La batterie de la Renault Fluence ZE offre une capacité exploitable de 22 KWh pour un poids total de 280 kg avec les dispositifs de contrôle et régulation, soit 78 Wh/kg ).

Ce progrès, au demeurant fort modeste, a suffi pour que les constructeurs se relancent dans la course.

Les usagers considèrent les nouvelles propositions avec une certaine perplexité.

Ceux qui font confiance à leur bon sens estiment que là où des batteries de 35 Wh/kg n’ont pas réussi à faire rouler convenablement des voitures de 800 kg, on ne voit pas très bien comment des batteries de 78 Wh/kg pourraient faire rouler des monstres de 1 600 kg ( Renault Fluence). Mais de nos jours le bon sens n’est plus aussi bien partagé que par le passé.

Lorsque ce sont les constructeurs eux-mêmes qui font preuve de bon sens, ils choisissent d’industrialiser des véhicules hybrides rechargeables, fournissant ainsi à la fois la ceinture et les bretelles.

La batterie et le moteur électrique deviennent alors des auxiliaires qui permettent de rouler (un peu) en ville à l’électricité, et d’utiliser le moteur thermique lorsqu’il s’agit de passer aux choses sérieuses.

Renault a choisi la solution tout électrique ( Nous déclinons toute responsabilité quant aux déductions que ce choix pourrait suggérer à propos du bon sens qui règnerait ou non dans les services marketing de la Régie ).

La Renault électrique ( Fluence ZE) est équipée d’un moteur de 70 KW de puissance max, alimenté par une batterie d’une capacité énergétique de

22 KWh. Le poids total est de 1 605 kg.

Un calcul élémentaire indique que l’objet pourra rouler à puissance max pendant seulement 19 (Dix neuf) minutes, à condition de couper la climatisation et/ou le chauffage et d’éteindre les phares.

Ce résultat ne manquera pas de susciter une certaine inquiétude chez l’usager conscient.

Inquiétude également présente dans l’esprit des concepteurs de la chose puisque la vitesse a été bridée à 135 Km/h afin de permettre un minimum d’autonomie.

Justement, quelle autonomie ?

Aucun usager sensé n’accorde le moindre crédit aux chiffres annoncés dans le catalogue, les 185 km sont obtenus dans des conditions d’essai NEDC parfaitement irréalisables en pratique courante.

Les essais publiés sur turbo.fr donnent les résultats suivants:

-test en conduite paisible avec climatisation modérée: 16,5 KWh/100 km

-test en conduite soutenue: 27 KWh/100 km

L’autonomie réelle serait donc comprise entre 80 et 130 km, selon la façon de conduire, et à condition de ne pas abuser de la climatisation ou du chauffage.

Il est bien entendu hors de question de tracter une caravane…

Un tel objet est donc inutilisable sur de grands parcours, du moins tant qu’une infrastructure de recharge rapide ou d’échange standard ne sera pas opérationnelle.

Cette infrastructure est une arlésienne qui risque de se faire attendre longtemps. En effet, dans l’état actuel des choses seuls pourront accomplir des grands parcours les véhicules hybrides rechargeables, pour lesquels aucune infrastructure n’est requise. Il faudrait donc mettre en place cette infrastructure uniquement pour les véhicules tout électriques, et dans ce cas les voitures devraient s’arrêter tout les cent kilomètres environ pour changer de batterie ou bien attendre une heure pour une recharge rapide.

Qui peut croire qu’un tel système est viable ?

Le véhicule tout électrique est donc plutôt réservé aux usages urbains et périurbains: Taxis, autolib, location, livraisons, tournées régulières, ou trajet travail pour particuliers fortunés ( seconde voiture ?).

Ce marché peut devenir très important si la règlementation anti pollution exige pour les villes une réduction drastique des émissions de CO2 , de NOx, et de nanoparticules, qui interdirait aux moteurs thermiques l’accès aux zones urbaines.

Les projets actuels de ZAPA sont très loin d’atteindre ce stade, elles ne visent que les véhicules les plus polluants, les véhicules récents ne sont pas touchés.

Les acheteurs de véhicules récents, qui auraient les moyens d’acheter une voiture électrique, ne seront donc pas incités à le faire. Les autres n’ont pas les moyens, ils prendront les transports en commun.

On peut donc penser que le marché du véhicule tout électrique type berline familiale routière ( nous pensons à la Renault FLUENCE ZE) restera un marché de niches pendant encore une décennie. Il pourra intéresser quelques compagnies de taxis, quelques clients particuliers, des loueurs de voitures, et des flottes de sociétés.

Ce marché ne doit pas être sous-estimé, il peut être fortement boosté par une règlementation favorable, des incitations fiscales ou des taxes dissuasives.

Notre arlésienne pourrait alors occuper le devant de la scène, au moins en ville.

 

 

 

 

 

 

Repost 0
10 avril 2012 2 10 /04 /avril /2012 19:12
 
 
10 Avril 2012
Sous la menace conjuguée des énergies fossiles émettrices de CO2, et du nucléaire de triste réputation, les populations, dans un grand élan d’enthousiasme, se sont jetées aux pieds des énergies nouvelles auréolées de multiples mérites, dont l’absence d’émissions de CO2 et le caractère renouvelable ne sont pas les moindres.
Mais lorsqu’il s’est agi de passer à table, il s’est avéré que la soupe est un peu amère.
L’hydraulique, présenté comme une valeur sure, ce qui est exact, ne peut répondre aux espoirs placés en lui. Notre pays est déjà pourvu de nombreux barrages hydroélectriques qui fournissent bon an mal an environ 12% de notre production électrique. Cette production fluctue en fonction des précipitations annuelles mais elle n’est pas intermittente.
Il est pratiquement impossible de construire de nouveaux barrages de taille significative, en raison de la nécessaire protection de l’environnement, de la biodiversité, des rivières, et de la trop grande urbanisation des sites candidats.
L’exploitation des courants marins, de la houle, ou des marées, rencontre de nombreux obstacles techniques et économiques qui, pour le moment, ne permettent pas d’envisager des installations de forte puissance.
Il ne faut donc pas attendre une forte croissance dans le domaine de l’énergie hydraulique, du moins dans les deux prochaines décennies.
La filière bois, très prometteuse, n’est une énergie renouvelable que dans la mesure où l’on peut garantir que le prélèvement sera strictement compensé par des plantations nouvelles, ce qui est loin d’être acquis.
Si l’on prélève des bois qui ont mis 15 ans à pousser, il faudra attendre 15 ans pour constater un renouvellement. Ce décalage entre la récolte et le renouvellement du stock est de nature à provoquer une déforestation du milieu, en opposition avec les règles de protection de l’environnement et de la biodiversité, et un déséquilibre de la balance du CO2.
La valorisation de cette filière se fera donc surtout avec des bois d’importation, ce qui revient à déplacer le problème, et à reporter la déforestation ailleurs. Les associations pour la protection de l’environnement ont tiré le signal d’alarme et demandé un moratoire sur les projets grandioses de développement de la filière bois.
L’exploitation énergétique des déchets de la biomasse souffre également d’un manque de définition des objectifs. Le risque est d’instrumentaliser des filières agricoles nourricières au profit de la production d’énergie et au détriment de la production alimentaire. Une filière qui devra donc être très encadrée et dont les objectifs devront être limités à la stricte élimination des déchets, la production d’énergie n’étant qu’une retombée.
Reste donc l’éolien et le solaire, susceptibles de fournir de grosses quantités d’énergie sans les inconvénients et les restrictions des autres sources.
On connait les raisons du retard de ces filières en France, c’est le nucléaire, qui fournit 75% de notre électricité et constitue une monoculture monopolistique. Cette filière est organisée en bastion quasiment imprenable cultivant le secret, l’autoexpertise, l’auto certification, et l’autocontrôle. Son fonds de commerce est bâti sur l’opacité des coûts, qui lui permet d’exhiber des prix de revient dérisoires, seuls garantie de sa pérennité. Prix de revient évidemment parfaitement incontrôlables puisqu’ils n’incluent ni le traitement des déchets, ni le coût du démantèlement, ni le coût humain des dégâts de santé publique.
Mais les récents évènements du Japon ont entraîné par contrecoup des lézardes dans le mur du donjon. Il n’est désormais plus possible de continuer « as usual » , un minimum de transparence est désormais requis.
Cette transparence, si elle enfin respectée, fera apparaître les lacunes de la gestion de la sécurité et mettra en évidence les vrais risques du nucléaire, et les vrais coûts, donnant ainsi du corps au mouvement d’opinion en faveur de la sortie progressive de cette filière.
Cette perspective est évidemment prise en compte par le château qui réalise enfin qu’il faudrait peut-être se préparer à prendre le train des énergies nouvelles sous peine de se retrouver technologiquement et industriellement disqualifié sur un marché que les concurrents auront su occuper au bon moment.
La mise en œuvre de cette nouvelle stratégie se heurte à un obstacle économique classique lorsqu’une nouvelle technologie cherche à remplacer une technologie ancienne largement amortie. Cet obstacle est ici aggravé par le prix particulièrement bas de l’énergie électrique en France, prix purement artificiel ne tenant pas compte des coûts réels du nucléaire.
Ces deux facteurs, coût élevé de la nouvelle technologie, et prix public de l’énergie artificiellement bas, se conjuguent pour donner un ratio de deux ou trois entre le tarif règlementé d’une part, et le coût des énergies nouvelles.
Ce surcoût est un obstacle majeur au développement de l’éolien et du solaire dans les conditions du marché. Ce développement n’est possible que dans le cadre d’une politique de rachat de l’énergie à prix préférentiel, qui possède ses propres limites. Ce rachat est un investissement qui doit être financé soit par l’impôt, soit par l’utilisateur à travers la CSPE.
L’appel d’offres pour des parcs éolien offshore s’inscrit dans ce cadre.
On sait que l’éolien offshore est très cher, et d’aucuns peuvent se demander pourquoi on ne commence pas par le terrestre. Le graphique ci-dessous répond à cette question.
 
Efficacite-des-eoliennes-terrestres.png
 
 
Une efficacité moyenne de 22,4% et une intermittence considérable condamnent à priori une solution qui, par ailleurs, se heurte à de nombreuses oppositions.
L’investissement dans des parcs éoliens offshore a essentiellement pour objectif de permettre le développement d’une filière industrielle française capable de rivaliser avec la concurrence non seulement sur le marché intérieur, mais aussi au-delà des frontières. Le succès de cette opération permettra de mesurer notre capacité à figurer dignement sur ce marché autrement qu’en installant des éoliennes fabriquées ailleurs.
Réponse après 2015...
 
 
 
 
 
 
Repost 0

Présentation

  • : Le blog de doc zaius
  • : Suivi des problèmes environnementaux du moment. Analyses techniques . Comptes rendus avancements projets.
  • Contact

Recherche

Liens