Overblog
Suivre ce blog Administration + Créer mon blog
15 mai 2012 2 15 /05 /mai /2012 13:41

 

15 Mai 2012

On attribue à Einstein ( On ne prête qu’aux riches) le constat suivant:

«La théorie, c’est quand on sait tout et que rien ne fonctionne; la pratique, c’est quant tout fonctionne et que personne ne sait pourquoi. »

Ce constat s’applique merveilleusement à la fusion froide.

Chaque génération de physiciens théoriciens est convaincue de détenir le savoir ultime, jusqu’à la génération suivante qui apporte des vues nouvelles repoussant les bornes du savoir ancien.

Nous avons tous présents à l’esprit les bonds que les Galilée, Newton, Maxwell, Einstein, et d’autres, ont fait accomplir à la physique théorique à partir de bases pourtant considérées à l’époque comme ultimes.

Mais les progrès sont lents, d’autant plus lents que les changements de paradigme proposés sont importants.

Les physiciens préfèrent avancer dans leurs travaux en utilisant les outils existants, c’est-à-dire les théories connues et réputées robustes ( Une théorie robuste est celle qui permet d’expliquer les phénomènes qu’elle est censée couvrir sans être démentie tous les six mois).

Lorsqu’une observation ne cadre pas avec l’une ou l’autre des théories connues, les physiciens adoptent une démarche en trois temps:

Dans un premier temps l’observation doit être validée. Les expériences sont répétées, effectuées par des équipes de chercheurs différentes, dans des conditions différentes, le but étant de prouver la reproductibilité et d’éliminer les biais, et notamment de s’affranchir de l’équation personnelle.

Dans un deuxième temps, si l’observation a été validée et considérée comme révelatrice d’un phénomène nouveau, les physiciens recherchent une explication à partir des théories officielles ou de nouveaux développement théoriques en accord avec les paradigmes actuels.

Dans un troisième temps, si les théories officielles sont impuissantes à expliquer le phénomène nouveau, et seulement si, alors on considère la nécessité d’élaborer d’autres théories, quitte à sortir des sentiers battus du paradigme officiel.

Cette suite de démarches, appelée « méthode scientifique », ne permet pas une progression rapide mais garantit la solidité du terrain sur lequel le physicien construit son savoir.

En clair il s’agit de ne pas prendre des vessies pour des lanternes.

Le phénomène allégué de la fusion froide a longtemps stagné au niveau de la première étape, c’est-à-dire de la validation.

Présenté initialement sous l’appellation de « Transmutations à basse énergie », il s’est trouvé immédiatement rangé au magasin de la patascience à cause de la forte connotation alchimique.

( Voir notamment l’ouvrage « Transmutations biologiques et physique moderne » de Louis Kervran, Ed. Maloine, 1982, ISBN 2-224-00831-7).

Le phénomène, rebaptisé « fusion froide » plus récemment, a trouvé un certain écho auprès de quelques groupes de chercheurs un peu kamikazes désireux de secouer la chappe de plomb de la hiérarchie scientifique.

( La Science officielle ne cautionne aujourd’hui que les travaux dans la lignée du Tokamak, c’est-à-dire le projet ITER, qui consiste ni plus ni moins qu’à reproduire un Soleil artificiel ).

Et puis, si par hasard çà marche, les perspectives énergétiques de la fusion froide pourraient révolutionner nos sociétés, comme l’électricité le fit en son temps.

Quelques résultats positifs ont été annoncés, avec suffisamment de crédibilité pour amener les grands de la recherche internationale et industrielle à s’intéresser à la question. Les perspectives de juteux brevets sont si formidables qu’aucune piste ne doit être écartée. Qu’est-ce quelques millions de dollars consacrés à la recherche, en face des milliards de royalties potentielles ?

Comme indiqué dans un article précédent, on ne parle plus maintenant de fusion froide, décidémment encore trop connotée, mais de LENR ( Low Energy Nuclear Reaction) ou de CANR ( Chimically Assisted Nuclear Reaction). Ces nouvelles appellations, anglo saxonnes de surcroît, devraient suffire à donner à la chose la respectabilité qui lui faisait défaut.

( Dame Pernelle serait bien aise de voir son cher Nicolas ainsi réhabilité).

Dûment dotée d’une identité honorable, et cautionnée par de solides parrainages, la fusion froide est donc entrée ( aux forceps il est vrai) dans le saint lieu de la Science officielle.

De nombreux groupes d’études ont en cours des expérimentations visant à établir sur des bases solides l’existence du phénomène, et à rechercher des pistes théoriques pour donner du corps à ce qui pourrait bien être la découverte du siècle.

On peut trouver un état des lieux sur le site

 

http://lenr-canr.org/

Affaire à suivre…

 

 

 

 

Partager cet article
Repost0
13 mai 2012 7 13 /05 /mai /2012 15:18

 

13 Mai 2012

Les certitudes de la Science des lumières ont définitivement rangé l’alchimie au placard des pseudo sciences, en compagnie des phénomènes paranormaux, récemment rejoints par les OVNIS, le Yeti et les extraterrestres.

Quelques phénomènes inexpliqués trouvent encore cependant une certaine créance, dans le cadre des croyances religieuses il est vrai, les uns soutenant les autres comme l’aveugle soutient le paralytique. On parle alors de miracles, sans toutefois prétendre à une quelconque onction scientifique reconnaissons-le.

Il est de ces des mystères impénétrables…

La Science avec un grand S s’est instituée le garant d’un paradigme à l’intérieur duquel n’ont droit à l’existence que les phénomènes dûment théorisés et démontrés.

Pour faire de la recherche il faut beaucoup d’argent, lequel n’est disponible que pour les travaux dont le but est conforme au paradigme.

Mais, faites-vous remarquer, si l’on n’obtient des crédits que pour ce que l’on connait déjà, comment ferons-nous des découvertes nouvelles ?

Comment ferons-nous pour aller voir ce qu’il y a au-delà du paradigme ?

Eh bien vous n’irez pas, car aller voir au-delà du paradigme, ce n’est pas politiquement correct, et si vous insistez vous serez déconsidérés et votre carrière en souffrira.

Il y a, ainsi , des sujets de recherches tabous pour lesquels il est impossible de trouver des soutiens et des crédits.

La fusion froide est l’un de ces sujets.

Qu’est-ce que la fusion froide ?

La matière est constituée d’atomes. Les particules des noyaux atomiques (Protons, Neutrons,…) tiennent ensemble grace à des forces de liaison et les édifices atomiques contiennent de ce fait une énergie potentielle importante, qu’il est évidemment interessant de chercher à récupérer pour nos besoins.

Jusqu’à présent, on exploite cette énergie potentielle grace au phénomène de fission spontanée des noyaux de certains éléments, c’est la radioactivité. Ces noyaux sont assez coopératifs pour se casser spontanément, libérant une partie le leur énergie potentielle. On en met beaucoup et ainsi on récupère beaucoup d’énergie.

Mais on récupère aussi beaucoup d’ennuis: les réactions génèrent de nombreux déchets eux-même radioactifs, si la réaction s’emballe on risque un Fukushima, et de plus les réserves de produits radioactifs sont limitées.

Un autre procédé est possible, c’est celui qui se déroule dans notre Soleil, c’est la fusion, qui est l’inverse de la fission. L’ennui c’est qu’il nécessite des températures extrêmes et des conditions que l’on ne sait pas encore réunir. Le projet ITER a pour but de tenter de réaliser la fusion à une échelle énergétique industrielle.

ITER est une machine colossale qui devra supporter des conditions extrêmes. Un éventuel aboutissement n’est pas attendu avant la fin du siècle.

La Science officielle n’explore aucune autre piste car le paradigme en vigueur postule qu’il n’y a pas d’autre piste, la théorie s’y oppose.

L’idée que la théorie en question n’est peut-être pas parfaite et pourrait contenir des lacunes laissant place à des voies nouvelles, est déjà une idée hérétique. Sa simple formulation par un chercheur équivaut à une auto-excommunication.

Privé de crédit ( discrédité), privé de soutien, interdit de publication, le chercheur téméraire en est réduit soit à faire amende honorable, soit à travailler en secret avec des moyens limités.

Des chercheurs indépendants ont osé braver le tabou et se sont demandé si par hasard il n’y aurait pas une méthode plus simple pour récupérer l’énergie contenue dans les noyaux.

Au cours des dernières décennies, plusieurs groupes de scientifiques ont réussi à publier les résultats de leurs travaux sur ce qu’il faut bien appeler la fusion froide. Les premières publications n’ont pas été convaincantes et ont été facilement contrées, ce qui a jeté le discrédit sur le terme même de fusion froide.

Les recherches n’ont pas été interrompues pour autant. Aujourd’hui on ne parle plus de fusion froide, mais de LENR ( Low Energy Nuclear Reaction), et il semble que l’affaire trouve un regain d’intérêt.

Il s’agit ni plus ni moins que de récupérer l’énergie potentielle de la matière en faisant appel à des réactions à basse température, et avec des moyens considérablement plus simples que ceux mis en œuvre dans un réacteur nucléaire ou un Tokamak.

Nous n’allons pas ici prendre parti.

Nous voulons simplement signaler que le tabou semble en parti levé, et que à la fois les grands laboratoires et les grandes compagnies commencent à s’intéresser à la question.

Nous suivrons cette affaire qui, si elle se révèle ne pas être un canular, ouvre la voie à une révolution énergétique aussi importante que la découverte de l’électricité.

Partager cet article
Repost0
7 mai 2012 1 07 /05 /mai /2012 09:59

 

 

7 Mai 2012

 

A l’échelle de l’Histoire, on sait depuis peu que l’environnement dans lequel se développe la vie est un système complexe dont l’état à un moment donné est le résultat des interactions d’une multitude de paramètres.

 

L’Homme, par son activité, modifie certains de ces paramètres.

 

Jusqu’à l’époque industrielle, ces modifications n’avaient qu’un effet mineur sur l’état global du système, effet bien inférieur à celui des éléments naturels, des évènements géologiques et des influences cosmiques.

 

Les variations d’état du système Terre-Atmosphère-Vie étaient alors uniquement l’effet de causes naturelles qui étaient considérables, pensons aux époques glaciaires avec les variations du niveau des océans, et plus près de nous la désertification du Sahara, le petit âge glaciaire, etc.…

 

Les deux derniers siècles ont été marqués à la fois par l’essor de l’industrie et par l’expansion démographique, qui ont donné à l’Homme les moyens de modifier son éco système et de marquer de son empreinte la planète entière.

 

Homo Sapiens sapiens s’est découvert une responsabilité nouvelle.

 

Responsabilité à l’égard de la vie en général, et de sa propre survie en particulier.

 

Le contrecoup des actions inconsidérées de notre espèce se manifeste sous de multiples formes:

 

- Perturbations du climat, sous l’effet des émissions de gaz à effet de serre, de méthodes agricoles et forestières modifiant l’albédo de la planète, de modifications du cycle de l’eau, etc…

 

- Atteinte à la biodiversité à la fois par l’extension de l’emprise au sol de nos sociétés, et par une agriculture artificielle abusant de produits toxiques.

 

- Pollution de l’environnement consécutive à l’usage frénétique d’une technologie développée sans considération des conséquences négatives pour la planète et pour l’Homme lui-même.

 

La prise de conscience de cette malfaisance est très récente, quelques décennies tout au plus.

 

L’Homme découvre que sa civilisation technologique, pour lui synonyme de progrès, est destructrice du milieu qui assure sa propre survie, et se retourne contre lui directement par l’atteinte de son patrimoine génétique sous l’effet des agents toxiques d’origine anthropique, comme les pesticides, les nanoparticules, les additifs alimentaires, l’ozone, les oxydes d’azote et de soufre, les gaz industriels, les métaux lourds, et bien sûr les produits radioactifs.

 

Le second degré de prise de conscience s’est produit encore plus récemment, lorsque les instances internationales ont admis la nécessité absolue de prendre des mesures pour tenter d’enrayer le processus de destruction déjà bien avancé.

 

Il est très vite apparu que la tâche serait colossale, car toutes les activités humaines sont concernées par des abus d’une sorte ou d’une autre.

 

Bien sûr en premier lieu les activités grosses consommatrices d’énergie fossile et nucléaire, comme les transports, l’industrie, le chauffage, mais également des activités dont la vocation a pour but premier la survie de l’espèce, comme l’agriculture, la pêche, l’agroalimentaire, la pharmacie, qui se sont elles aussi révélées destructrices de l’écosystème.

 

Il s’agit en fait de toutes les applications de la technologie.

 

Par ailleurs, il existe un consensus sur la nécessité de préserver le mode de vie dit « occidental », voire même de l’étendre au reste du monde, ce qui complique sérieusement la tâche.

 

Certains n’hésitent pas à affirmer que ce consensus est une utopie.

 

Quelle qu’en soit la vraisemblance, Il n’est de toutes manières pas question de rejeter la technologie, ce qui ne serait pas accepté par les peuples car elle demeure vecteur de progrès. Il faut donc de trouver des compromis et des nouvelles technologies dites « propres » capables de réaliser les objectifs sans imposer une régression.

 

Le tableau apocalyptique de toutes les malfaisances perpétrées par l’espèce humaine contre son environnement et contre sa propre survie donne le vertige.

 

La nécessité d’y mettre bon ordre ne fait pas débat.

 

Mais par ou commencer ?

 

Parce que les effets d’un dérèglement climatique sont directement appréciables sur l’ensemble de la planète, il a été décidé de mettre l’accent sur les causes anthropiques des variations de température moyenne de l’atmosphère, unanimement attribuées aux émissions de CO2 liées à l’utilisation des énergies fossiles.

 

Les instances internationales ont donc décidé de lancer une croisade contre les émissions abusives de dioxyde de Carbone, mobilisation concrétisée par le protocole de Kyoto.

 

Par voie de conséquence, les autres malfaisances de la civilisation technologique ont bénéficié d’un sursis, la très grande majorité des efforts étant concentrée sur un objectif quasi unique, réduire la croissance du taux de CO2 atmosphérique.

 

Cette absence de stratégie globale n’a pas manqué de provoquer des dérives dans d’autres secteurs qui n’ont pas été l’objet d’attention suffisante.

 

Par exemple, au nom de la lutte contre le CO2, beaucoup de pays, dont la France, ont favorisé l’utilisation des moteurs Diesel dans l’automobile. L’objectif a été atteint, mais c’est au prix d’une augmentation des émissions de suies, de nanoparticules et d’oxydes de soufre et d’azote, qui sont des agents de pollution atmosphérique à l’origine de graves problèmes de santé publique.

 

Un autre exemple nous est donné par la promotion du bois énergie. Son caractère renouvelable en a fait un matériau noble pour la nouvelle croisade. Mais c’était oublier que l’utilisation inadaptée du bois de feu génère des produits de combustion toxiques nuisibles à la pureté de l’air.

 

Le nuage brun d’Asie témoigne des dégâts potentiels de l’usage incontrôlé du bois.

 

Toujours dans la même veine, l’énergie nucléaire a connu un regain d’intérêt lié à l’absence d’émissions de CO2. Hélas il n’est plus nécessaire de rappeler quel prix il faut accepter de payer pour utiliser cette énergie.

 

Encore un exemple, l’automobile électrique. Sa promotion, à un moment où les énergies durables ne sont pas encore prêtes à assurer la relève des énergies fossiles, engendre un surcroît de la demande électrique qui ne peut être satisfaite qu’avec des énergies fossiles émettrices de CO2. Une erreur de timing dont nous devrons payer les effets.

 

Enfin la majorité des efforts s’étant portée sur le CO2 et la recherche de l’optimisation de l’utilisation des énergies fossiles et nucléaire, il n’est plus resté suffisamment de moyens pour le développement des énergies durables, alors que la logique aurait voulu l’inverse.

 

Ces quelques exemples témoignent de la nécessité d’une stratégie globale planétaire si l’on désire éviter les dégâts collatéraux et contre productifs d’une croisade exclusive.

 

Il serait probablement plus avisé d’éviter de se précipiter tête baissée dans un combat contre un ennemi désigné unique, combat qui nous laisserait vulnérables sur d’autres plans environnementaux, laissés sans protection faute d’y porter suffisamment d’intérêt.

 

A moins que la recherche du bien être des peuples à travers le progrès technologique ne se révèle n’être qu’une voie sans issue, le remède risquant de tuer le malade.

 

Certains le pensent…

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 
Partager cet article
Repost0
28 avril 2012 6 28 /04 /avril /2012 14:57

 

28Avril 2012

Il paraît maintenant acquis que la première génération de voitures électriques produites en grandes séries sera équipée de batteries au Lithium. Plusieurs millions de véhicules électriques circulent déjà sur la planète, préfigurant la tendance à long terme de l’abandon progressif des carburants fossiles.

C’est sous la forme hybride rechargeable ( PHEV pour «Plug in Hybrid Electric Vehicle » ) que les nouveaux véhicules vont se répandre, suivis plus tard par les EV, entièrement électriques. Ces derniers resteront cantonnés aux usages citadins et péri urbains tant que le territoire ne sera pas équipé des infrastructures de rechargement ad-hoc, ce qui peut prendre une ou deux décennies.

La batterie au Lithium est actuellement la seule solution largement industrialisable capable de répondre aux besoins du marché automobile, même si son efficacité énergétique reste encore perfectible.

D’autres solutions sont en cours d’évaluation ou même de pré-développement, comme la batterie Zinc-air ou la pile à combustible dont la version à Hydrogène satisfait parfaitement aux nécessités écologiques. Des réalisations industrielles sont déjà commercialisées pour des applications spécifiques à poste fixe.

On peut penser que le Lithium occupera le terrain pendant une ou deux décennies, avant de partager le marché avec ces autres solutions faisant appel à d’autres technologies.

Le problème se pose donc de savoir où nous allons trouver ce Lithium, s’il y en aura pour tout le monde, et à quel prix.

La technologie de batterie Lithium-ion la plus adaptée au cahier des charges automobile est basée sur le composé Li M PO4 ( M pour métal), avec une préférence pour le Fer, soit Li Fe PO4, appelée LFP.

Le composé LFP constitue environ 75% du poids de la batterie, le reste comportant l’anode, les connexions, l’électrolyte, les membranes, la boîte, et l’électronique de contrôle.

La masse molaire du LFP est de 158 g, dans lesquels le Lithium figure pour 7 g, soit 4,4% , ce qui est plutôt modeste.

Le stockage de l’électricité, et son déstockage, sont réalisés grâce à l’intercalation et la désintercalation des ions Lithium dans la structure cristalline du LFP. Chaque molécule de LFP contribue donc en théorie à hauteur de la charge de un électron au bilan électrique (Un ion Lithium qui fait le va et vient entre la cathode et l’anode transporte avec lui une charge égale à celle de un électron).

Il est alors facile de calculer l’efficacité énergétique théorique du LFP (Rendement électrochimique), il suffit de multiplier le nombre de molécules présentes dans un gramme de LFP par la charge élémentaire.

On trouve 554 mWh /g, ou encore 170 mAh/g puisque la tension de cellule est de 3,3 Volt environ.

Mais cela vaut pour une masse de produit dont on peut exploiter toutes les possibilités de stockage du cristal.

En pratique le rendement d’intercalation/désintercalation dépend beaucoup de la structure du matériau LFP, qui elle-même est fonction de la méthode de préparation et de l’incorporation de certains adjuvants.

La technologie actuelle industrialisable permet d’obtenir une efficacité énergétique de l’ordre de 130 mWh /g de LFP, soit environ 23% de la valeur théorique.

Note:

De nombreux laboratoires travaillent à l’amélioration de ce paramètre, notamment par le recours aux nanotechnologies pour la préparation du matériau LFP. Une efficacité supérieure à 50% est envisageable à moyen terme ( 2015), comme le montrent les travaux du CEA.

Aujourd’hui, pour fabriquer une batterie de 24 KWh (par exemple comme celle de la Renault FLUENCE ZE), il faut donc 184 Kg de LFP avec une efficacité de 130 Wh/Kg, auxquels il faut ajouter l’anode, l’électrolyte, le container, l’électronique de contrôle, et la connectique, ce qui nous amène à 250 Kg environ, dont 8 Kg de Lithium métal.

Pour une voiture hybride rechargeable, une batterie de 6 KWh est suffisante. La quantité de Lithium métal nécessaire est alors seulement de 2 Kg.

Pour connaître la quantité de Lithium nécessaire à l’application automobile, il faut considérer plusieurs étapes, qui sont autant d’hypothèses de travail:

Une première période d’apprentissage, d’une dizaine d’années, pendant laquelle les PHEV feront la grande majorité du marché. Si l’on estime la pénétration du parc à 5% à la fin de cette première période ( 2025 ?), environ 40 millions de véhicules seraient des hybrides rechargeables, sur un parc estimé à 800 Millions de véhicules.

A raison de 2 Kg de Lithium métal par batterie de 6 KWh , 80 000 tonnes de Lithium métal seront donc nécessaires pour cette première période (qui viendront s’ajouter aux besoins des autres applications non automobiles).

Une seconde période, de deux ou trois décennies, qui verra la croissance du marché et son partage entre PHEV et EV. Lorsque 50% du parc sera équipé ( 400 Millions de véhicules), 2 Millions de tonnes de Lithium métal auront été utilisées ( Horizon 2040-2050).

Une troisième période pourrait voir l’introduction de la pile à combustible (ou de tout autre dispositif nouveau), susceptible de prendre une part importante du marché, réduisant d’autant la pression sur la demande de Lithium.

On peut, sur ces bases fragiles, estimer le besoin en Lithium métal à environ 4 Millions de tonnes pour équiper la presque totalité du parc, sur une période de quatre à cinq décennies (Horizon 2050-2060).

Durant cette période, de grands progrès sont attendus dans la fabrication des batteries, et il n’est pas déraisonnable d’envisager à court-moyen terme un doublement de l’efficacité énergétique qui passerait de 23% de la valeur théorique à 50%, ce qui diviserait par deux les besoins en Lithium (ou multiplierait par deux l’autonomie des véhicules).

Notons au passage que le Lithium n’est pas un combustible, il ne disparaît pas au cours du fonctionnement de la batterie, il est recyclable pour fabriquer d’autres batteries .

Une fois l’ensemble des véhicules équipés, c’est le même stock qui tourne, le Lithium des batteries usagées étant recyclé pour équiper les véhicules neufs. La consommation nouvelle de Lithium étant destinée à alimenter la croissance du stock.

Un peu comme l’acier des vieilles voitures qui est réutilisé pour faire des voitures neuves.

On peut donc estimer que 3 à 4 millions de tonnes de Lithium métal seront

« immobilisées » dans les batteries d’un parc automobile de 1 Milliard de véhicules et constitueront un stock tournant recyclable.

Ce stock devra être augmenté de 40 à 50 000 Tonnes de Lithium métal annuellement pour suivre l’accroissement du parc.

Ces chiffres sont à minorer en fonction de l’importance des parts de marché prises par les nouvelles technologies comme la pile à combustible, ou d’autres technologies de batteries, et des améliorations apportées à l’efficacité énergétique des batteries Li-ion.

Face à ce besoin, quelles sont les réserves disponibles ?

Aujourd’hui ces réserves ne sont pas identifiées de manière exhaustive. Les quelques sites exploités suffisent à répondre aux besoins actuels des outils de communication mobiles et des appareils électroniques divers tels que PC, appareils photos, tablettes, et de l’outillage portatif .

Mais la perspective de l’électrification du marché automobile, et des transports en général, a suscité une activité intense de recherche de nouveaux sites et d’identification des réserves possibles de Lithium.

Selon diverses estimations les réserves terrestres pourraient varier entre 50 et plusieurs centaines de millions de tonnes de produit de base ( carbonate et/ou chlorure de Lithium), soit entre 10 millions et plusieurs dizaines de millions de tonnes de Lithium métal. Le jackpot pour certains pays d’Amérique du Sud…

Le Lithium est également présent dans les océans . Mais l’extraction est plus difficile, donc plus chère.

Les réserves terrestres annoncées dans l’euphorie par les nouveaux futurs gagnants du loto sont à considérer avec circonspection, eu égard au caractère stratégique de la chose. Le lecteur averti aura compris que les chiffres produits sont à peu près aussi crédibles que ceux annoncés par les émirs (les vrais) pour les réserves de pétrole du Moyen-Orient…

Le passage du Pétrole au Lithium sous-entend de profonds bouleversements géopolitiques qui ne seront pas exempts de frictions entre les protagonistes du monde de l’énergie qui craignent de voir dépérir leur poule aux œufs d’or.

Il y a de la recherche d’indépendance énergétique dans l’air, et le fait que l’essentiel des réserves accessibles soit dans le continent Sud-Américain fait grincer quelques dents. D’aucuns craignent l’émergence d’un nouveau Moyen-Orient et s’empressent déjà auprès des futurs émirs afin de gagner les faveurs de l’OPEL ( Organisation des Pays Exportateurs de Lithium) qui ne manquera pas d’être créée sous peu. Quant aux Etats qui font aujourd’hui danser la planète au son du baril, ils craignent de se voir retirer leur bâton de commandement, ce qui les exposerait à toutes sortes de désagréments.

Tout ceci aura des répercussions directes sur le prix du produit, qui est déjà fortement orienté à la hausse.

Le matériau de base qui entre dans la fabrication du LFP est principalement le carbonate de Lithium Li2 CO3, dont le Kilogramme se négocie autour de 7 $, alors qu’il ne valait que 1 $ en 2005 .

Il n’intervient donc encore que pour une faible part dans le coût de la batterie, mais ceci pourrait changer dans le futur.

Le concept d’épuisement des réserves, au sens de l’épuisement du pétrole, est ici dépourvu de sens puisque le matériau utilisé n’est pas détruit mais recyclé et réutilisable indéfiniment. Le stock est simplement déplacé de la Terre vers les batteries, où il pourra être récupéré lorsque les batteries au Lithium seront remplacées par des piles à hydrogène ou une autre sorte de batteries.

Les choses se compliquent quelque peu si l’on considère un autre besoin de stockage d’énergie électrique, en relation avec la croissance des énergies nouvelles. En effet, le solaire et l’éolien sont des sources intermittentes, qui doivent alimenter un réseau sur lequel la demande d’énergie est également variable. Il est donc nécessaire de prévoir un tampon capable de stocker l’énergie quand l’offre dépasse la demande, et de la restituer dans le cas contraire. Aujourd’hui les énergies solaire et éolienne ne représentent qu’une très faible part de la production, leur intermittence est peu gênante et facilement gérée car l’essentiel de la production est assurée par des centrales thermiques dont la puissance peut être ajustée à la demande. Mais dans l’hypothèse d’une prépondérance des énergies nouvelles ( au-delà de 2030 ?) il devient indispensable de disposer d’un système de stockage de masse.

De tels systèmes sont à l’étude, certains déjà opérationnels à petite ou moyenne échelle. Plusieurs voies sont expérimentées comme le stockage direct en batteries, ou sous forme de chaleur dans des matériaux à changement de phase, ou dans des volants d’inertie, ou sous forme d’Hydrogène après électrolyse, etc…Sans oublier le pompage-turbinage déjà en service.

Le stockage en batteries Lithium-ion est une solution parmi d’autres, qui a le mérite d’être disponible aujourd’hui. Sa mise en œuvre pourrait aisément doubler ou tripler la demande de Lithium, avec cette fois des conséquences sur le marché, pouvant aller jusqu’à de réelles difficultés d’approvisionnement, si les réserves annoncées ne sont pas au rendez-vous.

Les obstacles qui pourraient freiner le développement de la voiture électrique sont en fait à rechercher ailleurs:

- Le pétrole, dont on annonce périodiquement l’imminente disparition, est toujours disponible sans restriction à la pompe, à un coût certes élevé mais encore gérable. Les conditions d’un basculement imposé vers l’électricité (prix excessif du pétrole et/ou restrictions ) ne sont pas encore d’actualité, et les prévisions dans ce domaine sont impossibles.

A moins que les rumeurs permanentes de conflit au Moyen-Orient ne trouvent une confirmation prochaine…

- Les politiques de lutte contre le CO2 sont décidées en tenant compte de la nécessité de préserver le secteur de l’énergie et de la construction automobile. Les règlementations sur les émissions de CO2 sont donc établies en tenant compte des progrès raisonnablement possibles des technologies actuelles. Les seuils imposés ne sont alors pas suffisamment dissuasifs.

De plus, toujours pour éviter des perturbations préjudiciables à l’économie du secteur, ces seuils ne sont applicables qu’aux véhicules récents.

Rien donc là non plus qui soit de nature à précipiter les acheteurs vers l’électrique.

- Le coût des véhicules hybrides rechargeables ( les seuls réellement utilisables en l’absence d’infrastructures de rechargement) est nettement plus élevé que leurs homologues classiques. Ce surcoût est normal s’agissant d’une technologie nouvelle et d’un marché naissant, mais l’acheteur hésite à sauter le pas car le différentiel de prix n’est pas compensé par l’économie de carburant promise, et la politique de prix du KWh de rechargement reste une inconnue, notamment la taxation. Sans parler de l’absence de bornes publiques de rechargement dont même les PHEV ont grand besoin.

- On pourrait cependant penser que les acheteurs soucieux de la protection de l’environnement choisiraient sans hésiter le véhicule électrique, mais ces acheteurs n’ignorent pas que l’électricité est aujourd’hui très majoritairement produite par des centrales thermiques émettrices de CO2, ou par des réacteurs nucléaires, émetteurs de substances encore moins recommandables. Rouler électrique ne change donc rien au volume de CO2 émis globalement. Ces acheteurs avisés savent par ailleurs que les projets de capture et séquestration du carbone n’aboutiront à des résultats concrets que dans une ou deux décennies.

- Les véhicules électriques PHEV sont équipés d’une batterie plus modeste que celle des EV, 6 KWh contre 24 Kwh en EV. Cette batterie de 6 KWh reste un composant onéreux dont la durée de vie n’excède pas quatre ou cinq ans. Le coût de son remplacement est à ajouter au coût d’exploitation.

Pour tous ces inconvénients les usagers en situation d’acquérir une nouvelle voiture ont donc d’excellentes raisons de rester dans le classique et de reconsidérer leur choix dans quatre ou cinq ans.

Dans cette situation, l’amorçage du marché nécessite quelques mesures incitatives des Etats, des constructeurs, et des distributeurs d’énergie électrique.

L’Etat peut intervenir par des mesures de défiscalisation, des primes, mais aussi en décidant d’une règlementation plus sévère, par exemple l’interdiction d’accès aux centre villes aux véhicules non électriques.

Les constructeurs peuvent offrir des contrats de garantie plus longs et plus sécurisants, incluant la batterie, et comportant notamment des garanties de reprise du véhicule.

Les distributeurs d’ électricité, aidés par une législation adéquate, peuvent mettre en place un réseau public de bornes de rechargement, et inciter les entreprises et les particuliers à faire de même dans leurs locaux. Les tarifs pratiqués ne devront évidemment pas être dissuasifs.

Il est donc fortement probable que le développement de la voiture électrique dépendra surtout de l’évolution du marché pétrolier, de la politique des Etats, des constructeurs, et des distributeurs d’énergie électrique.

L’hypothétique épuisement des réserves de Lithium n’est peut-être pas le principal problème…

 

 

Partager cet article
Repost0
14 avril 2012 6 14 /04 /avril /2012 17:53

 

14 Avril 2012

La voiture électrique est entrée chez nous par la petite porte. Nous voulons parler de la tout électrique qui ne peut compter que sur sa batterie pour avancer. L’objet qui commence à sillonner nos villes est la « Blue car » mise en location en libre service. Elle n’a pas la prétention de remplacer une berline routière.

Les hybrides déjà commercialisées ne sont que des semi électriques qui vivent leur vie de voitures classiques avec un moteur auxiliaire électrique.

Au contraire, l’engin qui nous intéresse ici est la berline tout électrique, telle que la FLUENCE ZE que Renault doit commercialiser cette année.

Les pratiques marketing ( douteuses) laissent entendre que le client pourra faire le plein d’électricité pour deux euros, ramenant ainsi son budget carburant à quasiment rien.

Voyons ce qu’il en est.

Un calcul simple laisse entrevoir la possibilité de diviser par quatre ou davantage le budget carburant d’un usager moyen.

Selon la technologie, pour parcourir 100 km en auto, il faut environ 5 L de gazole, 7 L de super, ou encore 20 KWh d’électricité, ceci pour une honnête voiture moyenne de cinq places.

Sur cette distance l’usager deva donc dépenser respectivement 7 euros de gazole, 11,2 euros de super, ou 1,8 euros d’électricité ( tarif EDF Bleu ciel, puissance souscrite 9KVA, option HP/HC, charge de batterie à la maison en HC).

Pour 15 000 km par an, son budget carburant annuel sera donc de:

1 050 euros de gazole ou

1 680 euros d’essence ou

268 euros d’électricité.

L’usager se frotte les yeux et refait son calcul, pas d’erreur le jackpot est à sa portée.

Et que dire du gros rouleur qui parcourt beaucoup plus de kilomètres.

Sans hésitation notre homme signe un bon de commande pour la petite merveille.

Le lendemain il rencontre son comptable et ami, qui lui tient un langage de comptable, lequel est rarement désopilant comme l’atteste la liste ci-dessous des surprises qui l’attendent :

L’exemple de la Renault Fluence ZE nous montre que le prix de la voiture ( 26 000 euros) est sensiblement égal à celui du modèle à moteur thermique de même facture, mais sans la batterie, qui est uniquement proposée en location.

Pour un contrat de location de 60 mois et 15 000 km par an, il en coûtera mensuellement 96 euros TTC, sans l’électricité évidemment, que l’usager devra payer par ailleurs.

La location seule de la batterie coûtera donc 1 152 euros TTC par an, soit davantage que le budget gazole équivalent.

Notre usager commence à pâlir.

Il n’est pas au bout de ses surprises:

Les carburants pétroliers supportent la TICPE ( ex TIPP) , qui rapporte 25 Milliards d’euros par an à l’Etat. L’électricité en est exempte, pour le moment. Mais Bercy n’a évidemment pas l’intention de renoncer au produit de cette taxe, et réfléchit à la manière de l’appliquer à l’énergie de recharge des batteries. Dans un premier temps la taxe sera supportée par les bornes publiques, car la mise en œuvre en est simple. Dans un second temps elle sera étendue aux installations particulières selon une méthode à définir, Bercy étudie la question avec EDF ( soit une taxe annuelle fonction du véhicule, soit un circuit séparé géré par un compteur Linky).

Il est plus que probable que le KWh « automobile » coûtera alors nettement plus que 0,0895 euros…

1 litre de gazole permet d’obtenir environ 4 KWh efficaces dans un moteur moderne. On peut alors imaginer que 1 KWh d’énergie électrique de recharge de batterie devrait supporter le quart de la taxe supportée par un litre de gazole, soit une dizaine de centimes d’euro, pour conserver l’intégralité du rapport de la TICPE.

Le prix du courant serait alors multiplié par deux.

Voilà notre usager au bord de l’asphyxie.

Mais le comptable n’a pas fini:

Pour une voiture à moteur thermique la notion d’autonomie est sans signification. Lorsque le réservoir se vide il suffit de le remplir à la première station-service, toujours proche.

Pour une voiture électrique il en va tout autrement, l’autonomie est un paramètre très important, au point que le constructeur lui-même la place en tête des spécifications. Elle sera une cause de stress permanent car il n’existe aucune infrastructure publique de rechargement des batteries. Le conducteur devra à chaque déplacement sortir sa calculette pour évaluer le nombre de KWh nécessaires au trajet prévu en fonction de son chargement, du profil de la route, et de la distance au prochain point de recharge!

Lorsque cette infrastructure existera ( dans cinq ans, dans dix ans ?) il ne faudra pas espérer y trouver de l’électricité à 0,09 euros le KWh. Ce KWh sera devenu un produit commercial sur lequel le distributeur prendra sa marge, et qui supportera la TICPE.

On pourra donc, peut-être, refaire le plein, mais au prix fort.

Notre usager se sent de plus en plus mal.

Hélas le comptable n’en a pas encore fini avec lui:

Si, malgré de savants calculs d’autonomie, la voiture s’arrête faute d’énergie, il est infiniment peu probable que la panne sèche se produise devant une station service. Il sera donc nécessaire de procéder à un remorquage, rarement effectué à titre gracieux, et d’accepter une interruption du voyage de peut-être plusieurs heures selon le lieu et l’heure et la disponibilité d’un poste de recharge rapide .

Pour éviter la panne sèche l’usager devra donc prévoir une recharge de batterie ou un échange standard tout les cent kilomètres. Il ne pourra donc emprunter que les itinéraires comportant ces facilités, lesquelles seront payantes bien entendu.

Notre usager, complètement découragé, commence à se demander si, en guise de voiture, on ne lui a pas vendu une tringle à rideau.

Ce sombre tableau n’est que la liste des aléas auxquels sera exposé l’usager acheteur d’une voiture tout électrique en 2012 et dans les deux ou trois prochaines années, en attendant la mise en place d’un réseau dense de stations de rechargement.

Donc, non seulement la voiture tout électrique n’est pas une bonne affaire financière, mais elle peut s’avérer source d’ennuis sans fin…

 

 

 

 

Partager cet article
Repost0
13 avril 2012 5 13 /04 /avril /2012 10:27

 

13 Avril 2012

Donc nous voici une fois de plus mis en demeure de rouler électrique. Deux ou trois tentatives eurent déjà lieu dans le passé, la première à l’occasion de la crise pétrolière de 1973. Chaque tentative s’est soldée par un fiasco public et par l’achat d’une centaine de véhicules par EDF, la Poste et quelques collectivités locales.

L’impossibilité d’ouvrir le marché à un large public a toujours été liée à l’insuffisance d’efficacité énergétique des batteries.

La tentative actuelle semble plus sérieuse.

Au prix de prouesses technologiques très onéreuses, les fabricants de batteries sont parvenus à développer des produits industriels dont l’efficacité énergétique est 2,2 fois celle des batteries au plomb de mon grand père.

De 35 Wh/kg on est passé à environ 78 Wh/kg.

( La batterie de la Renault Fluence ZE offre une capacité exploitable de 22 KWh pour un poids total de 280 kg avec les dispositifs de contrôle et régulation, soit 78 Wh/kg ).

Ce progrès, au demeurant fort modeste, a suffi pour que les constructeurs se relancent dans la course.

Les usagers considèrent les nouvelles propositions avec une certaine perplexité.

Ceux qui font confiance à leur bon sens estiment que là où des batteries de 35 Wh/kg n’ont pas réussi à faire rouler convenablement des voitures de 800 kg, on ne voit pas très bien comment des batteries de 78 Wh/kg pourraient faire rouler des monstres de 1 600 kg ( Renault Fluence). Mais de nos jours le bon sens n’est plus aussi bien partagé que par le passé.

Lorsque ce sont les constructeurs eux-mêmes qui font preuve de bon sens, ils choisissent d’industrialiser des véhicules hybrides rechargeables, fournissant ainsi à la fois la ceinture et les bretelles.

La batterie et le moteur électrique deviennent alors des auxiliaires qui permettent de rouler (un peu) en ville à l’électricité, et d’utiliser le moteur thermique lorsqu’il s’agit de passer aux choses sérieuses.

Renault a choisi la solution tout électrique ( Nous déclinons toute responsabilité quant aux déductions que ce choix pourrait suggérer à propos du bon sens qui règnerait ou non dans les services marketing de la Régie ).

La Renault électrique ( Fluence ZE) est équipée d’un moteur de 70 KW de puissance max, alimenté par une batterie d’une capacité énergétique de

22 KWh. Le poids total est de 1 605 kg.

Un calcul élémentaire indique que l’objet pourra rouler à puissance max pendant seulement 19 (Dix neuf) minutes, à condition de couper la climatisation et/ou le chauffage et d’éteindre les phares.

Ce résultat ne manquera pas de susciter une certaine inquiétude chez l’usager conscient.

Inquiétude également présente dans l’esprit des concepteurs de la chose puisque la vitesse a été bridée à 135 Km/h afin de permettre un minimum d’autonomie.

Justement, quelle autonomie ?

Aucun usager sensé n’accorde le moindre crédit aux chiffres annoncés dans le catalogue, les 185 km sont obtenus dans des conditions d’essai NEDC parfaitement irréalisables en pratique courante.

Les essais publiés sur turbo.fr donnent les résultats suivants:

-test en conduite paisible avec climatisation modérée: 16,5 KWh/100 km

-test en conduite soutenue: 27 KWh/100 km

L’autonomie réelle serait donc comprise entre 80 et 130 km, selon la façon de conduire, et à condition de ne pas abuser de la climatisation ou du chauffage.

Il est bien entendu hors de question de tracter une caravane…

Un tel objet est donc inutilisable sur de grands parcours, du moins tant qu’une infrastructure de recharge rapide ou d’échange standard ne sera pas opérationnelle.

Cette infrastructure est une arlésienne qui risque de se faire attendre longtemps. En effet, dans l’état actuel des choses seuls pourront accomplir des grands parcours les véhicules hybrides rechargeables, pour lesquels aucune infrastructure n’est requise. Il faudrait donc mettre en place cette infrastructure uniquement pour les véhicules tout électriques, et dans ce cas les voitures devraient s’arrêter tout les cent kilomètres environ pour changer de batterie ou bien attendre une heure pour une recharge rapide.

Qui peut croire qu’un tel système est viable ?

Le véhicule tout électrique est donc plutôt réservé aux usages urbains et périurbains: Taxis, autolib, location, livraisons, tournées régulières, ou trajet travail pour particuliers fortunés ( seconde voiture ?).

Ce marché peut devenir très important si la règlementation anti pollution exige pour les villes une réduction drastique des émissions de CO2 , de NOx, et de nanoparticules, qui interdirait aux moteurs thermiques l’accès aux zones urbaines.

Les projets actuels de ZAPA sont très loin d’atteindre ce stade, elles ne visent que les véhicules les plus polluants, les véhicules récents ne sont pas touchés.

Les acheteurs de véhicules récents, qui auraient les moyens d’acheter une voiture électrique, ne seront donc pas incités à le faire. Les autres n’ont pas les moyens, ils prendront les transports en commun.

On peut donc penser que le marché du véhicule tout électrique type berline familiale routière ( nous pensons à la Renault FLUENCE ZE) restera un marché de niches pendant encore une décennie. Il pourra intéresser quelques compagnies de taxis, quelques clients particuliers, des loueurs de voitures, et des flottes de sociétés.

Ce marché ne doit pas être sous-estimé, il peut être fortement boosté par une règlementation favorable, des incitations fiscales ou des taxes dissuasives.

Notre arlésienne pourrait alors occuper le devant de la scène, au moins en ville.

 

 

 

 

 

 

Partager cet article
Repost0
10 avril 2012 2 10 /04 /avril /2012 18:12
 
 
10 Avril 2012
Sous la menace conjuguée des énergies fossiles émettrices de CO2, et du nucléaire de triste réputation, les populations, dans un grand élan d’enthousiasme, se sont jetées aux pieds des énergies nouvelles auréolées de multiples mérites, dont l’absence d’émissions de CO2 et le caractère renouvelable ne sont pas les moindres.
Mais lorsqu’il s’est agi de passer à table, il s’est avéré que la soupe est un peu amère.
L’hydraulique, présenté comme une valeur sure, ce qui est exact, ne peut répondre aux espoirs placés en lui. Notre pays est déjà pourvu de nombreux barrages hydroélectriques qui fournissent bon an mal an environ 12% de notre production électrique. Cette production fluctue en fonction des précipitations annuelles mais elle n’est pas intermittente.
Il est pratiquement impossible de construire de nouveaux barrages de taille significative, en raison de la nécessaire protection de l’environnement, de la biodiversité, des rivières, et de la trop grande urbanisation des sites candidats.
L’exploitation des courants marins, de la houle, ou des marées, rencontre de nombreux obstacles techniques et économiques qui, pour le moment, ne permettent pas d’envisager des installations de forte puissance.
Il ne faut donc pas attendre une forte croissance dans le domaine de l’énergie hydraulique, du moins dans les deux prochaines décennies.
La filière bois, très prometteuse, n’est une énergie renouvelable que dans la mesure où l’on peut garantir que le prélèvement sera strictement compensé par des plantations nouvelles, ce qui est loin d’être acquis.
Si l’on prélève des bois qui ont mis 15 ans à pousser, il faudra attendre 15 ans pour constater un renouvellement. Ce décalage entre la récolte et le renouvellement du stock est de nature à provoquer une déforestation du milieu, en opposition avec les règles de protection de l’environnement et de la biodiversité, et un déséquilibre de la balance du CO2.
La valorisation de cette filière se fera donc surtout avec des bois d’importation, ce qui revient à déplacer le problème, et à reporter la déforestation ailleurs. Les associations pour la protection de l’environnement ont tiré le signal d’alarme et demandé un moratoire sur les projets grandioses de développement de la filière bois.
L’exploitation énergétique des déchets de la biomasse souffre également d’un manque de définition des objectifs. Le risque est d’instrumentaliser des filières agricoles nourricières au profit de la production d’énergie et au détriment de la production alimentaire. Une filière qui devra donc être très encadrée et dont les objectifs devront être limités à la stricte élimination des déchets, la production d’énergie n’étant qu’une retombée.
Reste donc l’éolien et le solaire, susceptibles de fournir de grosses quantités d’énergie sans les inconvénients et les restrictions des autres sources.
On connait les raisons du retard de ces filières en France, c’est le nucléaire, qui fournit 75% de notre électricité et constitue une monoculture monopolistique. Cette filière est organisée en bastion quasiment imprenable cultivant le secret, l’autoexpertise, l’auto certification, et l’autocontrôle. Son fonds de commerce est bâti sur l’opacité des coûts, qui lui permet d’exhiber des prix de revient dérisoires, seuls garantie de sa pérennité. Prix de revient évidemment parfaitement incontrôlables puisqu’ils n’incluent ni le traitement des déchets, ni le coût du démantèlement, ni le coût humain des dégâts de santé publique.
Mais les récents évènements du Japon ont entraîné par contrecoup des lézardes dans le mur du donjon. Il n’est désormais plus possible de continuer « as usual » , un minimum de transparence est désormais requis.
Cette transparence, si elle enfin respectée, fera apparaître les lacunes de la gestion de la sécurité et mettra en évidence les vrais risques du nucléaire, et les vrais coûts, donnant ainsi du corps au mouvement d’opinion en faveur de la sortie progressive de cette filière.
Cette perspective est évidemment prise en compte par le château qui réalise enfin qu’il faudrait peut-être se préparer à prendre le train des énergies nouvelles sous peine de se retrouver technologiquement et industriellement disqualifié sur un marché que les concurrents auront su occuper au bon moment.
La mise en œuvre de cette nouvelle stratégie se heurte à un obstacle économique classique lorsqu’une nouvelle technologie cherche à remplacer une technologie ancienne largement amortie. Cet obstacle est ici aggravé par le prix particulièrement bas de l’énergie électrique en France, prix purement artificiel ne tenant pas compte des coûts réels du nucléaire.
Ces deux facteurs, coût élevé de la nouvelle technologie, et prix public de l’énergie artificiellement bas, se conjuguent pour donner un ratio de deux ou trois entre le tarif règlementé d’une part, et le coût des énergies nouvelles.
Ce surcoût est un obstacle majeur au développement de l’éolien et du solaire dans les conditions du marché. Ce développement n’est possible que dans le cadre d’une politique de rachat de l’énergie à prix préférentiel, qui possède ses propres limites. Ce rachat est un investissement qui doit être financé soit par l’impôt, soit par l’utilisateur à travers la CSPE.
L’appel d’offres pour des parcs éolien offshore s’inscrit dans ce cadre.
On sait que l’éolien offshore est très cher, et d’aucuns peuvent se demander pourquoi on ne commence pas par le terrestre. Le graphique ci-dessous répond à cette question.
 
Efficacite-des-eoliennes-terrestres.png
 
 
Une efficacité moyenne de 22,4% et une intermittence considérable condamnent à priori une solution qui, par ailleurs, se heurte à de nombreuses oppositions.
L’investissement dans des parcs éoliens offshore a essentiellement pour objectif de permettre le développement d’une filière industrielle française capable de rivaliser avec la concurrence non seulement sur le marché intérieur, mais aussi au-delà des frontières. Le succès de cette opération permettra de mesurer notre capacité à figurer dignement sur ce marché autrement qu’en installant des éoliennes fabriquées ailleurs.
Réponse après 2015...
 
 
 
 
 
 
Partager cet article
Repost0
6 avril 2012 5 06 /04 /avril /2012 08:07

 

6 Avril 2012

Le mythe du moteur à eau a toujours fait la joie des rédacteurs de revues de vulgarisation scientifique. Avec le mouvement perpétuel il est de ces illusions soigneusement entretenues pour alimenter nos rêves.

Mais on n’arrête pas le progrès, la science ne respecte plus les mythes, on vient de découvrir que ce fameux moteur à eau existe bel et bien, et depuis fort longtemps.

Une plaisanterie ? Pas du tout.

Non, je ne parle pas du moulin à eau de nos ancêtres, ni de sa version moderne qui équipe les barrages hydroélectriques, condamnés à mouliner sur place, je parle d’un moteur capable d’équiper un jour nos automobiles.

C’est très simple:

Prenez de l’eau standard, de la bonne eau que vous pouvez vous procurer gratuitement à la fontaine.

Bricolez sommairement un bac à électrolyse. Rien de bien compliqué, vous ferez selon vos moyens.

Branchez-le sur une source de tension continue assez énergique.

Il se passe ce que le maître d’école réalisait dans la classe pour la plus grande joie des galopins, l’eau se décompose en Oxygène d’une part, et en Hydrogène d’autre part, c’est l’électrolyse.

Recueillez soigneusement l’un et l’autre dans des récipients séparés, et mettez ces deux récipients de côté.

Bricolez ( encore) une pile telle que décrite dans les revues genre Système D . Là il faudra casser votre tirelire car les électrodes doivent être en platine.

Munissez le récipient contenant l’Hydrogène d’un tuyau et envoyez ce gaz dans le premier bac de la pile . Faites de même de l’autre côté avec l’Oxygène.

Branchez un moteur entre les deux électrodes.

O merveille, le moteur tourne.

Vous avez bien réalisé un moteur à eau.

Et en plus il vous restitue à la sortie l’eau que vous avez consommée dans l’électrolyseur. Plus écolo tu meurs.

Bien sûr les esprits chagrins feront remarquer que l’énergie dépensée pour électrolyser l’eau est supérieure à l’énergie fournie au moteur, et ils auront raison. Mais si cette énergie est fournie par un système hydroélectrique, nous n’avons consommé que de l’eau.

Nous avons alors bel et bien un moteur à eau, et si le rendement global n’est pas trop ridicule, l’affaire est viable.

C’est ce que les ingénieurs se sont dit, et ils se sont attelés à la rude tâche qui consiste à transformer un démonstrateur de laboratoire en une machine industrielle susceptible d’être produite en grandes quantités, pour un coût raisonnable et avec un rendement énergétique décent.

C’est la fameuse pile à Hydrogène, encore appelée pile à combustible (PAC, à ne pas confondre avec la pompe à chaleur !).

Si l’idée est séduisante, la réalisation industrielle se heurte à de nombreux obstacles:

- Pour équiper une auto avec un tel système il faut pouvoir emporter son hydrogène avec soi. Pour avoir suffisamment de molécules afin d’aller le plus loin possible ( chaque molécule d’Hydrogène ne donne que deux électrons!), il faut remplir le réservoir à très haute pression, jusqu’à 700 kg, ce qui pose les problèmes que l’on imagine sans peine: poids des bouteilles, encombrement, danger ( les anciens se souviennent de l’accident du Hindenburg qui a stoppé net l’essor de l’Hydrogène dans les transports).

- La molécule d’Hydrogène est la plus petite du catalogue, elle a tendance à se faufiler partout, d’où de grands risques de fuite, et donc de danger d’explosion, ce qui nécessite un matériel, des tuyaux, des vannes, particulièrement soignés donc très chers.

- L’Hydrogène qui rentre dans le premier compartiment de la pile est censé se séparer gentiment en électrons d’une part et protons d’autre part sur une première électrode. Or ce miracle ne s’opère qu’en présence d’un catalyseur adéquat. Le seul catalyseur connu et très efficace est le Platine. C’est un matériau rare et cher ( encore un pléonasme). Pas question d’industrialiser la pile à combustible en grand volume avec du Platine. Il faut trouver autre chose, beaucoup moins onéreux et suffisamment efficace.

On cherche encore. Certains matériaux sont proposés et utilisés dans des applications professionnelle ( Industries, aérospatial,..) mais ils sont encore trop chers pour nos autos.

- Les électrons créés vont alimenter le moteur branché entre les électrodes. Les protons sont priés d’aller rejoindre l’autre électrode en passant à travers une membrane aussi peu résistante que possible, et capable de repousser les électrons afin de les rejeter vers le moteur.

Elle doit également interdire le passage de l’Hydrogène sous peine d’explosion à la sortie à la rencontre avec l’Oxygène.

Cette membrane doit être imprégnée d’eau, mais pas trop, afin d’assurer le passage des protons.

Une telle membrane doit rester efficace pendant toute la vie de la pile (quelques dizaines de milliers d’heures ) . Elle est très sensible à la pollution par des molécules étrangères qui auraient pu se glisser avec l’Hydrogène, qui doit donc être très pur, pratiquement électrolytique.

Les recherches sur la membrane idéale sont toujours en cours, l’objectif restant la mise au point de matériaux efficaces, résistants aux agressions , et d’un coût compatible avec le marché grand public.

- L’ensemble doit satisfaire le cahier des charges automobile, notamment le fonctionnement à froid ( - 30 °C), la capacité à délivrer un courant élevé, le fonctionnement à chaud, la résistance aux chocs, la fiabilité, etc…

On peut estimer que ce type de générateur électrique ne pourra pas être commercialisé en volume pour l‘automobile, à prix grand public, avant une décennie.

Il existe un autre marché pour la pile à Hydrogène, c’est le stockage d’électricité en poste fixe.

On sait que le principal défaut des énergies solaire et éolienne est leur intermittence. Il est donc essentiel de développer des systèmes de stockage de courant en période de production, pour la restituer en période d’absence de Soleil ou de vent.

C’est possible avec le système électrolyse + pile à Hydrogène. L’hydrogène produit par l’électrolyse est stocké sous pression élevée dans des fosses sécurisées, puis envoyé dans une batterie de piles à Hydrogène pour produire du courant selon le besoin.

Diverses solutions sont déjà commercialisées:

De la plus petite, proposée par la société Acta Energy, pour une puissance de 1 KW,

A des modèles industriels comme le MISTRAL 600KVA proposée par AREVA.

La pile à Hydrogène est donc déjà sortie des laboratoires, on peut même montrer des véhicules équipés, l’avenir est prometteur à condition de surmonter les problèmes de sécurité et de coût.

Dès que l’on manipule des gaz inflammables sous pression il existe un problème de sécurité. Le nier n’a pour résultat qu’augmenter les risques.

L’auteur est bien placé pour connaître les risques inhérents à l’usage du GPL.

L’Hydrogène possède une plage explosive beaucoup plus étendue que le GPL, et il est sujet à des fuites à cause de la faible taille des molécules. Le risque est donc très supérieur à celui généré par le GPL. Il faudra en tenir compte sous peine de graves déboires.

Ce fameux moteur à eau est donc à portée de main, mais beaucoup reste à faire pour le mettre à portée de n’importe quelle main.

 

 

Partager cet article
Repost0
1 avril 2012 7 01 /04 /avril /2012 18:20
 
1er Avril 2012
Le pétrole est devenu le sang de notre société technologique. Lorsque son prix augmente il en résulte une hypertension dans les artères de l’économie. Un prix excessif peut générer un accident vasculaire dont les conséquences seraient imprévisibles, et les séquelles inévitables.
La santé économique de notre société se trouve ainsi résumée dans le graphique ci-dessous:
Cours Brent 2002 2012-copie-1La dernière décennie a été marquée par une tendance haussière constante au rythme de 30% par année. La crise financière a provoqué une poussée d’hypertension assez vite résorbée mais n’a pas modifié le rythme de croissance, elle a cependant permis une pause de treize trimestres sans laquelle le cours aurait peut-être atteint 140 $ aujourd’hui au lieu de 105$.
Quelles réflexions un tel graphique peut-il nous inspirer ?
Nous connaissons certaines contraintes qui pèsent sur le marché du pétrole:
La perspective de l’épuisement des réserves et l’accroissement de la demande sont deux solides raisons de l’augmentation durable du prix de marché.
Mais cette augmentation peut être tempérée par la montée en puissance du gaz naturel, du gaz de schiste, et du charbon qui retrouve un regain d’intérêt.
D’autre part il faudra bien un jour que les énergies nouvelles arrivent sur le devant de la scène, récupérant une part du marché de l’énergie et soulageant ainsi la pression sur la demande de pétrole.
Egalement, hélas, tout porte à croire que Fukushima n’empêchera pas le nucléaire de continuer à se développer, avec le même effet que les énergies nouvelles sur la demande d’énergie fossile carbonée.
Enfin, il semble que se développe un grand mouvement vers la recherche de l’efficacité énergétique, qui devrait à terme ralentir la hausse de la demande.
Les principaux facteurs de ralentissement de la demande sont identifiés, mais la manière dont ils interviendront reste une inconnue.
Les facteurs géopolitiques auront une influence importante sur les cours, mais ils restent imprévisibles; qui peut prédire l’occurrence d’un conflit au Moyen-Orient ou au Proche-Orient ?
La probabilité d’une nouvelle crise financière n’est évidemment pas à exclure, augmentant encore le facteur d’incertitude.
En clair, seul Nostradamus (ou sa petite fille Madame Soleil) pourrait nous dire quel sera le prix du pétrole en 2030.
Le prix du pétrole est établi à partir de l’équilibre entre l’offre et la demande. Si la demande reste durablement forte le prix peut atteindre des valeurs indécentes si l’offre ne suit pas. Heureusement la négociation ne se déroule pas comme au souk de Marrakech, il y a une régulation tacite au sein de l’OPEP, personne n’a intérêt à créer les conditions d’une crise internationale. Les pays producteurs ont la possibilité d’ajuster l’offre pour éviter une flambée qui ne servirait à personne.
Mais cette possibilité n’existera pas toujours. Le fameux Peak Oil finira bien par se produire un jour.
Un pétrole à 1 000 dollars le baril est une perspective assez improbable, mais il n’est pas impossible d’atteindre 300 $ au cours des deux prochaines décennies.
En tous cas, la probabilité d’une baisse significative est voisine de zéro, et c’est très bon pour l’éolien et le solaire…
 
Partager cet article
Repost0
30 mars 2012 5 30 /03 /mars /2012 10:17

 

29 Mars 2012

Les énergies solaire et éolienne souffrent de leur caractère intermittent, et la technologie ne permet pas encore de stocker de grandes quantités d’énergie électrique.

Ce constat interdit d’envisager le remplacement pur et simple des énergies fossiles par les énergies nouvelles pour l’alimentation des réseaux publics. Dans l’état actuel de la technologie, on considère généralement que leur participation ne doit pas dépasser 30% sous peine de graves désordres dans la distribution.

Outre les travaux d’adaptation décrits dans l’article précédent ( réseau intelligent), il faut investir dans la recherche de procédés de stockage de l’électricité en grande quantité.

On utilise déjà le système de pompage-turbinage hydroélectrique, mais ce procédé ne suffit pas à lui seul à répondre aux besoins.

Dans l’hypothèse d’un développement de la voiture électrique, les batteries peuvent constituer une solution de stockage exploitable pour soutenir le réseau public.

Dix millions de véhicules équipés de batteries de 30 KWh représentent un potentiel d’énergie stockée de 300 Gwh, si les batteries sont chargées bien entendu.

Un prélèvement de 10% sur cette énergie permettrait de récupérer 30 GW pendant une heure (ou 10 GW pendant trois heures), ce qui représente un appoint important pour soutenir le réseau aux heures de forte demande, sans apporter une gêne importante à l’usager qui aurait préalablement donné son accord évidemment.

Un réseau de distribution intelligent est capable de gérer cette application, qui interviendrait en complément d’autres dispositifs de stockage.

Bien évidemment ce n’est pas demain matin qu’un tel dispositif pourra être opérationnel, plusieurs décennies seront nécessaires pour mettre en place à la fois la production d’électricité renouvelable, les artères pour acheminer cette énergie, le réseau intelligent pour gérer le tout, et les structures de stockage de l’électricité pour amortir les effet de l’intermittence.

C’est une révolution dont il s’agit, et comme dans toute période révolutionnaire, nous devons nous attendre à quelques convulsions avant d’atteindre un nouvel état stationnaire …et décarboné.

 

 

Partager cet article
Repost0