Overblog Suivre ce blog
Administration Créer mon blog
8 juin 2012 5 08 /06 /juin /2012 16:14

 

8 Juin 2012

Dans l’article précédent nous avons vu que la notion de « peak-oil » est toute relative.

Les experts de l’AIE ( Agence Internationale de l’Energie) présentent un cycle de production pétrolière mondiale en trois phases ( voir graphique dans l’article du 7 Juin):

Une première phase concerne la production des gisements en cours d’exploitation. Cette production aurait déjà atteint son maximum en 2010, à 70 Millions de barils par jour et chuterait jusqu’à 20 Mbarils/j en 2035.

Sur cette seule ressource nous serions donc déjà entrés en pénurie.

A cette production déclinante, L’AIE ajoute la future production correspondant à la montée en puissance des nouveaux gisements déjà découverts et encore en début d’exploitation, c’est la deuxième phase. Le peak-oil se trouve alors reporté à 2015-2020.

Une troisième phase vient éloigner encore l’échéance, constituée de la production de gisements encore à découvrir. Le peak-oil est reporté au-delà de 2035. Cette troisième phase est évidemment problématique.

Ces trois phases contribueraient pour 70 % à la production mondiale en 2035.

Le reste de la production étant constitué du pétrole non conventionnel et du pétrole obtenu par les procédés GTL, CTL, ou BTL ( Gas To Liquid, Coal To Liquid, Biomass To Liquid).

Selon le crédit que l’on accorde à cette belle construction de l’AIE, on pourra à loisir affirmer que le peak-oil s’est déjà produit, ou qu’il se produira entre 2015 et 2020, ou bien qu’il est reporté aux calendes grecques.

( Les calendes grecques se situant au choix en 2035 ou à la Saint Glin-glin).

Point n’est besoin de consulter madame Irma pour comprendre que la probabilité d’une baisse de la production mondiale avant 2035 est assez élevée, suffisamment pour inciter les Etats à commencer sérieusement à rechercher des solutions de rechange.

Les procédés de liquéfaction de différentes substances énergétiques sont de bons candidats pour plusieurs raisons:

- Le secteur des transports routier, aérien, et maritime, restera encore longtemps dépendant des carburants liquides. L’électrification n’interviendra que très lentement et partiellement, et le transfert de la route au rail n’est pas pour demain matin. Quant à réduire le besoin en transport, c’est une option assez improbable avant longtemps.

- Face à la probable incertitude croissante des approvisionnements en pétrole, les Etats non producteurs devront fabriquer du carburant de synthèse sous peine de compromettre leur indépendance stratégique.

- Le maintien d’un prix élevé du pétrole et la forte probabilité d’augmentation de ce prix permettent de rentabiliser les procédés de liquéfaction qui sont par nature plus onéreux que le simple raffinage.

Ce qui n’était pas rentable économiquement avec un pétrole à vingt dollars devient très intéressant à 100 ou 200 dollars !

- La transformation du gaz en produits pétroliers liquides permet leur acheminement facile à partir de sites éloignés, notamment off shore (Small scale technology).

- Les procédés de liquéfaction, basés sur la réaction de Fischer-Tropsch, sont bien connus, et peuvent être mis en œuvre industriellement avec les technologies du moment.

Les rendements ne sont pas extraordinaires, l’IFP cite les valeurs suivantes:

56% pour le GTL.

43% pour le CTL.

33% pour le BTL.

Ce rendement est exprimé en rapport de l’énergie du produit final à l’énergie du produit entrant.

Ces résultats peuvent être améliorés, mais lorsque l’aspect stratégique prime, le rendement devient secondaire.

Il en va différemment lorsque c’est l’impact sur l’environnement qui prime.

L’Afrique du Sud, qui possède beaucoup de charbon, a construit plusieurs usines de liquéfaction qui ont permis de couvrir le tiers de ses besoins. La Société SASOL est aujourd’hui le spécialiste mondial.

En 2011 la Shell a inauguré au Qatar une usine le production de produits pétroliers à partir du gaz naturel ( Pearl GTL) d’une capacité de 140 000 barils/jour.

Les Etats-Unis ont mis sur pied un programme de développement de ce type de carburant à partir du gaz naturel ( NGCP, Natural Gas Conversion Process).

Il ne fait pas de doute que le mouvement est lancé, avec malheureusement des dégâts collatéraux causés par des émissions de CO2 abondantes.

Il est évident aussi que les investissements importants consentis pour ces nouveaux procédés de transformation ne seront pas disponibles pour le développement des énergie renouvelables.

Les Etats qui ne disposent pas de ressources fossiles sur leur territoire devront profiter du répit qui leur est offert par les marchés pour investir massivement dans les énergies nouvelles sous peine de se trouver vassalisés lorsque les énergies fossiles seront en fin de vie.

La question est: quelle sera la durée du répit ?

Repost 0
7 juin 2012 4 07 /06 /juin /2012 14:58
 
7 Juin 2012
Dans l’article précédent ( 6 Juin) nous avons tenté de deviner ce que pourrait être notre futur énergétique dans la perspective de l’épuisement des ressources pétrolières.
Il est vite apparu que la clé du scénario est l’échéance du peak oil, à partir duquel devront impérativement se mettre en place les solutions de substitution.
Il n’existe pas de consensus sur la date, même approximative, du peak-oil. En effet, cette date est obtenue par compilation des données sur les réserves estimées, les éventuelles nouvelles découvertes, la consommation, et bien d’autres éléments dont le poids qui leur est arbitrairement affecté modifie significativement la prévision.
Il n’est donc pas pertinent d’affirmer que telle date est plus valide que telle autre; à tout le moins, il faut donner ses sources.
Faute de consensus planétaire sur le peak-oil, il nous a paru raisonnable de retenir les données de l’Institut Français du Pétrole ( IFP Energies Nouvelles) dont la compétence ne nous paraît pas suspecte.
Le graphique ci-dessous montre l’évolution de la production de pétrole.
Graphique-evolution-production-petrole.png 
Selon IFPEN le peak-oil apparaît autour de 2030 pour le pétrole conventionnel, la relève étant assurée par le pétrole non conventionnel.
( Graphique extrait du document PDF « Contexte pétrolier et tendances » mis en ligne par IFPEN).
Bien noter que les données incluent les LGN, Liquides de Gaz Naturel.
Il est bien précisé qu’il s’agit d’une simulation, laquelle peut toujours être contestée.
( Les remarques peuvent être adressées directement à l’auteur:
 
Ces prévisions ne font apparaître aucun risque de pénurie d’ici la fin du siècle.
Le graphique ci-après émane de l’AIE, et donne des informations plus détaillées:Evolution-prod-petrole-et-autres_AIE.jpg
L’on y voit qu’effectivement la pénurie s’éloigne, mais à condition de basculer vers des produits non conventionnels à partir de 2010.
Or ces produits non conventionnels comprennent les huiles de schistes, les huiles de forages off shore profonds, et les produits extraits de l’exploitation du sous-sol de l’Arctique, qui tous sont potentiellement très polluants pour l’environnement.
Pour la protection de la planète il serait donc raisonnable de renoncer à aller chercher les ressources non conventionnelles et choisir plutôt de développer les énergies durables.
Mais est-il raisonnable de faire appel à la raison des hommes ?
 
Repost 0
5 juin 2012 2 05 /06 /juin /2012 18:15

 

05 Juin 2012

Certains écologistes espèrent que notre planète sera rapidement sauvée par l’épuisement des ressources pétrolières. Le « peak oil » sera le signe précurseur de la fin des temps de l’énergie polluante et ouvrira les horizons radieux vers lesquels nous conduiront les énergies renouvelables non polluantes enfin reconnues à leur juste valeur.

Quand donc se produira ce fameux peak oil ? C’est simple, il suffit de connaître le montant des réserves de la précieuse huile, et de le confronter à la consommation mondiale, disponible dans toutes les bonnes statistiques.

Mais, si l’on connaît à peu près l’évolution de la consommation passée, il est plus difficile de prévoir la demande future ( Mme Irma n’est pas compétente dans ce domaine). Aujourd’hui la demande est croissante, mais n’importe quel évènement géopolitique peu modifier cette tendance.

Quant aux réserves, il suffit de consulter les augures officiels de différentes obédiences pour constater que les avis divergent fortement.

A la décharge de ces experts, il faut reconnaître que la notion même de réserve est assez vague, dépendant fortement des progrès des techniques d’extraction, de la réévaluation des gisements connus, de l’optimisme des évaluateurs, de la découverte de nouveaux gisements, du cours du baril qui justifie ou non les investissements dans de nouvelles technologies, et aussi de la crédibilité des chiffres annoncés. De plus les réserves nouvelles correspondant aux sables bitumineux, aux forages offshore profonds et aux huiles de schistes, ne sont pas exactement connues.

Selon donc l’un ou l’autre de ces experts, l’occurrence du peak oil se situerait entre 2010 et 2030.

Les premiers signes de la pénurie pourraient donc se manifester dans une ou deux décennies, frappant les trois coups annonciateurs de la catastrophe pour les uns, ou du triomphe pour les autres sur l’air de « on vous l’avait bien dit… ».

Mais les tenants de la privation rédemptrice risquent d’être déçus.

En effet, il existe des réserves considérables de charbon et de gaz naturel, auxquelles sont venues s’ajouter les réserves de gaz de schiste qui, même si elles sont violemment décriées, seront et sont déjà en exploitation.

Ces combustibles sont facilement substituables au pétrole pour de nombreuses applications telles que la production d’électricité, le chauffage, et l’industrie.

Quand aux applications qui nécessitent un combustible liquide, essentiellement les transports non électrifiés, ils pourront utiliser des carburants de synthèse obtenus à partir du charbon, du gaz naturel, ou le la biomasse. D’importantes usines de production de tels carburants sont déjà opérationnelles.

(L’efficacité énergétique des procédés employés est une autre problème).

La pénurie qui nous menace n’est donc plus celle du pétrole, mais plutôt celle du charbon et/ou du gaz.

Côté gaz l’optimisme est à la mode. On parle de 250 ans de réserves au rythme actuel de consommation ( 50% gaz conventionnel, et 50% non conventionnel ).

Dans l’hypothèse où ce gaz devrait remplacer le pétrole défaillant, le délai de grâce serait évidemment fortement raccourci, probablement ramené à sept ou huit décennies « seulement ».

Ce qui nous mène tout de même à la fin de ce siècle; la panne sèche ne serait donc pas pour demain matin.

Ce délai de grâce ne nous dispense pas d’avoir à préparer la révolution énergétique qui ne manquera pas de s’imposer à nous avant la fin du siècle.

Pour les pays dépourvus de ressources énergétiques intérieures comme la France, cette révolution est encore plus impérieuse car l’énergie qui sera éventuellement encore disponible sur les marchés deviendra de plus en plus chère et la facture énergétique insupportable.

Les hommes politiques auront la tâche de résister aux sirènes des marchés qui proposent encore de l’énergie à un coût abordable, et de décider d’investir dans une stratégie d’avenir plutôt que suivre la politique du chien crevé au fil de l’eau…

Repost 0
1 juin 2012 5 01 /06 /juin /2012 19:24
 
1er Juin 2012
Triste anniversaire:
Le 19 Mai 2011 la Commission Européenne a renvoyé la France devant la Cour de justice de l’UE pour
« Non respect des valeurs limites …applicables aux particules en suspension connues sous le nom de PM10 ».
Ce retard de la France dans la prise en compte du risque de santé publique créé par la pollution atmosphérique en milieu urbain est à mettre sur le compte d’une certaine exception culturelle, celle-là même à qui nous devons notre retard en matière d’énergies nouvelles.
Dans les deux cas la compétence de nos chercheurs et ingénieurs n’est pas en cause; ce qui nous fait défaut c’est la courroie de transmission entre les laboratoires et le terrain, la chaîne décisionnaire qui permet de passer d’un prototype à l’application.
Cette chaîne est Politique.
Et la Politique n’est pas le meilleur matériau pour fabriquer une chaîne efficace.
Pourtant, en matière de connaissance de la nature, des sources, et de la mesure de la pollution atmosphérique ainsi que de l’étude de ses effets, nous avons les meilleurs experts.
Citons simplement l’ouvrage exhaustif publié sous l’égide de l’INRS sous la direction de Benoît Hervé-Bazin:
« Les nanoparticules, un enjeu majeur pour la santé au travail »
EDP Sciences, 2007, ISBN 978-2-86883-995-4
Et, pour la mesure de la pollution atmosphérique, nous conseillons au lecteur la synthèse publiée par AIRPARIF.
La plupart de nos données chiffrées sont extraites de ces deux documents.
Il existe des normes européennes fixant des limites à la concentration de particules polluantes dans l’atmosphère.
Aujourd’hui, pour faire simple, la limite en vigueur est de 50 micro gramme par mètre cube pour les PM10.
(Les PM10 sont les particules dont le diamètre équivalent est inférieur à 10 microns).
Cette limite ne doit pas être dépassée pendant plus de 24 Heures, et plus de 35 jours par an, la moyenne annuelle devant rester inférieure à 40 micro gramme par mètre cube.
La France n’a pas respecté ces limites, et se trouve exposée à des sanctions financières.
En pratique, ce sont les particules fines et ultrafines qui sont les plus nocives pour la santé. Ces particules, inférieures à 2,5 microns, pénètrent à l’intérieur des voies respiratoires, s’y déposent, et causent les ravages que l’on imagine.
La lutte contre ces particules est difficile car on imagine aisément que leur taille leur permet de s’insinuer partout.
Par exemple les filtres à particules dont sont équipés les moteurs modernes laissent passer les particules inférieures à 2,5 microns ( PM2,5).
Les PM10 font l’objet de mesures de concentration massique, et les limites sont données en masse par mètre cube.
Cette méthode n’est pas valable pour les PM2,5 car ce n’est pas leur masse qui est importante, mais leur nombre.
La mesure dans ce cas est difficile à mettre en œuvre, longue, et son automatisation pose problème.
La Commission Européenne a pourtant introduit des limites pour la pollution par les PM2,5, qui seront en principe applicables à partir de 2015 .
Les valeurs courantes mesurées pour la pollution atmosphérique par les PM2,5 en concentration massique ne semblent pas alarmantes. On trouve des moyennes de 20 microgrammes par mètre cube.
Mais il est important d’insister sur l’importance du nombre des particules correspondant à ce chiffre.
20 microgrammes de particules dont le diamètre équivalent massique moyen est de 100 nanomètres correspondent à une concentration de 20000 particules par cm3 ( entre 10 000 et 50 000 ).
En 24 heures un individu en milieu urbain inhale donc un volume d’air contenant environ 1000 Milliards de particules polluantes!
Un certain nombre de ces particules se déposent dans les voies respiratoires selon leur grosseur. Voies supérieures, trachée, bronches, et jusqu’aux alvéoles pour les plus petites ( nanoparticules).
La plupart sont évacuées par les mécanismes de défense ( macrophages, clairance pulmonaire) , mais ces mécanismes peuvent être débordés. Dans ce cas apparaissent des problèmes respiratoires chroniques et parfois des cancers.
Il a été établi de manière indiscutable un rapport entre la concentration des particules dans l’atmosphère et la fréquence des maladies respiratoires et des cancers.
D’autre part, il n’a pas été mis en évidence de seuil en-dessous duquel les particules seraient inoffensives.
Nous sommes donc en présence d’un problème majeur de santé publique susceptible de causer des dégâts comparables à ceux de l’amiante.
Les sources anthropiques d’émission de particules sont diverses, comme en témoignent des graphiques ci-dessous:
 
Origine-des-particules.png 
Tous les secteurs d’activité contribuent à la pollution. Les transports sont souvent montrés du doigt mais ils n’apportent pas la plus forte contribution.
Les mesures de dépollution des moteurs de nos automobiles seront insuffisantes si des mesures comparables ne sont pas appliquées aux autres sources, particulièrement le résidentiel/tertiaire pour le chauffage, et l’industrie.
A suivre…
Repost 0
30 mai 2012 3 30 /05 /mai /2012 16:08
 
30 Mai 2012
Le cours du pétrole régit désormais celui de notre destin.
L’importance géopolitique du liquide puant n’est plus mise en doute, c’est bien le dieu baril auprès de qui l’oracle est recueilli.
De lui dépend l’avenir énergétique de la planète, autant dire l’avenir de notre société moderne, qui se mesure au nombre de MégaTep dont nous pourrons encore disposer.
Tous les projets de mise en œuvre d’énergies alternatives sont suspendus à l’oracle du baril.
Or celui-ci est capricieux, difficilement interprétable, certains indices laissent même craindre la mort du dieu. Les pythies sont troublées, certaines annoncent sa disparition imminente, d’autres lui prédisent longue vie.
Il faut bien reconnaître que ce dieu aux multiples visages est insaisissable. Comme tout dieu qui se respecte il est présent partout: dans les sables du désert, au fond des océans, même au sein de la roche.
Nos anciens tentaient de lire leur destin dans le foie d’animaux sacrifiés. Nous utilisons des méthodes plus modernes mais tout aussi approximatives. Le foie de bœuf est remplacé par le modèle informatique d’analyse prévisionnelle dont les résultats dépendent des données que l’on y introduit, lesquelles sont à la fantaisie de quelques grands prêtres de Wall street.
L’exercice de la prédiction est difficile. Comme dit l’autre, l’avenir nous appartient mais nous n’en sommes pas maîtres.
Les seules données solides dont nous disposons concernent le passé.
Les deux graphiques ci-dessous représentent l’essentiel de nos connaissances sur la vie du baril.
 Prix-petrole-sur-1-mois.gif
 Prix-petrole-sur-5-ans.gif
 
 
 
 Le graphique de gauche représente l’évolution du prix du baril depuis 2007 . La tendance est résolument à la hausse continue.
Le graphique de droite donne également l’évolution du prix, mais sur un mois seulement. La tendance est résolument à la baisse.
 
A partir de ces résultats, le grand prêtre pétrolier doit énoncer son verdict quant à l’évolution future du prix de la précieuse denrée.
On comprend que son avis ne vaudra pas plus que celui du grand prêtre pratiquant l’hépatoscopie, c’est-à-dire guère plus que les prédictions de Madame Irma.
L’impossibilité de connaître l’avenir induit chez l’Homme une tendance naturelle à le deviner à partir de la connaissance du passé.
Hélas cela ne marche pas plus pour le prix du pétrole qu’à la roulette pour prédire le prochain coup.
Aucune martingale ne nous préviendra du prochain conflit au Moyen-Orient, ni de l’évolution de la politique nucléaire, ni du prochain Fukushima, ni des fantaisies énergétiques de la Chine, ni de l’arrêt ou non de l’exploitation des huiles de schiste, ni de la politique russe d’exportation du gaz, ni bien sûr de la prochaine crise financière.
L’exercice de la prévision est bien ingrat, même avec des lunettes à double foyer.
Malgré cette cruelle incertitude, les Etats responsables doivent adopter une ligne de conduite susceptible de les garantir contre une panne énergétique à moyen ou long terme.
On observe différentes attitudes selon les cultures, la disponibilité de ressources énergétiques intérieures, et les moyens financiers disponibles.
La situation la plus critique est évidemment celle des pays qui ne disposent d’aucune ressource énergétique fossile sur leur territoire. L’absence de pétrole, de gaz, et de charbon, induit une grande vulnérabilité aux approvisionnements extérieurs. C’est le cas de la France, qui doit importer les trois quarts de ses besoins énergétiques, le quart restant étant d’origine nucléaire, dépendant lui aussi d’approvisionnements extérieurs et de plus fortement contesté par une partie de la population.
Ces pays sont appelés à supporter directement les fluctuations des marchés mondiaux de l’énergie, et bien sûr seront démunis face à un éventuel épuisement des sources extérieures.
On peut alors logiquement penser qu’ils rechercheront la sécurité en développant les énergies renouvelables qui, seules, peuvent leur procurer l’indépendance énergétique et donc la sécurité.
Mais cette logique se heurte à d’autres logiques tout aussi formelles, mais construites sur des propositions différentes.
En France notamment le courant de pensée dominant estime que les énergies renouvelables seront incapables de satisfaire complètement la demande, et que la seule alternative aux énergies fossiles est le nucléaire, ce qui implique une stratégie orientée vers le développement de générateurs électronucléaires de quatrième génération, les programmes d’énergie renouvelable étant alors laissés à l’initiative des marchés.
On voit ici les limites du raisonnement logique, qui ne vaut que ce que valent les propositions, qui sont-elles-mêmes fixées sur des bases pas nécessairement logiques, mais plutôt issues d’un courant de pensée, une manière de voir le monde ( encore une question de lunettes).
Mais ce qu’un courant de pensée impose, une autre courant de pensée peut le défaire.
C’est-ce qu’on appelle la Politique…
 
 
 
 
Repost 0
27 mai 2012 7 27 /05 /mai /2012 19:23

 

28 Mai 2012

Le grand battage autour de la voiture électrique me rappelle l’ancienne sagesse populaire qui nous enseigne qu’on peut mener un âne à l’abreuvoir, mais qu’on ne peut pas l’obliger à boire.

Avec la publicité dans le rôle de l’abreuvoir, et l’usager moyen dans le rôle de l’âne ( Pardon cher lecteur), nous somme à peu près dans la même situation.

Chaque mois, de merveilleux engins sont exhibés par des constructeurs qui rivalisent d’imagination pour qu’enfin l’automobiliste moyen consente à se faire électrifier. Les EV, les HEV, et les PHEV étalent leurs arguments en jouant sur les cordes de l’écologie, du standing, de l’économie, du silence, de l’avant-gardisme, du bonus, et même de la menace de taxe carbone, sans réussir à convaincre quiconque, à part une poignée de consommateurs inconditionnels de nouveautés.

C’est que l’automobiliste moyen est devenu un homme averti qui s’efforce de ne pas prendre des vessies pour des lanternes. L’homme du terroir, et le citadin, qui est bien souvent un ancien paysan, ont gardé l’habitude de regarder dans la bouche du cheval avant de l’acheter.

Et dans la bouche du cheval électrique, on y voit de drôles de choses qui incitent à la réflexion:

- C’est nouveau, donc il y a forcément des plâtres à essuyer.

- L’ancien système fonctionne, je ne vois pas pourquoi j’en changerais.

- C’est compliqué et bourré d’électronique, et les batteries ne sont pas au point.

- C’est beaucoup trop cher, même avec le bonus.

- Il faut recharger une batterie, et cela prend des heures.

- L’autonomie est ridicule.

- Je ne pourrait pas recharger ma batterie sur la route.

- A la revente j’y perdrais beaucoup.

- Etc…

Les promoteurs de la chose électrique se prennent à rêver d’une bonne fée qui, d’un coup de baguette magique, créerait l’environnement propice:

- Pétrole à 500 Dollars le baril.

- Prix du KWh stabilisé à onze centimes.

- Nouvelle règlementation interdisant les centres villes aux véhicules émettant plus de 50 g de CO2 au km ( Coucou la pastille verte).

- Instauration d’une taxe carbone dissuasive.

- Génération spontanée d’une structure de recharge des batteries.

- Et pourquoi pas, rationnement du carburant.

Mais hélas la réalité est obstinée, le pétrole persiste à rester collé à la barre des cent Dollars, la taxe carbone se fait attendre, les centres villes restent ouverts aux pires engins pollueurs, et on parle même d’une augmentation du tarif de l’électricité, soutien aux énergies renouvelables oblige. Quant aux structures de recharge des batteries, il n’en est question que dans les projets d’études subventionnés.

Face à cette situation les constructeurs ont fini par comprendre que le marché de masse de la voiture électrique n’est pas pour demain matin.

Comme il faut quand même se faire la main pour être prêts au cas où, ils ont décidé d’exploiter les niches existantes, et au besoin en créer de nouvelles.

Car il existe des créneaux exploitables dans les véhicules de sociétés, les taxis, les véhicules de location ou en libre service, les flottes de véhicules de collectivités locales, les véhicules de livraison en circuit court, les flottes de l’Administration, et bien sûr EDF et la Poste, toujours en première ligne dans ce genre d’opérations. A cela pourront s’ajouter quelques particuliers assez motivés pour acquérir un véhicule qu’ils pourraient obtenir pour la moitié du prix en technologie conventionnelle.

Mais quand on aime on ne compte pas….

Pour illustrer le propos, j’aimerais présenter le nouveau bébé d’Opel, qui tente de corriger certaines lacunes des autres véhicules déjà présents sur le marché. C’est bien sûr un véhicule hybride rechargeable, plus personne ne croit au véhicule routier uniquement électrique.

Pour garantir les performances et l’autonomie, l’engin est doté de trois moteurs ! C’est la ceinture et les bretelles.

- Un moteur électrique puissant A de 111 KW ( 150 CV) pour assurer la traction en régime électrique de croisière.

- Un batterie de 16 Kwh ( 198 Kg ) pour fournir une autonomie de 60 à 80 Kms. Donc beaucoup plus que les autres hybrides du commerce.

- Un second moteur électrique B, de 54 KW ( 72 CV) qui a deux fonctions:

D’une part, assister le gros moteur électrique A en cas de demande élevée de puissance sur la route.

D’autre part, fonctionner en générateur pour recharger la batterie.

- Un moteur thermique à essence, de 1400 cc, et 63 KW ( 86 CV) dont le rôle est de recharger la batterie en entraînant le moteur-générateur B.

Tout cela est couplé par un système mécanique assez complexe, géré par un calculateur non moins complexe.

La vitesse de la chose est limitée à 160 Km/h pour ménager la consommation d’électricité.

Le poids à vide de la bête est de 1 700 Kg avec la batterie.

Ce véhicule est conçu manifestement pour couper court aux critiques habituelles sur l’autonomie et les performances.

Le prix est de 40 000 euros bonus déduit.

La niche visée n’est évidemment pas la voiture de Monsieur tout le monde, qui sera plutôt intéressé par une voiture « ordinaire » à essence, qui lui offre les mêmes performances et le même équipement pour deux fois moins cher.

Ce véhicule a au moins l’intérêt de montrer ce que pourrait être le véhicule électrique du futur, lorsque la courbe d’apprentissage aura amené son prix à une valeur compatible avec les moyens financiers de la masse des acheteurs.

Ce qui ne saurait advenir avant une petite décennie.

On pourra s’étonner de ne pas trouver ici l’éloge de la CITROEN DS5

Hybrid 4, qui se place sur le même créneau que l’OPEL.

Mais l’autonomie électrique ridicule de la CITROEN, environ 3 Km, ne permet pas de la considérer comme un véhicule électrique, même partiellement. La référence à l’hybride est dans ce cas un abus de langage à la limite de l’escroquerie vis-à-vis d’une clientèle pas toujours avertie.

Il serait souhaitable que la profession cesse d’exploiter la naïveté technologique des acheteurs pour leur vendre des objets non conformes à ce qu’ils sont en droit d’attendre. Ces comportements ne sont pas de nature à soutenir le développement futur du véhicule électrique.

Désormais en 2012 un véritable véhicule hybride doit appartenir au type VHAE (Véhicule Hybride à Autonomie Etendue) ou encore E-REV (Electric- Range Extanded Vehicle), ce qui est le cas de l’Opel citée.

 

Repost 0
23 mai 2012 3 23 /05 /mai /2012 15:09

 

22 Mai 2012

Cette affaire de fusion froide, rebaptisée LENR pour tenter d’effacer toute connotation sulfureuse évoquant l’alchimie, n’est pas autre chose que la bonne vieille transmutation à basse énergie, laquelle nous renvoie illico aux époques dites obscures que notre civilisation « éclairée » répudie au nom du progrès de la Science et du savoir absolu.

Jusqu’à la fin du XIXè siècle la Science officielle n’avait que de très vagues idées sur la structure atomique de la matière. Toute prétention à vouloir modifier la nature des corps pouvait alors encore passer pour élucubration d’un cerveau dérangé.

Il faut attendre 1911 pour que Rutherford découvre le noyau de l’atome, puis le proton en 1919, le neutron n’étant découvert qu’en 1932 par Chadwik. La théorie atomique pouvait naître et se développer.

C’est à cette époque que les progrès de la physique théorique ont permis d’ouvrir la voie à cette nouvelle branche qui est la physique/chimie nucléaire, et d’en découvrir les possibilités.

On connaît les premières applications « énergétiques » de la physique nucléaire, purement militaires pour notre malheur. Le premier réacteur équipait un sous-marin à propulsion nucléaire dès 1955.

Ces travaux ont, entre autres découvertes, mis en évidence les transmutations nucléaires, déjà pressenties auparavant mais non encore théorisées. La transformation d’un élément en un ou plusieurs autres fut donc reconnue comme un phénomène observé, théorisé et quantifié.

Les transmutations, couramment observées et provoquées dans les réacteurs et les accélérateurs de particules, ne sont donc plus des phénomènes maudits, mais le résultat classique de réactions de chimie et de physique nucléaire, banalisées et enseignées dans les écoles.

Jusqu’à présent, les réactions nucléaires impliquant des transmutations n’ont pu être observées qu’à haute énergie. Qu’il s’agisse de fission ou de fusion, la mise en œuvre nécessite des moyens colossaux et des températures ou des vitesses de particules extrêmement élevées, justifiés par une théorie considérée comme robuste.

Rappelons que la Science considère comme robuste une théorie capable d’expliquer tous les phénomènes connus dans le domaine revendiqué.

Lorsqu’un phénomène observé nouveau met cette théorie en défaut, il devient nécessaire de modifier la théorie ou d’en construire une nouvelle.

Selon les connaissances actuelles en Physique théorique, les transmutations nucléaires ne sont possibles qu’à haute énergie.

Cela ne démontre pas que de telles transmutations sont impossibles à basse énergie, cela montre simplement que la théorie actuelle ne les prédit pas.

Industriellement, pour produire de l’énergie, on utilise la fission qui résulte de la radioactivité naturelle d’une variété d’Uranium ( pour faire simple).

Les inconvénients du procédé font la une des journaux, nous n’y reviendront pas.

Il est un autre procédé, convoité depuis longtemps, qui consiste à reproduire sur Terre une réaction semblable à celles qui se déroulent dans le Soleil. Il s’agit de la fusion de l’Hydrogène.

Ce procédé ne comporte que des avantages:

- Les réserves d’Hydrogène sont illimitées.

- Il n’y a aucun déchet polluant.

Mais la mise en œuvre est extrêmement difficile.

En effet, dans les réacteurs actuels à fission contrôlée, c’est une réaction naturelle qui est exploitée. Il « suffit » de réunir une quantité suffisante de produit naturellement radioactif pour que la réaction se déclenche.

Pour la fusion de l’Hydrogène on ne peut exploiter aucun phénomène naturel spontané. Pour que la réaction se déclenche il faut porter les noyaux d’Hydrogène à très forte pression et très forte température (il s’agit alors d’un plasma à plusieurs millions de degrés), ce qu’on ne sait faire aujourd’hui qu’à petite échelle et sur des faibles durées .

Le projet ITER a pour objectif de démontrer la faisabilité industrielle d’une telle machine. Il subsiste encore de nombreuses inconnues.

Pour comprendre l’importance de la recherche sur la fusion de l’Hydrogène, regardons quelques chiffres:

La réaction de fusion de l’Hydrogène la plus courante consiste en la transformation de quatre noyaux d’Hydrogène ( quatre Protons) en un noyau d’Hélium, accompagnée d’un dégagement d’énergie égal à 25,7 Mev.

25,7 Mev ( Millions d’électron-Volt) est une très faible quantité d’énergie, équivalente à environ 114x10 E(-20) KWh.

Mais il y a beaucoup d’atomes d’Hydrogène dans une mole, exactement 2 x 6,02x10 E(23), avec deux atomes par molécules H2.

Une mole de H2 occupe un volume de 22,4 litres à température et pression ordinaires, soit la taille d’un gros ballon d’enfant.

L’énergie dégagée par la fusion de une mole d’hydrogène est égale à

0,25 x 12,04x10 E(23) x 114x10 E(-20) KWh = 344 000 Kwh, ou 344 MWh.

Ce qui est tout à fait considérable.

344 MWh à partir du gaz contenu dans un ballon d’enfant !

Au vu de ces chiffres extraordinaires on comprend que, s’il existe le moindre espoir de réaliser même partiellement une telle réaction par des moyens simples ( à basse énergie), il serait absurde de ne pas essayer.

C’est le raisonnement que tiennent certains scientifiques chercheurs plus ou moins indépendants, dont les travaux sont tout de même suivis de près par les instances officielles et les organisations et industriels impliqués dans le secteur de l’énergie.

L’inquisition n’étant plus là pour envoyer les hérétiques au bûcher, pourquoi s’opposer à des travaux qui ne coûtent pas cher et qui pourraient rapporter gros.

En cas d’échec la perte sera minime, en rapport avec l’investissement très modeste.

En cas de succès, même partiel, le bénéfice serait considérable.

C’est, en somme, le pari de pascal transposé à la Science.

La course à l’échalote est lancée; nous ne manquerons pas de vous tenir informés des résultats, ou de l’absence de résultat.

Les informations disponibles ne sont pas de première main, elles émanent de sources journalistiques qui relaient essentiellement des analyses à priori provenant de l’un des deux camps, les sceptiques ou les anti-sceptiques. Les informations provenant de sources directes ( labos travaillant sur le sujet) ne sont pas vérifiables.

Actuellement il n’est pas pertinent de prendre position pour ou contre, la Science n’étant pas une affaire d’opinion mais de travail.

Il faut donc prendre du recul et attendre que l’affaire se décante, pour savoir s’il s’agit d’un canular ou d’une escroquerie comme les avions renifleurs, ou bien si nous sommes en présence de la plus grande découverte depuis l’électricité.

 

 

 

Repost 0
21 mai 2012 1 21 /05 /mai /2012 11:09

 

21 Mai 2012

 

Mon petit, tu as déjà vu que lorsque ton vélo est un peu rouillé il faut mettre de l’huile dans les moyeux et sur la chaîne pour lui permettre de continuer à rouler.

 

Eh bien l’économie c’est comme ton vélo. C’est une grosse machine avec beaucoup de rouages, des ateliers, des usines, des commerces, des artisans, des banquiers, des ouvriers, des fonctionnaires, des gens qui achètent, des gens qui vendent, etc…

 

Pour que cette machine fonctionne bien il faut y mettre une sorte d’huile qui va lubrifier les rouages. Cette huile s’appelle l’argent, on l’appelle aussi monnaie.

 

C’est l’Etat qui fabrique l’argent, et cet argent est distribué là où il faut par les banques, qui sont les graisseurs de l’économie.

 

Lorsque la machine économique fonctionne bien, le lubrifiant argent est versé aux bons endroits à graisser, et de là il est récupéré et recyclé pour resservir.

 

C’est du moins ce qui doit se passer normalement.

 

Car en effet l’argent ne s’use pas , c’est un lubrifiant que l’on peut réutiliser en le réinjectant dans la machine économique.

 

Bien sûr il est purifié avant d’être réutilisé, c’est ce qu’on appelle

destruction suivie de création de monnaie.

 

Lorsque la machine économique grandit, l’Etat fabrique un peu plus d’argent pour graisser les nouveaux rouages.

 

En pratique les choses ne sont pas aussi simples. Le moteur économique est d’un type ancien qui fonctionne grâce au système de lubrification appelé «  graissage par huile perdue » , que les mécaniciens connaissent bien par exemple sur les mobylettes.

 

Ce qui veut dire que la machine économique ne recycle qu’une partie du lubrifiant argent, le reste étant perdu, parti dans les poches d’agents économiques qui en constituent des stocks colossaux.

 

Le fluide ainsi stocké fait défaut à la machine qui ne peut plus fonctionner normalement.

 

Pour corriger ce défaut, l’Etat a plusieurs possibilités:

 

Soit colmater les fuites, ce qui se fait en imposant une saine gestion, une grande transparence financière, une surtaxation des hauts revenus, la chasse aux niches fiscales, la chasse aux paradis fiscaux, etc…

 

Cette méthode exige beaucoup de vertu de la part des agents économiques, et un pouvoir politique fort et lui-même vertueux. Toutes conditions qui sont rarement réunies.

 

Une autre voie est celle dite de la «planche à billets » . Si la machine manque d’huile, il suffit d’en fabriquer. Mais, ajouter un excès d’huile dans un moteur pourri qui en consomme trop et en perd par des fuites, n’importe quel mécanicien sait que cela revient à prolonger une agonie.

 

Une troisième voie existe, celle de la facilité à court terme. Si l’on manque d’huile, il suffit d’en acheter à ceux qui en possèdent un stock.

 

L’Etat peut ainsi emprunter de l’argent pour entretenir et lubrifier son économie.

 

Il est alors amené à emprunter à ceux-là mêmes qui ont détourné l’argent qui aurait dû rester dans la machnine économique.

 

Non seulement cet Etat verse de l’huile dans un moteur économique pourri avec des fuites, mais en plus il doit acheter cette huile au prix fort à des prêteurs dont il devient l’esclave.

 

En somme il emprunte son propre argent, un peu comme si tu devais acheter un vélo à celui qui a volé le tiens !

 

Les prêteurs d’argent à l’Etat sont évidemment bien conscients de cette imposture, c’est pourquoi ils acceptent souvent d’annuler une partie de la dette de l’Etat avant que celui-ci ne l’annule complètement pour remettre les compteurs à zéro, tuant ainsi la poule aux œufs d’or.

 

Tu vois, mon fils, l’argent c’est bien compliqué.

 

 

Repost 0
15 mai 2012 2 15 /05 /mai /2012 14:41

 

15 Mai 2012

On attribue à Einstein ( On ne prête qu’aux riches) le constat suivant:

«La théorie, c’est quand on sait tout et que rien ne fonctionne; la pratique, c’est quant tout fonctionne et que personne ne sait pourquoi. »

Ce constat s’applique merveilleusement à la fusion froide.

Chaque génération de physiciens théoriciens est convaincue de détenir le savoir ultime, jusqu’à la génération suivante qui apporte des vues nouvelles repoussant les bornes du savoir ancien.

Nous avons tous présents à l’esprit les bonds que les Galilée, Newton, Maxwell, Einstein, et d’autres, ont fait accomplir à la physique théorique à partir de bases pourtant considérées à l’époque comme ultimes.

Mais les progrès sont lents, d’autant plus lents que les changements de paradigme proposés sont importants.

Les physiciens préfèrent avancer dans leurs travaux en utilisant les outils existants, c’est-à-dire les théories connues et réputées robustes ( Une théorie robuste est celle qui permet d’expliquer les phénomènes qu’elle est censée couvrir sans être démentie tous les six mois).

Lorsqu’une observation ne cadre pas avec l’une ou l’autre des théories connues, les physiciens adoptent une démarche en trois temps:

Dans un premier temps l’observation doit être validée. Les expériences sont répétées, effectuées par des équipes de chercheurs différentes, dans des conditions différentes, le but étant de prouver la reproductibilité et d’éliminer les biais, et notamment de s’affranchir de l’équation personnelle.

Dans un deuxième temps, si l’observation a été validée et considérée comme révelatrice d’un phénomène nouveau, les physiciens recherchent une explication à partir des théories officielles ou de nouveaux développement théoriques en accord avec les paradigmes actuels.

Dans un troisième temps, si les théories officielles sont impuissantes à expliquer le phénomène nouveau, et seulement si, alors on considère la nécessité d’élaborer d’autres théories, quitte à sortir des sentiers battus du paradigme officiel.

Cette suite de démarches, appelée « méthode scientifique », ne permet pas une progression rapide mais garantit la solidité du terrain sur lequel le physicien construit son savoir.

En clair il s’agit de ne pas prendre des vessies pour des lanternes.

Le phénomène allégué de la fusion froide a longtemps stagné au niveau de la première étape, c’est-à-dire de la validation.

Présenté initialement sous l’appellation de « Transmutations à basse énergie », il s’est trouvé immédiatement rangé au magasin de la patascience à cause de la forte connotation alchimique.

( Voir notamment l’ouvrage « Transmutations biologiques et physique moderne » de Louis Kervran, Ed. Maloine, 1982, ISBN 2-224-00831-7).

Le phénomène, rebaptisé « fusion froide » plus récemment, a trouvé un certain écho auprès de quelques groupes de chercheurs un peu kamikazes désireux de secouer la chappe de plomb de la hiérarchie scientifique.

( La Science officielle ne cautionne aujourd’hui que les travaux dans la lignée du Tokamak, c’est-à-dire le projet ITER, qui consiste ni plus ni moins qu’à reproduire un Soleil artificiel ).

Et puis, si par hasard çà marche, les perspectives énergétiques de la fusion froide pourraient révolutionner nos sociétés, comme l’électricité le fit en son temps.

Quelques résultats positifs ont été annoncés, avec suffisamment de crédibilité pour amener les grands de la recherche internationale et industrielle à s’intéresser à la question. Les perspectives de juteux brevets sont si formidables qu’aucune piste ne doit être écartée. Qu’est-ce quelques millions de dollars consacrés à la recherche, en face des milliards de royalties potentielles ?

Comme indiqué dans un article précédent, on ne parle plus maintenant de fusion froide, décidémment encore trop connotée, mais de LENR ( Low Energy Nuclear Reaction) ou de CANR ( Chimically Assisted Nuclear Reaction). Ces nouvelles appellations, anglo saxonnes de surcroît, devraient suffire à donner à la chose la respectabilité qui lui faisait défaut.

( Dame Pernelle serait bien aise de voir son cher Nicolas ainsi réhabilité).

Dûment dotée d’une identité honorable, et cautionnée par de solides parrainages, la fusion froide est donc entrée ( aux forceps il est vrai) dans le saint lieu de la Science officielle.

De nombreux groupes d’études ont en cours des expérimentations visant à établir sur des bases solides l’existence du phénomène, et à rechercher des pistes théoriques pour donner du corps à ce qui pourrait bien être la découverte du siècle.

On peut trouver un état des lieux sur le site

 

http://lenr-canr.org/

Affaire à suivre…

 

 

 

 

Repost 0
13 mai 2012 7 13 /05 /mai /2012 16:18

 

13 Mai 2012

Les certitudes de la Science des lumières ont définitivement rangé l’alchimie au placard des pseudo sciences, en compagnie des phénomènes paranormaux, récemment rejoints par les OVNIS, le Yeti et les extraterrestres.

Quelques phénomènes inexpliqués trouvent encore cependant une certaine créance, dans le cadre des croyances religieuses il est vrai, les uns soutenant les autres comme l’aveugle soutient le paralytique. On parle alors de miracles, sans toutefois prétendre à une quelconque onction scientifique reconnaissons-le.

Il est de ces des mystères impénétrables…

La Science avec un grand S s’est instituée le garant d’un paradigme à l’intérieur duquel n’ont droit à l’existence que les phénomènes dûment théorisés et démontrés.

Pour faire de la recherche il faut beaucoup d’argent, lequel n’est disponible que pour les travaux dont le but est conforme au paradigme.

Mais, faites-vous remarquer, si l’on n’obtient des crédits que pour ce que l’on connait déjà, comment ferons-nous des découvertes nouvelles ?

Comment ferons-nous pour aller voir ce qu’il y a au-delà du paradigme ?

Eh bien vous n’irez pas, car aller voir au-delà du paradigme, ce n’est pas politiquement correct, et si vous insistez vous serez déconsidérés et votre carrière en souffrira.

Il y a, ainsi , des sujets de recherches tabous pour lesquels il est impossible de trouver des soutiens et des crédits.

La fusion froide est l’un de ces sujets.

Qu’est-ce que la fusion froide ?

La matière est constituée d’atomes. Les particules des noyaux atomiques (Protons, Neutrons,…) tiennent ensemble grace à des forces de liaison et les édifices atomiques contiennent de ce fait une énergie potentielle importante, qu’il est évidemment interessant de chercher à récupérer pour nos besoins.

Jusqu’à présent, on exploite cette énergie potentielle grace au phénomène de fission spontanée des noyaux de certains éléments, c’est la radioactivité. Ces noyaux sont assez coopératifs pour se casser spontanément, libérant une partie le leur énergie potentielle. On en met beaucoup et ainsi on récupère beaucoup d’énergie.

Mais on récupère aussi beaucoup d’ennuis: les réactions génèrent de nombreux déchets eux-même radioactifs, si la réaction s’emballe on risque un Fukushima, et de plus les réserves de produits radioactifs sont limitées.

Un autre procédé est possible, c’est celui qui se déroule dans notre Soleil, c’est la fusion, qui est l’inverse de la fission. L’ennui c’est qu’il nécessite des températures extrêmes et des conditions que l’on ne sait pas encore réunir. Le projet ITER a pour but de tenter de réaliser la fusion à une échelle énergétique industrielle.

ITER est une machine colossale qui devra supporter des conditions extrêmes. Un éventuel aboutissement n’est pas attendu avant la fin du siècle.

La Science officielle n’explore aucune autre piste car le paradigme en vigueur postule qu’il n’y a pas d’autre piste, la théorie s’y oppose.

L’idée que la théorie en question n’est peut-être pas parfaite et pourrait contenir des lacunes laissant place à des voies nouvelles, est déjà une idée hérétique. Sa simple formulation par un chercheur équivaut à une auto-excommunication.

Privé de crédit ( discrédité), privé de soutien, interdit de publication, le chercheur téméraire en est réduit soit à faire amende honorable, soit à travailler en secret avec des moyens limités.

Des chercheurs indépendants ont osé braver le tabou et se sont demandé si par hasard il n’y aurait pas une méthode plus simple pour récupérer l’énergie contenue dans les noyaux.

Au cours des dernières décennies, plusieurs groupes de scientifiques ont réussi à publier les résultats de leurs travaux sur ce qu’il faut bien appeler la fusion froide. Les premières publications n’ont pas été convaincantes et ont été facilement contrées, ce qui a jeté le discrédit sur le terme même de fusion froide.

Les recherches n’ont pas été interrompues pour autant. Aujourd’hui on ne parle plus de fusion froide, mais de LENR ( Low Energy Nuclear Reaction), et il semble que l’affaire trouve un regain d’intérêt.

Il s’agit ni plus ni moins que de récupérer l’énergie potentielle de la matière en faisant appel à des réactions à basse température, et avec des moyens considérablement plus simples que ceux mis en œuvre dans un réacteur nucléaire ou un Tokamak.

Nous n’allons pas ici prendre parti.

Nous voulons simplement signaler que le tabou semble en parti levé, et que à la fois les grands laboratoires et les grandes compagnies commencent à s’intéresser à la question.

Nous suivrons cette affaire qui, si elle se révèle ne pas être un canular, ouvre la voie à une révolution énergétique aussi importante que la découverte de l’électricité.

Repost 0