Overblog Suivre ce blog
Administration Créer mon blog
20 janvier 2011 4 20 /01 /janvier /2011 17:30

20 Janvier 2011


Lorsque l’on évoque les voies de pénétration des nanoparticules dans l’organisme, on privilégie les voies respiratoires et les voies digestives. On ne mentionne la voie cutanée que pour l’écarter en présentant la peau comme une barrière imperméable aux nanoparticules. A la rigueur on admet une possible pénétration par les orifices sudoripares, les voies pilo-sébacées, ou bien sûr une possible lésion cutanée.


Ceci est faux. La couche externe de la peau ( Stratum corneum) n’est pas imperméable.


D’ailleurs l’existence d’une profusion de crèmes, pommades, onguents et gels divers à usages pharmaceutiques et/ou cosmétiques, prouvent s’il en était besoin la perméabilité systématique de l’épiderme.


La pénétration s’effectue en plusieurs temps:


- Diffusion du produit à travers la couche kératinisée, définie par le « coefficient de partage Km».


- Phase de « remplissage » avec une concentration décroissante en fonction de la profondeur.


- Phase d’absorption proprement dite par les couches profondes, avec passage dans les réseaux lymphatique ou capillaires sanguins. On parle de « coefficient de perméabilité Kp».


Les capacités d’absorption de la peau sont fonction de plusieurs facteurs:


- L’épaisseur du stratum corneum. Plus il est mince et plus facile sera la pénétration. Selon la zone ou l’âge de la personne les doses et concentration seront différentes. La peau des bébés est particulièrement vulnérable.


- Le taux de renouvellement du stratum corneum. Plus il est lent et plus l’effet du produit perdurera.


- La taille des molécules. On considère que la peau ne peut pas absorber des molécules de poids supérieur à 100 000 daltons, mais ceci n’est pas démontré.


( 1 Dalton est sensiblement égal à la masse de 1 atome d’Hydrogène. Une nanoparticule de dioxyde de Titane TiO2 de 3 nanomètres représente à peu près une masse de 100 000 Dalton).


- Le Ph de la peau. Suivant que la surface cutanée est acide ou basique, l’ionisation sera plus ou moins favorisée, avec une influence directe sur la pénétration.


- La nature hydrolipidique du stratum corneum.

Le film hydrolipidique est constitué d'un mélange de sueur et se sébum, il recouvre la surface de notre peau. il la protège des bactéries en maintenant sa légère acidité.


La sueur produite par les glandes sudoripares laisse sur la peau un dépôt d'eau, de sels minéraux, et d'acides organiques tels que l'urée. Ce sont nos humectants naturels.


Le sébum produit par les glandes sébacées constitue le gras de la peau. Les corps gras sont donc essentiels au maintien de l'hydratation de la peau.


On les retrouve aussi, et notamment les céramides, dans le ciment intercellulaire liant les cellules de la couche cornée.


L’état de ce milieu superficiel joue un rôle important dans la perméabilité aux agents extérieurs.


La peau pourra absorber des molécules amphiphiles et moyennement lipophiles , capacité définie par l’indice Octanol/eau ( K o/w ).


- La température, par ses effets vasodilatateurs, favorise la pénétration, notamment dans les zones inflammatoires.


- La nature de l’excipent. Un produit appliqué dans un but thérapeutique n’est jamais appliqué seul. Il est accompagné par un véhicule ( excipient) dont le rôle est de préparer la peau au passage de la molécule.


L’absorption de la molécule ( ou d’un toxique) sera fonction de l’excipient, qui peut être :


- Poudre, pommade, lotion, gel, suspension, emulsion, etc…


- Liposomes ( enrobage dans un double membrane lipidique pour obtenir une endocytose sélective).


- Nanoparticules.


- Microémulsions et cristaux liquides.


- Patchs ( systèmes transdermiques).


- Micro et nano capsules.


La voie cutanée est donc une voie possible de pénétration des nanoparticules dans l’organisme. D’ailleurs cette possibilité est mise à profit pour enrober certaines molécules thérapeutiques afin d’en augmenter l’efficacité.


Mais seules les particules de très faibles dimensions pourront traverser la barrière cutanée.


C’est du moins l’information donnée par les laboratoires pharmaceutiques et cosmétologiques.



 


 


 


 


 

Repost 0
19 janvier 2011 3 19 /01 /janvier /2011 14:32

19 Janvier 2011


L’arrêt de Superphénix en 1997 n’a pas interrompu les recherches françaises sur les réacteurs nucléaires à neutrons rapides.


Ni les démonstrations médiatiques du collectif « sortir du nucléaire » , ni la décision allemande d’arrêter ses 17 réacteurs d’ici 2020 n’ont réussi à  empêcher la création en 2001 ( à l’initiative du DOE, US Department Of Defense) du consortium international pour l’étude des générateurs de quatrième génération, qui regroupe 12 pays et Euratom.


Rappelons que l’Allemagne reste membre d’Euratom, ce qui la place dans une position ambigüe.


L’Inde, Israël et le Pakistan, non signataires du traité ne non prolifération, n’ont pu adhérer au Consortium Génération IV. Leur statut est indéterminé.


En France, le réacteur expérimental à neutrons rapides PHENIX , qui a survécu au torpillage de Superphénix, a permis au CEA de continuer à accumuler un savoir faire dans la filière de surgénération refroidie au sodium et du recyclage des déchets, ce qui le place aujourd’hui en pointe de cette technologie.


Conformément à son rôle de réacteur expérimental, PHENIX a essuyé de nombreux plâtres avant de pouvoir être raccordé au réseau pour fournir une modeste production électrique ( 140 MWe) avant d’être arrêté en tant que producteur de courant. A côté de ce rôle de production d’électricité, il a permis d’effectuer de nombreuses expériences internationales de validation des processus de transmutation des déchets radioactifs à vie longue en éléments à vie plus courte, voire en éléments non radioactifs.


Ces travaux ont été menés sous l’égide du centre ATALANTE ( ATelier Alpha et Laboratoires pour ANalyse des Transuraniens et Etudes du retraitement), situé à Marcoule.


PHENIX a été arrêté fin 2009.


Les besoins expérimentaux d’irradiation aux neutrons rapides devront désormais être satisfaits par les réacteurs japonais JOYO ou MONJU, ou chez les Russes avec BN-600.


Dans le cadre du programme Génération IV, Jacques Chirac a approuvé en 2006 le projet d’un réacteur à neutrons rapides refroidi au Sodium, d’une puissance moyenne ( 250 à 600 MWe). La décision de lancement doit être prise en 2012. Le projet ( ASTRID, Advanced Sodium Technological Reactor for Industrial Demonstration), pris en charge par le CEA et AREVA, est prévu pour aboutir en 2020.


Il sera financé à hauteur de 650 Millions d’euros dans le cadre du grand emprunt, et se déroulera avec la collaboration de AREVA, EDF, GDF Suez, et une collaboration internationale avec des partenaires ayant choisi les mêmes options énergétiques, comme le Japon.


La décision budgétaire de lancement est programmée pour fin 2012.


Il est évident que ce programme est suspendu au résultat des élections présidentielles de Mai 2012. Le précédent de Superphénix laisse peu de doute sur le sort de tous les projets français de surgénérateurs en cas de changement de majorité. Le pôle écologique du Parti Socialiste a été très clair sur ses intentions.


A côté du projet ASTRID, qui vise un démonstrateur industriel dans une technologie déjà expérimentée dans PHENIX  et ailleurs dans le monde, AREVA et le CEA supportent également le projet ANTARES ( Areva New Technology base on Advanced gas cooled Reactor for Energy Supply)  de réacteur à neutrons rapides et refroidissement à gaz ( Hélium) à haute température.


Ce projet est l’un des six sélectionnés par le Consortium Génération IV, le VHTR ( Very High Temperature Reactor ).


Le sort de ce projet est également suspendu au résultat des élections de 2012.


Deux conceptions de l’utilisation de l’énergie s’affrontent:


- D’une part un concept fondé sur un usage assez large de l’énergie, pour la dissémination du progrès technologique vers les pays émergents, afin de leur permettre d’accéder au standard de vie occidental . Ce concept induit une consommation énergétique en forte croissance, et donc la recherche de sources énergétiques abondantes.


- D’autre part un concept fondé sur une utilisation parcimonieuse de l’énergie, réduite aux besoins essentiels, compatible avec les ressources durables et non polluantes. Ce concept induit une reconsidération du standard de vie pour le rendre compatible avec les ressources énergétiques naturelles disponibles.



 


 


 


 


 


 


 

Repost 0
18 janvier 2011 2 18 /01 /janvier /2011 11:30

18 Janvier 2011


Au cours des articles précédents nous avons tenté d’esquisser un tableau de ce qui peut nous attendre dans le futur en matière d’énergie.


La situation est grave, mais pas désespérée, du moins si l’on accepte certains compromis.


D’abord l’état des lieux:


- Aujourd’hui le monde dépend pour plus de 80% des énergies fossiles carbonées qui sont à la fois non renouvelables et fortement émettrices de CO2 et autres polluants.


- Malgré les exhortations des prêcheurs de la croissance zéro, la demande d’énergie va continuer à croître fortement, de l’ordre de 80% à l’échéance de 2050.


- Il existe des énergies de substitution à la fois renouvelables, propres, non dangereuses, non invasives et respectueuses de la biodiversité, mais elles ne pourront fournir au mieux que 30 à 40% de la demande énergétique.


- Le pétrole va devenir de plus en plus cher car il faut aller le chercher avec des procédés de plus en plus coûteux, jusqu’à son épuisement, dont l’échéance est prévue au cours de ce siècle.


( Il y a bien une théorie dite du « pétrole abiotique » selon laquelle la précieuse denrée serait renouvelée par génération interne depuis les couches profondes du sous-sol. Sans pouvoir être démentie sur des bases scientifiques, cette théorie n’a cependant jamais été démontrée).


- Le gaz naturel est appelé à subir le même sort que le pétrole, mais à plus longue échéance, le sursis pourrait atteindre un siècle, mais avec des quantités décroissantes et donc un coût de plus en plus élevé.


- Le charbon tire son épingle du jeu, certains lui prédisent encore plusieurs siècles de bons et loyaux services. Mais il ne pourra évidemment pas à lui seul satisfaire tous les besoins .



De ce tableau il apparaît qu’il est impératif de développer une ou des stratégies énergétiques de substitution pour être prêts à assumer l’épuisement progressif des énergies fossiles carbonées, avec une échéance qui se situerait autour ou à partir de 2050.


Ces énergies de substitution devront être en mesure de fournir 60 à 70% des besoins énergétiques mondiaux dans la seconde moitié de ce siècle. Le reste étant à la charge des énergies renouvelables « traditionnelles »: Solaire thermique et photovoltaïque, éolien, hydraulique, géothermique, biologique.



 


 


La seule alternative identifiée aujourd’hui est l’énergie nucléaire.


Il y a aujourd’hui environ 400 réacteurs nucléaires dans le monde, qui fournissent 6% de l’énergie totale.


Les réacteurs actuels consomment de l’Uranium radioactif, qui est une denrée non renouvelable, donc également menacée d’épuisement. cet épuisement sera d’autant plus rapide que la production doit être multipliée par dix d’ici 2050 ( de 6% à 60% ) pour pouvoir remplacer les énergies fossiles carbonées.


Le procédé actuel de production l’énergie nucléaire n’est donc pas valable tout seul pour atteindre l’objectif de substitution durable. D’autant plus que le problème non résolu des déchets radioactifs en fait une énergie dangereuse même si elle n’émet pas de CO2.


Il faut donc trouver autre chose.


Il existe bien un procédé quasiment idéal en théorie, la fusion. Mais sa maîtrise est extrêmement difficile, peut-être même irréalisable disent certains. Iter est une installation qui doit permettre de défricher le problème. Aujourd’hui, il est impossible de dire si et quand ce procédé pourrait être industrialisé.


Il faut trouver autre chose .


Les spécialistes ont alors sorti de leurs cartons un vieux système, connu depuis les années cinquante ( et même pressenti avant), le réacteur à neutrons rapides, connu sous le nom de surgénérateur. Si la théorie en était connue, sa mise en œuvre n’était pas possible sans une profonde évolution technologique. Un peu comme l’aviation, dont l’essor a été permis par le progrès technologique.


Divers réacteurs expérimentaux de ce type ont été construits dans les années 60-80 pour débroussailler les problèmes inhérents à toute nouvelle technique.


Et puis, la crise du pétrole s’étant apaisée, et les opinions s’étant dressées contre les dépenses jugées somptuaires engagées, il a été mis fin officiellement à ces expériences à visées industrielles, à contre-courant de la flambée écologiste ambiante.


Mais pas aux recherches théoriques et aux expériences de laboratoire.


La France a arrêté Superphoenix en 1997, mais le CEA a continué ses recherches.


Les russes ont industrialisé une centrale à surgénérateur, le BN-600, mis en service en 1980 à Beloyarsk, et qui fournit  fidèlement ses  580 Mwe  , et devrait être prolongé de quelques années pour attendre le BN-800 qui devrait être lancé en 2012-2013, pour être opérationnel en 2018-2019, dans le cadre du programme international Génération IV. L’objectif du BN-800 est de fournir 1200 MWe .


La nécessité de devoir un jour faire appel aux surgénérateurs s’est assez vite imposée comme une solution pour résoudre les deux problèmes principaux :


- Trouver une source d’énergie quasiment renouvelable.


- Réduire drastiquement la production de déchets radioactifs.


Mais dans le même temps est apparue la nécessité de développer des technologies garantissant une bonne protection contre les risques de dissémination de matériaux stratégiques.


Dans ce but a été créé le Programme Mondial de générateurs de Génération IV, avec une charte signée des pays membres ( GIF Charter,


( Generation IV International Forum).


Ont adhéré à ce programme:


En 2001: Canada, USA, Argentine, Brésil, France, Royaume Uni, Japon, Corée du Sud, Afrique du Sud.


En 2003: Euratom et Suisse.


En 2006: Chine et Russie.


Ces 13 pays membres ont défini un programme de travail pour la définition des systèmes nucléaires de nouvelle génération.


Parmi les systèmes retenus figurent bien sûr les surgénérateurs, mais pas seulement.


Il va donc falloir s’habituer à l’idée de voir le « Superphoenix » renaître de ses cendres, même si aujourd’hui la simple évocation de cette éventualité peut valoir l’excommunication….


Les peuples accepteront-ils cette dictature de l’atome, pour conserver les avantages que leur procure l’usage illimité de l’énergie ?



 


 


 


 

Repost 0
17 janvier 2011 1 17 /01 /janvier /2011 16:44

18 Janvier 2011


Les énergies de substitution ( dites renouvelables) sont aujourd’hui perçues comme la clé vers un avenir où le progrès technique et industriel serait assuré tout en préservant la bonne conscience d’une Humanité soucieuse de préserver la planète.


La consommation mondiale d’énergie finale est de 93 000 TWh toutes énergies confondues.


Cette consommation est relativement stable depuis 2005, et en légère décroissance en 2009, la crise est passée par là.


Sur ce total, les énergies fossiles ( pétrole, gaz naturel, charbon ) représentent la très grosse majorité, et les énergies renouvelables 4% seulement.


Les prévisions d’évolution de la consommation énergétique mondiale reposent sur des scénarios divers, tous étant d’accord sur la tendance à l’augmentation de la demande, tendance confirmée par les chiffres de la Chine par exemple.


Une tendance conservative donnerait une demande de 120 000 TWh en 2020 ( +1,5% par an), et 170 000 TWh en 2050.


Les facteurs d’accroissement étant classiques:


- Accroissement de la population de 50% en 2050  ( 9,5 Milliards).


- Modernisation des pays émergents.


- Relèvement des standards de vie des pays du Sud.


A l’horizon 2050, les énergies renouvelables propres pourraient représenter 30 à 40% du total des besoins.


(Il existe des projections beaucoup plus optimistes, mais basées sur l’hypothèse d’une réduction massive de la demande énergétique, ce qui nous semble assez irréaliste).


60 à 70% des besoins énergétiques resteront donc à la charge des énergies traditionnelles et du nucléaire.


 

 Aujourd'hui, 50% du pétrole est utilisé pour les transports, représentant 1,75 Gtep, . Ce secteur sera donc le premier confronté à la pénurie.


Les transports comportent plusieurs secteurs:


- Les transports routiers.


Ils consomment 81% de l

énergie totale utilisée par les transports.


( 51% transports passagers, 30% marchandises).


On peut estimer que 30% de cette énergie pourra être basculée sur l

électrique en 2050 ( véhicules légers). Le reste sera dépendant du carburant liquide.


- Les transports aériens.


Consomment 13% du total. Ont un besoin impératif de carburant liquide.


- Les transports maritimes et fluviaux.


Leur part est minoritaire ( 2%), mais ils restent dépendants des produits pétroliers.


- Le ferroviaire.


Faible part ( 2% ) en principe électrifiable.


A ces secteurs il faudrait ajouter l’agriculture, la pêche, les travaux publics.


(www.ifpenergiesnouvelles.fr)


Le basculement partiel vers l

énergie électrique pourra donc permettre de réduire de 30% la part pétrolière consommée par les transports.


Il restera  donc à trouver un carburant liquide équivalent à 1,2 Gtep selon les chiffres d’aujourd’hui, et 1,8 Gtep en 2050 selon les prévisions conservatives.


Quelle peut être la stratégie ?


La perspective peu réjouissante d

avoir à remplacer le pétrole par un autre combustible liquide à hauteur de 1,8 Gtep par an, à partir du milieu du siècle, impose de prendre des  décisions dorientation dès aujourdhui.


- Restructuration des schémas de consommation de l’énergie, réorientation vers l’électrique quand c’est possible.


- Réforme des transports routiers. Réorientation vers le ferroviaire électrifié et/ou le fluvial.


- Rationalisation des échanges internationaux.


- Privilégier la proximité.


- Freiner le développement du transport aérien.


Un tel schéma ( ou un autre) n’existe pas aujourd’hui, même sur le papier.


Ce n’est pas avec l’électricité d’une éolienne que l’on fera voler un avion ni rouler un camion….



 


 


 


 


 

Repost 0
17 janvier 2011 1 17 /01 /janvier /2011 12:05

18 Janvier 2011


Les énergies propres renouvelables sont une alternative prometteuse pour une partie des besoins énergétiques futurs des sociétés modernes.


Le terme « propres » désigne les énergies dont l’utilisation est non émettrice de CO2 et/ou de polluants ou de déchets dangereux pour la santé ou l’environnement et dont l’élimination totale est actuellement impossible.


Il faut donc en exclure les biocarburants, le biogaz , et bien entendu le nucléaire conventionnel et les combustibles fossiles.


Cette définition n’est pas absolue, elle implique des interprétations:


Les biocarburants et le biogaz sont à l’origine d’émissions de CO2 , ils ne sont donc pas « propres » naturellement, pas plus que les combustibles fossiles.


Mais le CO2 émis peut être capté et séquestré ( CSC, Capture et Séquestration du Carbone ).


Si le CO2 est réinjecté dans le sol, ce ne peut être qu’en quantités limitées par définition. L’énergie qui est à l’origine de ce CO2 n’est donc pas « propre » durablement.


Par contre si ce CO2 est transformé en un composé solide durable (nous pensons à la carbonatation), alors l’énergie dont il est issu devient propre et durable.


De même l’énergie nucléaire est « propre » lorsqu’elle est issue du Soleil car ses déchets ne sont pas gênants. Par contre elle est classée polluante et dangereuse lorsqu’elle est issue d’une centrale nucléaire terrestre.


Ce qui implique qu’un procédé de réacteur nucléaire qui ne produirait pas de déchets dangereux deviendrait « propre », nous pensons à la fusion.


Le terme « renouvelables » désigne les énergies issues du déroulement de phénomènes radiatifs et/ou physico-chimiques,  dont la pérennité est assurée sur une durée compatible avec celle de l’espèce humaine.


Il s’agit essentiellement de l’énergie solaire et de la géothermie.


Les énergies associées en sont directement issues:


Solaire thermique haute et basse température, photovoltaïque, éolien, hydraulique.


Aux termes « propres » et « renouvelables » , il faudrait ajouter le critère « non potentiellement dangereuses pour l’environnement et/ou les espèces vivantes et la biodiversité».


Car ce critère est souvent évoqué à l’encontre des éoliennes , et bien entendu du nucléaire.


En toute rigueur il faudrait également un quatrième critère:


« Non préjudiciable à l’exploitation des sols »


Car certains abus ont été constatés dans l’implantation de panneaux photovoltaïques qui empiètent sur des terres cultivables.


Lorsque l’on parle d’énergies de substitution, il faut donc préciser exactement de quoi il s’agit, à quelle technologie on se réfère, et quels sont les critères retenus pour encadrer leur développement.



 


 


 

Repost 0
16 janvier 2011 7 16 /01 /janvier /2011 14:41

17 Janvier 2011


Les énergies fossiles carbonées n’ont plus la cote. Elles sont accablées par deux malédictions: La perspective d’épuisement et le réchauffement climatique.


On a pu croire un moment que le tarissement des ressources  allait résoudre le problème du réchauffement, mais hélas il s’avère que les réserves sont encore abondantes, assez pour nous pourrir encore la vie pendant ce siècle.


Face à ce constat on observe deux attitudes:


D’une part celle des pays de nature optimiste , qui considèrent que le problème du développement des énergies renouvelables n’est pas une première urgence mais une affaire de moyen terme. En clair, on ne craint plus la panne sèche pour demain matin, il faudra simplement payer un peu plus cher la précieuse denrée, ce qui n’est pas un réel obstacle pour les pays riches ( ou qui se croient tels). Au contraire, diront les cyniques, qui voient dans le renchérissement  de l’énergie l’occasion d’augmenter leurs marges et de réguler la consommation.


Certes il subsiste le problème du CO2 émis par la combustion du fuel, du gaz et du charbon. Qu’à cela ne tienne, rétorquent les optimistes, des solutions existent pour s’en débarrasser au moins partiellement, il suffit de le renvoyer d’où il vient ce qui, il est vrai, n’est pas complètement idiot.


Dormez en paix braves gens, l’apocalypse est repoussée à une date ultérieure.


dans ce contexte, les énergies renouvelables propres risquent de perdre leur statut de bouées de sauvetage de l’Humanité pour devenir de simples exercices de style, voire d’opportunes occasions de toucher des financements.


Elles ne seront alors considérées comme vraiment attractives que lorsqu’elles seront économiquement rentables ou règlementairement obligatoires, ce qu’elles ne sont pas encore aujourd’hui. Les incitations à recourir aux énergies renouvelables propres peuvent revêtir différentes formes:


- Hausse insupportable  du prix de l’énergie.


- Instauration d’une taxe carbone dissuasive.


- Création d’un impôt sur l’énergie.


- Instauration d’une tarification de l’énergie par tranches.


- Etablissement de quotas .


- Avantages fiscaux.


-Etc… L’imagination des spécialistes  est sans limite.


L’autre attitude est celle des pays qui ont pris conscience de l’importance du changement de paradigme et qui considèrent qu’il est urgent de s’y préparer dès maintenant pour ne pas être pris au dépourvu au milieu du gué.


La France et l’Allemagne constituent des exemples de ces deux attitudes. Le cas de l’éolien est révélateur:


Fin 2009 le parc français éolien raccordé au réseau comportait 2 900 machines d’une puissance totale de 4 400 MW. Ce parc croît gentiment au rythme de 500 machines par an ( chiffre constant depuis 2006 ). Ce qui participe pour  moins de 0,5% à la consommation totale d’énergie.


Dans le même temps, l’Allemagne s’est dotée de 20 000 éoliennes d’une puissance totale de 24 000 MW fournissant 50 TWh d’énergie. Le programme allemand est résolument volontariste, les objectifs fixés pour 2020 sont ambitieux, 50 000 MW , qui seront obtenus sans augmenter le nombre de machines, mais en augmentant leur puissance ( renouvellement du parc).


Cette avance prise par l’Allemagne lui confèrera un avantage commercial certain pour exporter ses technologies.


Il y a donc d’un côté ceux qui y croient et investissent massivement sur les énergies propres, et de l’autre ceux qui ne leur accordent qu’un intérêt poli.


Pour mesurer la pertinence de l’une ou l’autre attitude, il est important l’analyser l’apport possible de ces nouvelles énergies. Peuvent-elles réellement remplacer les énergies fossiles ? A quelles conditions ?


La consommation annuelle d’énergie « finale » en France est d’environ 2000 TWh  ( 170 Mtep) toutes énergies confondues ( la consommation d’énergie primaire est plus importante mais il nous a paru plus pertinent de retenir l’énergie finale).


Une grande éolienne peut délivrer une puissance max de 5 MW ( soit une énergie annuelle de 43,8 GWh à pleine puissance 24h/24). Les rendements effectifs des parcs éoliens relevés en Allemagne et dans le Jura Suisse sont  de 15% environ. Ce qui nous donnerait annuellement 6,6 GWh par machine de 5 MW.


Il faudrait donc installer 304 000 éoliennes de 5 MW pour obtenir 2000TWh. Cela n’a évidemment aucun sens.


L’Allemagne dispose d’un parc de 20 000 machines, ce qui est déjà beaucoup ( leur puissance est très inférieure à 5 MW). Il paraît difficile de dépasser 40 000 machines dans l’avenir , sans rencontrer de gros problèmes de tolérances et d’efficacité.


Rêvons un peu et imaginons la France dotée d’un parc de 40 000 machines de 5  MW. Ce parc pourrait alors fournir 13% des besoins français totaux, ou encore 65% des besoins électriques actuels, compte non tenu des futurs besoins de la voiture électrique.


Ce petit calcul suggère trois remarques:


D’une part, l’objectif de fournir l’essentiel des besoins électriques avec l’éolien ( avec l’appoint du  photovoltaïque) n’est pas absurde. L’Allemagne y songe sérieusement. La France n’est pas prête à accepter un projet de 40 000 éoliennes sur son sol.! Les réactions aux quelques modestes projets actuels de fermes off shore laissent penser qu’il sera très très difficile de faire accepter plusieurs dizaines de milliers de machines sur le territoire français….


D’autre part, aussi intéressant que soit l’apport de l’éolien, il ne peut représenter qu’une part  de l’énergie totale nécessaire, de l’ordre de 20%.


Enfin, l’énergie électrique n’étant pas stockable, la fourniture serait sporadique, ce qui ne convient pas à de nombreuses applications.


Tournons-nous vers le photovoltaïque:


 

L'énergie solaire reçue au niveau du sol annuellement est de 1 300 KWh/m2, en faisant la moyenne entre Paris et Marseille.


Le rendement d’une installation est aujourd’hui de l’ordre de 12%. Avec les améliorations de la technologie on peut estimer que ce rendement atteindra 20% en 2020, soit 260 KWh/m2.


Il faudrait donc installer 7 800 km2 de panneaux pour fournir la France en énergie, soit l’équivalent d’un département. Difficilement acceptable, même en considérant que les surfaces de toitures sont en principe disponibles. En utilisant les surfaces de toitures disponibles on pourrait fournir environ 10% des besoins totaux.


De plus le photovoltaïque souffre du même défaut que l’éolien, une fourniture sporadique incompatible avec certains besoins.


Egalement dans ce secteur l’Allemagne est en tête, faut-il s’en étonner ?


En première analyse donc, l’éolien et le photovoltaïque ne pourront intervenir que comme compléments de sources plus puissantes et régulières. On peut estimer entre 20 et 30% la participation possibles de ces énergies au total des besoins.


L’hydraulique fournit  6% de la consommation totale, donc 70 à 80% des besoins énergétiques jusqu’en 2050 devront  être fournis soit par les énergies fossiles émettrices de CO2, soit pas la biomasse, soit par le nucléaire.


Il y a en France (2005) 58 réacteurs nucléaires en service, pour 19 centrales. Ces réacteurs ont une puissance moyenne de 1 086 MW. La puissance totale disponible est donc de 63 GW environ, soit une énergie annuelle de 550 TWh.


Ceci participe pour 85 % aux  fournitures électriques, et pour 15% des besoins énergétique totaux ( la puissance max n’est pas toujours appelée).


L’hydraulique intervient pour environ 6%, et la biomasse pour 5%.


Donc en France 70% des besoins énergétiques sont satisfaits par les énergies fossiles ( 55% par les énergies carbonées et 15% par le nucléaire).


La montée des énergies renouvelables propres (éolien et solaire) pourra réduire cette part à 50%, mais il restera 1000 TWh à la charge du fuel, du gaz, du charbon, de la biomasse, ou du nucléaire.


Il faut donc oublier l’illusion que les énergies propres et renouvelables pourront remplacer totalement les énergies fossiles.


Le maintien de notre standard de vie occidental jusqu’en 2050 n’est possible qu’à la double condition d’une part d’accepter de continuer à consommer les énergies fossiles dans la mesure de leur disponibilité, en appliquant un programme de dépollution et de séquestration du CO2, et d’autre part de couvrir le territoire d’éoliennes, de panneaux photovoltaïques, et de centrales solaires thermiques à concentration pour prendre le relais des centrales nucléaires vieillissantes.


Pour survivre « à l’occidental » après 2050, il faudra impérativement trouver un substitut aux énergies fossiles carbonées. Aujourd’hui, il n’apparaît pas d’autre substitut que l’énergie nucléaire.


Le scénario pour les prochaines décennies pourrait être le suivant:


- Campagnes pour les économies d’énergie.


- Soutien au développement des énergies renouvelables propres.


- Montée en puissance de la stratégie CSC ( Capture et Séquestration du Carbone).


- Soutien au développement des véhicules électriques.


- Relance du programme nucléaire avec l’objectif de couvrir 30% des besoins en 2050 en technologie EPR ( ce qui suppose un doublement des moyens nucléaires actuels).


- Relance du programme de surgénérateurs, pour prendre la relève en 2050.


(Eu égard au caractère non renouvelable du combustible nucléaire, il paraît inévitable de devoir recourir à la surrégénération pour être à même de prendre la relève des combustibles traditionnels épuisés ).


Un autre scénario pourrait être proposé dans l’objectif de réduire notre consommation énergétique:


L’Européen moyen consomme environ 10,6 Kep par jour.


L’Africain moyen consomme 1,5 Kep par jour.


Il suffit donc d’adopter le standard de vie africain actuel pour réduire de 86% notre empreinte énergétique. Les énergies renouvelables suffiraient alors à couvrir tous les besoins restants.


Il est surprenant qu’une solution aussi simple ne bénéficie pas de la promotion enthousiaste des organismes internationaux comme le G20. Ce scénario comporte probablement quelques petits inconvénients qui rendent son application délicate, voire impopulaire…..

 
Repost 0
13 janvier 2011 4 13 /01 /janvier /2011 12:19

12 Janvier 2011


Le développement économique de l’Humanité s’effectue depuis deux siècles sur la base du progrès technique, très gros consommateur d’énergie.


Cette énergie est très majoritairement d’origine fossile. Son utilisation est génératrice de pollutions diverses et d’émissions abondantes de CO2.


La récente et planétaire prise de conscience du changement climatique engage les Etats à promouvoir des politiques de réductions drastiques des émissions anthropiques de CO2.


Les actions à mettre en œuvre pour atteindre ces objectifs doivent tenir compte de certaines données à priori incontournables:


- Jusqu’à présent il n’a pas été envisagé de remettre en cause les bases du développement économique des société humaines, le progrès technique et l’énergie. Le modèle de développement des sociétés humaines reste donc, jusqu’à preuve du contraire, basé sur le progrès technique et sur l’énergie.


- Environ un tiers de l’Humanité a bénéficié jusqu’à présent du progrès technique . Les deux tiers restant revendiquent le droit d’accéder au même progrès technique. Personne, du moins officiellement,  n’envisage de leur contester ce droit.


- Les études démographiques montrent que la population humaine augmentera d’au moins  50% au cours du XXIè siècle. Autant de bouches supplémentaires à nourrir et de revendications progressistes à satisfaire.


Ces trois données de base, incontournables,  permettent de prévoir une demande énergétique en considérable augmentation dans le courant du siècle. Il est donc légitime de s’interroger sur la provenance de cette énergie, eu égard à la perspective d’épuisement des ressources fossiles.


On peut comparer la marche du monde vers une économie propre et durable de l’énergie au lancement d’une fusée à quatre étages:


- Le premier étage est celui des économies. Les applications qui requièrent de l’énergie ont un très fort potentiel d’amélioration des rendements . Ce premier étage fonctionne bien, de grandes améliorations ont été apportées aux usages habituels de l’énergie , et les progrès sont constants y compris au niveau des règlementations.


- Le deuxième étage est celui du développement des énergies propres et durables. Les sources ont été identifiées, les applications ont été développées et certaines sont en phase de développement industriel, comme l’éolien, le solaire passif, le photovoltaïque, la géothermie, les pompes à chaleur.


Cet étage est prêt à fonctionner en régime de croisière, mais des pesanteurs freinent son élan:


- Investissements lourds, rentabilité non assurée.


- Règlementation contraignante.


- Oppositions des groupes de protection de la nature.


Ce second étage peine donc à décoller, il gagnerait à être boosté par des mesures incitatives pérennes, mais il ne trouvera sa vitesse de croisière que lorsque le prix des énergies fossiles deviendra insupportable.


- Le troisième étage est celui de la dépollution des sites ou matériels utilisateurs d’énergies fossiles. Les besoins sont tels qu’il est impossible de se passer des énergies traditionnelles, les seules actuellement capables de satisfaire la demande croissante. On parle de prochain épuisement des réserves, mais l’échéance fatale est sans cesse reportée.


Logiquement ce troisième étage ne devrait voir son autorisation de vol renouvelée que si des solutions satisfaisantes sont apportées à l’élimination du CO2 émis.


La solution privilégiée ( en fait la seule industriellement efficace) est la séquestration du CO2.


Cette solution est en cours de validation dans différents sites de par le monde, et devrait entrer en application vers 2015. Elle ne résoudra qu’une partie du problème. Les transports , gros utilisateurs de carburants fossiles, continueront d’émettre du CO2.


Donc, un troisième étage peu satisfaisant, mais dont on ne peut se passer faute d’énergies de remplacement.


- Le quatrième étage de la fusée concerne précisément les énergies de remplacement.


Il n’est pas satisfaisant d’envisager le développement planétaire en phase de très forte croissance démographique, en se basant sur une énergie qui sera, longtemps encore majoritairement d’origine fossile , qui ne pourra  être que partiellement dépolluée, et qui de toutes manières est en voie de tarissement naturel.


La seule énergie de remplacement disponible en grande quantité, identifiée aujourd’hui est l’énergie nucléaire. Les Etats ont bien compris le risque de rester prisonniers d’une énergie fossile en voie d’épuisement, et donc d’enchérissement spéculatif.


La conférence internationale sur l’accès au nucléaire civil , qui s’est tenue à Paris en Mars 2010 avec l’AIEA et l’OCDE, a réuni 65 pays. Les problèmes abordés ont été:


- La sureté.


- La sécurité.


- La non prolifération.


- La préservation de l’environnement.


La promotion de l’usage pacifique et responsable de l’énergie nucléaire est une gageure dans un contexte où la pacification est loin d’être acquise.


Les inquiétudes exprimées devant ce projet de dissémination sont légitimes.


Malheureusement il faudra bien choisir entre le CO2 et le nucléaire, tant que les énergies renouvelables n’auront pas apporté la preuve de leur capacité à remplacer les autres.



 


 


 


 


 


 


 


 


 


 


 


 


 
Repost 0
11 janvier 2011 2 11 /01 /janvier /2011 19:11

11 Janvier 2011


Les pays en voie de développement se sont regroupés dès 1964 au sein de l’ONU en une organisation autonome chargée de défendre leurs intérêts. Cette organisation, le G77, formée au départ de 77 pays membres, en compte aujourd’hui 130.


Cette organisation se voulait un contre poids à l’OCDE créée en 1960 et regroupant les pays les plus riches de la planète.


Face au G77 ( nous pourrions dire au-dessus) , nous trouvons au sein de l’ONU le G20, créé en 1999 avec 19 pays membres plus l’Union Européenne.


Le G20 est l’héritier du G6 créé en 1975.


Tout le monde connait le G20, qui représente 85% du commerce mondial, 90% du produit mondial brut, et les deux tiers de la population de la planète.


Le poids démographique, la richesse et la puissance du G20 pourrait en faire le germe d’un gouvernement mondial , mais eu égard à la disparité des intérêts de ses membres, et aux antagonismes séculaires qui les opposent, il n’est qu’une sorte de conférence permanente chargée d’harmoniser la gouvernance économique de la planète, sous la tutelle de l‘ONU pour les affaires politiques.


Le G20 mène ses actions avec le souci des intérêts de ses pays membres, mais aussi, du moins en théorie, avec le souci du développement harmonieux et durable du reste du monde.


Le développement durable suppose la prise en charge de la protection de la planète en terme de changements climatiques, de pollution , de protection de l’environnement et de la biodiversité.


Rappelons que le GIEC a été créé en 1988 à la demande du G7 (Aujourd’hui G20) pour l’analyse du changement climatique.


En Décembre 2010 l’Assemblée Générale de l’ONU a approuvé la création de l’IPBES ( Intergovernmental Science Policy Platform on Biodiversity and Ecosystem Services ). Le principe en avait été adopté en Juin 2010 en Corée du Sud par plus de 90 pays.


Cet organisme peut être considéré comme le GIEC de la biodiversité.


Le contenu des missions de l’IPBES a suscité des réticences au sein des pays en voie de développement ( Les représentants du G77 plus la Chine ont d’abord jugé prématurée sa création ).


On peut les comprendre.


Le GIEC/IPCC a déclenché la chasse au CO2 et recommandé des mesures conservatoires pour stopper la croissance des émissions. L’application de ces mesures impose un basculement vers des énergies non émettrices de CO2. Les pays industrialisés ont les moyens de faire face à ces exigences, leur technologie permet à la fois des économies d’énergie, le captage et la séquestration du CO2, et le développement des énergies de remplacement.


Les pays en voie de développement n’ont pas ces possibilités, leur développement n’est possible que par le recours aux énergies traditionnelles polluantes, c’est-à-dire en opposition avec les recommandations du GIEC. Ces contraintes sont ressenties comme un frein au développement.


La monté en puissance des organismes de protection de l’environnement et de la biodiversité risque de rajouter une couche de contraintes supplémentaires sur ces pays et de les rendre encore plus dépendants des pays riches .


En clair, ils craignent de se voir interdire l’accès au standard de vie « occidental »  et réduits au rôle de gardiens et  protecteurs de l’environnement et de la biodiversité et de n’intéressez le monde que par leurs richesses minières et leurs capacités d’accueil touristique.


Ils n’ont pas l’intention de se laisser ainsi marginaliser….



 


 


 


 

Repost 0
10 janvier 2011 1 10 /01 /janvier /2011 11:47

10 Janvier 2011


Quelques informations sur la vie du livre numérique.


- Le Kindle d’Amazon confirme son succès: Lancé en 2008 , il atteint 2,4 millions d’unités en 2009, et 8 millions en 2010. En début 2011 on frise la rupture de stock. Ce qui confirme largement l’existence d’un marché pour les tablettes de lecture.


- Le 15 Décembre 2010, le Parlement procède au vote final de la loi de finance portant application d’une TVA de 5,5% sur le livre numérique. Curieusement cette loi n’entrera en vigueur qu’au 1er Janvier 2012. Une frilosité qui s’explique par la crainte d’un bouleversement des structures de l’Edition traditionnelle.


- Aux USA, où l’on fait rarement les choses à moitié, le livre numérique représente déjà 8,7% des ventes de livres. Nous ne sommes plus en présence d’un phénomène marginal, mais bien devant une mutation des comportements de lecture.


-

Sony lance le premier Prix du livre numérique qui sera décerné lors du Salon du Livre qui se tiendra du 18 au 21 mars prochain. Le jury de lecteurs sera présidé par Bernard Werber.


Cette démarche, en dehors de son caractère marketing évident, montre que la vie du livre numérique peut s’organiser en dehors du monde de l’édition traditionnelle. Un signe de maturité ?


- Europeana, la bibliothèque numérique Européenne, a dépassé son objectif de 10 millions d’œuvres numérisées, pour atteindre aujourd’hui 14 millions.


64% sont des images et 36% des textes, dont 1,2 millions de livres complets.


- E-Ink, la société à l'origine de l'encre électronique employée notamment par le Kindle d'Amazon, annonce une nouvelle technologie, Triton, qui permettra l’affichage en couleurs sur les tablettes de lecture. Pour le moment le procédé ne permet pas les images animées, mais cette évolution est prévue. La couleur élargira le champ d’application des tablettes de lecture, notamment vers le livre enrichi, la bande dessinée, mais aussi l’affichage des photos et des documents multimédia.


Bien sûr les concurrents ne sont pas en reste, et en particulier Fujitsu avec son lecteur Flepia light.


- L’avenir du livre numérique se trouve dans le concept de livre enrichi, qui consiste à présenter non pas purement du texte, mais une oeuvre multimédia associant au texte des images, des schémas, des sons, de la musique, des séquences vidéo, et de l’interactivité avec les liens.


Dans cet esprit, les Editions Leezam ( Editeur purement numérique) et la Bibliothèque Beaubourg ont coproduit en collaboration avec l’Institut de Recherche et d’Innovation, 3 ebooks enrichis. Ce travail a reçu le soutien 


du Ministère de la Culture et de la Communication.


- La guerre de l’Ipad contre le reader n’a pas eu lieu, les deux applications semblent coexister. Il est vrai que beaucoup de choses les séparent: D’abord le prix, 500 euros pour l’un, 100 euros pour l’autre; ensuite le poids, plus de 600g pour l’un, contre moins de 200g pour l’autre; puis le confort de lecture, enfin l’usage, mini ordinateur pour l’un, simple lecteur pour l’autre. Il est probable que chacun vivra sa vie et beaucoup d’utilisateurs achèteront les deux.


- Et Hadopi ?


Les « spécifications fonctionnelles », véritable feuille de route pour qui souhaite développer un logiciel labellisé Hadopi, sont encore en cours de rédaction. Selon Michel Riguidel, le « père fondateur » des spécifications fonctionnelles, ces logiciels devraient arriver en mars ou juin 2011. Ils pourraient fortement ressembler à des contrôles parentaux.


Cet accouchement très difficile laisse imaginer les obstacles techniques et juridiques qui existent, ainsi que les problèmes d’intéropérabilité liés aux logiciels libres. De belles batailles d’avocats en perspective.


- Le livre numérique souffre encore de défauts que beaucoup d’usagers potentiels considèrent rédhibitoires:


Le système des DRM , l’impossibilité de prêter l’œuvre, l’impossibilité de la revendre d’occasion, le manque d’interopérabilité.


Ces défauts, inévitablement liés à la reproductibilité trop facile  de l’œuvre numérique, restent un frein réel à la diffusion de ce média sur une large échelle. Leur solution est un challenge pour les éditeurs numériques et les ayants droit.



 


 


 

Repost 0
8 janvier 2011 6 08 /01 /janvier /2011 18:52

8 Janvier 2011


Le Lithium est le métal le plus léger. Sa structure avec un électron tout seul sur la couche externe en fait un candidat rêvé à l’ionisation facile.


Certains se mettent donc à rêver. Et de se demander quelle énergie électrique pourrait être stockée avec un kilo de Lithium ionisé. Le calcul est simple ( voir l’article du 3 Janvier ), on trouve environ 15 KWh/Kg !


Ce Lithium est aujourd’hui sous-utilisé dans les batteries puisque le rendement massique atteint à peine 100 Wh/Kg , avec la technologie LiMPO4 la plus récente. Bien sûr on saura faire mieux dans les années qui viennent , mais on ne dépassera probablement pas 300 Wh/Kg avec le LiMPO4, soit environ 50% de la valeur théorique. En effet, les contraintes drastiques du cahier des charges automobile imposent des limites pratiques incontournables.


Nos chercheurs de trésor ont donc sorti des cartons une technologie connue déjà utilisée dans les piles d’appareils d’audio prothèse, mais non encore au point pour faire des batteries rechargeables, surtout pour l’automobile. Il s’agit du couple Lithium-air. 


Le Lithium fournit les ions, et l’air fournit l’oxygène pour la réaction conduisant à l’oxyde et au peroxyde de Lithium.


Pour faire de tout cela une batterie industrialisable les labos de recherche estiment qu’il faudra entre dix et vingt ans.


Mais on peut espérer obtenir en production industrielle un rendement massique de l’ordre de 2000 KWh/Kg , soit  vingt fois plus que les batteries LiMPO4.


Une batterie de 50 Kg suffirait alors à donner à la voiture électrique la même autonomie que les véhicules actuels à carburant liquide.


Tous les spécialistes de l’électrochimie, de la physique des matériaux et des nanomatériaux sont convoqués et les millions de dollars pleuvent pour financer ces recherches stratégiques. 


Car derrière l’application automobile se cache un domaine encore plus large, qui est celui du stockage des énergies renouvelables.


La course à la toison d’or est donc lancée….      



 


 


 

Repost 0