Overblog Suivre ce blog
Administration Créer mon blog
28 juin 2011 2 28 /06 /juin /2011 15:16

28 Juin 2011

L’introduction des véhicules électriques sur le marché de masse s’accompagnera d’un risque nouveau lié au type de batteries utilisées.

Ces risques sont évidemment connus et pris en compte dans les études pour la mise au point des différents modèles destinées au marché.

En Juin 2011, l’INERIS ( Institut National de l’EnviRonnement Industriel et des riSques) a rendu public son rapport d’analyse des risques nouveaux liés aux véhicules électriques et plus particulièrement aux batteries.

En guise d’introduction à l’étude de ce rapport, nous donnons ci-après quelques extraits:

« 5.1.4.1 Risques liés aux batteries Li-ion et LiPo.

Les batteries Li-ion combinent la mise en oeuvre d’électrodes fortement oxydantes et réductrices en contact avec un électrolyte organique inflammable. Les électrodes, notamment l’électrode positive, peuvent devenir instables à des températures élevées (> 200°C). De plus, les solvants composant l’électrolyte possèdent des pressions de vapeurs relativement importantes à des températures modérées.

Des conditions inhabituelles et/ou abusives d’utilisation (surcharge, court-circuit, présence d’une source de chaleur extérieure …) peuvent donc provoquer des augmentations brutales de température pouvant conduire à des feux, explosions ou dégagements de produits toxiques. 

La température à l’intérieur d’une cellule est déterminée par l’équilibre entre la chaleur générée et celle dissipée par celle-ci. Lorsqu’une cellule atteint une certaine température (en général de l’ordre de 130 à 150°C), des réactions chimiques exothermiques se produisent entre les électrodes et l’électrolyte, ce qui contribue à augmenter d’autant plus la température. Si la chaleur produite ne peut pas être dissipée suffisamment par la cellule, les réactions s’accélèrent alors, provoquant une augmentation rapide de la température, pouvant conduire au phénomène d’emballement thermique. Les batteries ont une faible capacité à dissiper la chaleur et sont donc fortement sujettes à l’emballement thermique .

La pression générée par la vaporisation de l’électrolyte peut ensuite conduire à des défaillances mécaniques à l‘intérieur de la cellule pouvant provoquer la rupture de son enveloppe extérieure.

Cette perte de confinement est alors à l’origine de fuites de l’électrolyte, produit toxique, inflammable et corrosif, sous forme liquide mais également gazeux.

Les vapeurs ainsi générées et mélangées avec l’air peuvent alors former une atmosphère explosive (ATEX). Celle-ci est susceptible de s’enflammer au contact d’une source d’inflammation du type étincelle ou surface chaude, souvent présentes à l’intérieur d’un véhicule. Il en résulte alors une explosion provoquant des effets thermiques et des effets de pression.

De plus, les sels d’électrolyte tels que l’hexafluorophosphate de lithium LiPF6, le tetrafluoborate de lithium LiBF4, le perchlorate de lithium LiClO4, l’hexafluoroarsenate de lithium LiAsF6 peuvent dégager des fumées particulièrement toxiques et corrosives contenant du phosphore, du fluor et du lithium.

Des essais réalisés à l’INERIS [19] ont ainsi montré la formation d’acide fluorhydrique (HF) lors de la dégradation thermique de batteries Li-ion » .

……….

«La sécurité des batteries Li-ion est un des points particulièrement importants sur lequel travaillent les fabricants : ils mettent en place des barrières de sécurité pour réduire et maîtriser les risques. De gros progrès ont été réalisés pour assurer la sécurité des batteries depuis quelques années, y compris dans le choix des matériaux constituant les électrodes ou les électrolytes. Le choix d’une technologie représente cependant un compromis entre performance, durabilité et sécurité, et une technologie intrinsèquement sûre n’existera cependant pas dans les prochaines années » .

Fin de citation.

Cette conclusion laisse planer un doute sur le degré de confiance que l’usager pourra accorder à ce genre de dispositif.

Nous ne manquerons pas de suivre l’évolution de ce problème , et notamment les analyses et évaluations de sécurité qui seront réalisées sur les modèles proposés à la clientèle .

 

 

Repost 0
10 juin 2011 5 10 /06 /juin /2011 10:22

10 Juin 2011

Aujourd’hui, pour se procurer de l’énergie, l’usager se tourne vers l’Etat et/ou des grands groupes industriels. Il dispose ainsi d’un branchement électrique, d’un branchement de gaz, et un livreur lui fournit du fuel à la demande, voire même du charbon. Pour son automobile, des stations services lui procurent du carburant sans limitation autre que la contenance de son réservoir.

Un « Deus ex machina » prend à sa charge tous les problèmes qu’il faut surmonter pour se procurer cette énergie et la mettre à disposition des mortels, qui n’ont plus alors que la peine de signer quelques chèques.

Cette situation va changer.

L’ère de l’énergie d’origine fossile carbonée va s’achever, c’est l’affaire d’un siècle au mieux selon les experts, peut-être beaucoup moins si la consommation mondiale continue d’augmenter au rythme actuel ( et qui peut prétendre réguler la demande mondiale ? ).

La période de déclin des réserves verra de grandes tensions sur les marchés, se traduisant par une envolée des prix, avec menaces de pénuries temporaires.

C’est du moins le scénario sur lequel sont supposées être basées les stratégies énergétiques des pays industrialisés.

Par ailleurs, les énergies fossiles carbonées seront économiquement pénalisées par le surcoût occasionné par l’obligation de réduire drastiquement les émissions de dioxyde de carbone et d’oxydes d’azote.

Enfin, l’énergie devenant rare et chère, les Etats chercheront des moyens d’augmenter leur indépendance énergétique.

Le nucléaire a paru représenter la solution idéale de remplacement des énergies fossiles carbonées, au moins pour produire de l’électricité. Mais l’impopularité du procédé, exacerbée par les évènements récents, paraît condamner cette solution à terme.

Actuellement, la stratégie énergétique Européenne semble s’orienter vers une sortie progressive du nucléaire à l’horizon 2030.

Si cette stratégie est effectivement entérinée, l’Europe devra simultanément réduire considérablement sa consommation d’hydrocarbures et de charbons pour protéger la planète, et se passer de l’électricité nucléaire.

Les énergies nouvelles, essentiellement les énergies solaire et éolienne, seraient donc le dernier recours, pour l’essentiel des sources.

L’hydraulique et la géothermie ne sont pas des énergies nouvelles, et leur participation ne sera pas majoritaire.

Notre tâche du XXIè siècle sera donc de nous adapter à la situation nouvelle qui consistera à produire nous-mêmes notre énergie à partir du soleil et du vent, en complément de l’Hydraulique, de la Géothermie, et de l’exploitation de la biomasse.

Une tâche d’égale importance consistera à convertir à l’électricité 50% de nos besoins énergétiques, puisque les sources d’hydrocarbures fossiles seront taries ( aujourd’hui seulement 25% de nos besoins sont satisfaits par l’électricité ). Le solaire thermique et la géothermie devra prendre le relais pour les applications de chauffage.

Les experts s’accordent à penser que les énergies nouvelles ne pourront pas fournir l’équivalent de ce que nous consommons aujourd’hui toutes énergies confondues. Il sera donc nécessaire de développer des programmes d’économie afin de rendre possible la réussite du changement.

Il s’agit d’un révolution considérable.

Un tel bouleversement ne pourra pas être mené à bien par quelques mesurettes opportunistes. Il faut envisager un changement de paradigme qui bouleversera les concepts habituels.

Le challenge semble à notre portée, eu égard aux progrès accomplis durant les dernières quatre-vingt-dix années, d’autant plus que les technologies pour l’exploitation des énergies solaire et éolienne sont déjà disponibles.

Le véritable problème est donc politique, et on sait que les problèmes politiques ne sont pas les plus simples à résoudre.

Il y a deux objectifs à atteindre:

Le premier est la sortie du nucléaire. L’échéance est fixée à 2030.

En France, un programme de sortie du nucléaire ne peut se concevoir sans un programme parallèle compensatoire de développement des énergies renouvelables, sous peine de mettre le pays en panne de courant. Aucun gouvernement, quelle que soit sa couleur politique, ne prendra ce risque.

Le pragmatisme le plus élémentaire impose de ne pas lâcher la proie pour l’ombre.

Il faut donc mettre sur pied un projet de substitution crédible capable de fournir en 2030 une production annuelle d’environ 400 Twh.

Dans l’optique du basculement sur les énergies nouvelles, cette production sera principalement éolienne et solaire, par nature intermittente. Il est donc impératif de développer simultanément un programme sophistiqué de gestion des réseaux et de stockage de l’électricité.

Toujours simultanément, il y aura lieu de procéder au démantèlement des centrales arrêtées.

Le second objectif est la conversion à l’électricité de nombreuses applications qui utilisent aujourd’hui les énergies fossiles. En effet, dans l’hypothèse d’une baisse des fournitures d’hydrocarbures, il faudra bien utiliser l’électricité.

Aujourd’hui il n’existe aucun plan pour réaliser ces objectifs….

Le retard de la France en matière d’énergies nouvelles est connu.

Le risque est alors grand de voir les centrales nucléaires remplacées purement et simplement par des centrales à gaz, fonctionnant éventuellement au gaz de schiste ( toujours le pragmatisme ) ….

L’énergie électrique est traditionnellement fournie par des « centrales » de très fortes puissances, et distribuée aux usagers comme l’eau ou le gaz.

Ce concept peut être repris avec les énergies nouvelles. Il existe de par le monde des centrales solaires thermiques ou photovoltaïques, et des fermes éoliennes. La concentration des moyens de production permet d’une part d’utiliser le réseau de distribution existant, et d’autre part d’obtenir des prix de revient bas par l’effet d’économie d’échelle, tout en simplifiant la gestion de la production.

En complément d’une production centralisée comme aujourd’hui, on verra se développer une production locale grâce au solaire photovoltaïque ou à l’éolien.

Les panneaux hybrides permettant d’obtenir de surcroit l’eau chaude pour le chauffage et l’ECS.

En effet, l’énergie solaire étant gratuite, il devient intéressant, pour l’usager ou des collectivités, de fabriquer sur place une partie de l’énergie dont on a besoin.

L’installation est alors raccordée au réseau pour acheter ou vendre de l’énergie selon les besoins.

Il est évident que ces installations locales de production électrique n’ont de sens que si le prix de revient du KWh est inférieur ou égal à celui du distributeur historique.

Ce n’est pas le cas aujourd’hui. Le prix de revient d’une production locale est deux à trois fois supérieur au prix de vente public du distributeur historique.

En France, sur ces deux fronts, la situation est bloquée:

La construction de centrales solaires et/ou éoliennes nécessite les autorisations de l’Etat, lequel est davantage intéressé par la poursuite du programme nucléaire.

Le développement de la production locale est pour le moment suspendue à l’évolution des tarifs d’achat par EDF. Et il n’est pas sain de développer un marché sur un effet d’aubaine nécessairement provisoire.

Ce marché est handicapé par un prix public du KWh trop faible, rendant très problématique la recherche de la parité.

Il est clair que le modèle économique qui permettra le développement des énergies nouvelles n’est pas encore au point, tout au moins en France.

La situation ne commencera à se décanter que lorsque sera prise la décision sur le nucléaire. Une décision essentiellement politique.

 

 

 

Repost 0
2 juin 2011 4 02 /06 /juin /2011 16:14

2 Juin 2011

Depuis plus d’une décennie les ondes hyperfréquences émises par les téléphones portables sont suspectées par certains de générer un risque de santé publique.

L’absence de preuves évidentes ( et quand on ne veut pas trouver de preuves, il suffit de ne pas en chercher ) n’a pas permis de freiner le développement extraordinaire de ce moyen de communication, devenu aujourd’hui incontournable. Il y aurait cinq milliards de téléphones portables, quasiment un par habitant de la planète en moyenne.

Ce formidable marché est supporté par des lobbies dont la puissance est à la mesure des enjeux financiers, ce qui a donné à l’industrie de la communication hyperfréquences le pouvoir de rejeter les accusations portées par les associations de consommateurs.

Dans la lutte du pot de terre contre le pot de fer, c’est rarement le pot de terre qui l’emporte…

En matière de risques sanitaires générés par les portables, le statut était

« Circulez, il n’y a rien à voir… »

C’est pourquoi la récente communication de l’OMS fait l’effet d’un bombe.

Voici les termes de la communication:

« The WHO/International Agency for Research on Cancer (IARC) has classified radiofrequency electromagnetic fields as possibly carcinogenic to humans (Group 2B), based on an increased risk for glioma, a malignant type of brain cancer, associated with wireless phone use. »

( L’AIRC , membre de l’OMS, a classé les champs électromagnétiques à radiofréquences comme possibles agents cancérigènes pour les humains ( Groupe 2B ), en rapport avec un risque accru de gliome, un cancer malin du cerveau, associé à l’utilisation du téléphone sans fil ).

Il n’est donc plus possible maintenant de balayer d’un revers de main les mises en garde, jusqu’à présent ignorées.

Difficile de remettre en cause le travail de l’OMS . Cette mise en examen aura au moins le mérite d’ouvrir le dossier.

En l’occurrence , le groupe 2B est choisi lorsque les preuves du caractère cancérigène sur les humains sont insuffisantes, mais que les preuves apportées par l’expérimentation animale sont suffisantes.

Un suspect éventuel est en examen, une enquête poussée va être entreprise.

En attendant les résultats de cette investigation, l’IARC recommande:

« it is important that additional research be conducted into the long-term, heavy use of mobile phones. Pending the availability of such information, it is important to take pragmatic measures to reduce exposure such as hands-free devices or texting. "

( Il est important que des recherches complémentaires soient menées sur l’utilisation intense et sur le long terme du téléphone mobile. En attendant la disponibilité d’une telle information, il est important de prendre des dispositions pratiques pour réduire l’exposition, comme l’usage du kit mains-libres ou des SMS ).

Cette prise de position de l’OMS devrait normalement déclencher une réaction en chaîne, dont les produits de désintégration sont imprévus.

Affaire à suivre…

 

 

 

Repost 0
1 juin 2011 3 01 /06 /juin /2011 18:18

1er Juin 2011

S’il y a bien en Europe des politiques énergétiques Nationales, les marchés par contre sont Européens.

Chaque pays décide de ses choix énergétiques, et pondère à sa guise les proportions attribuées au fuel, au gaz, au charbon, au nucléaire, à l’hydraulique, au solaire, à la biomasse.

Il n’existe pas ( à ce jour ) de directive Européenne imposant aux pays membres des quotas de ceci ou de cela, ou interdisant le recours à telle ou telle source d’énergie.

Les seuls engagements des pays membres concernent essentiellement trois objectifs:

- Amélioration de 20% de l’efficacité énergétique à l’horizon 2020

( objectif non contraint ).

- Réduction de 20% des émissions de GES (Gaz à Effet de Serre ) en 2020 par rapport à 1990.

- Développement des énergies renouvelables à hauteur de 20% du total, toujours à la même échéance.

Les moyens d’y parvenir sont laissés à l’initiative de chaque pays.

Parallèlement à ces engagements européens, chaque pays membre doit tenir compte du contexte énergétique mondial, susceptible d’orienter ses choix nationaux:

Le premier élément du contexte est la dépendance énergétique.

Le taux de dépendance énergétique de l’Europe est de 56% ( Eurostat ).

Pour des raisons stratégiques et financières, chaque pays souhaite réduire son taux de dépendance.

Ceci peut être réalisé de différentes façons:

Augmenter sa production d’hydrocarbures conventionnels.

S’appuyer sur l’utilisation du charbon, associée à un programme de CSC ( Capture et Séquestration du Carbone ).

Développer la part du gaz naturel, en faisant éventuellement appel au gaz de schiste.

Développer les énergies renouvelables.

Développer le nucléaire.

Parmi ces options, certaines sont grevées par la nécessité de réduire les émissions de GES.

Le second élément contextuel est la perspective d’épuisement des sources d’hydrocarbures.

Les experts prédisent une forte baisse de l’offre avant le milieu du siècle. Cette baisse de l’offre rencontrera une augmentation de la demande en provenance des pays émergents. Le résultat sera une forte pression sur les prix, accompagnée d’affrontements stratégiques pour obtenir l’accès aux sources d’approvisionnement.

Pour toutes ces raisons, une stratégie à long terme basée uniquement sur les énergies fossiles carbonées ( EFC ) serait suicidaire pour un grand pays développé .

Il faut donc impérativement envisager un avenir dans lequel ces énergies n’occuperaient qu’une place relativement marginale et tendant vers zéro à long terme.

Pour remplacer les EFC, il y a deux possibilités:

- Les énergies renouvelables .

- L’énergie nucléaire.

( Le caractère renouvelable de l’énergie nucléaire n’étant acquis que dans l’hypothèse de l’adoption de la surgénération, qui reste très controversée ).

Première remarque: ces deux sources d’énergie fournissent essentiellement de l’électricité. Or, aujourd’hui en Europe l’électricité ne représente que 20% de la consommation finale d’énergie ( 24% en France ).

L’abandon des EFC implique donc le passage au tout électrique, ce qui est une mutation considérable, largement sous estimée.

Les sources d’énergie de remplacement qui seront choisies devront donc être capables de fournir non pas 20% de l’énergie finale consommée, mais au moins 80% ( Il restera toujours une part de combustibles liquides, qui seront alors d’origine non fossile ).

C’est ce chiffre qui doit être retenu pour l’élaboration d’un plan stratégique.

Tout autre stratégie équivaudrait d’une part à un abandon de facto de la lutte contre le CO2, abandon qui serait une trahison de la stratégie planétaire contre le réchauffement, et d’autre part à un déni de l’échéance de l’épuisement des énergies fossiles, ce qui serait une manifestation d’incompétence .

Aujourd’hui, aucun Etat Européen n’a encore annoncé officiellement un retrait du programme de lutte contre le réchauffement…

Lorsque les experts estiment que les énergie solaire, éolienne et hydraulique pourront, à terme, fournir la presque totalité des besoins électriques, ils se basent sur les besoins électriques actuels. En réalité il faudra fournir quatre fois plus puisque les EFC auront fortement diminué leur contribution d’ici 2050.

La question principale devient:

« Les énergies renouvelables pourront-elles satisfaire 80% de la totalité des besoins énergétiques en consommation finale ? »

Ici les réponses n’abondent pas, elles sont même inexistantes.

La prise de conscience que l’avenir se joue entre les énergies solaire et éolienne et l’énergie nucléaire, est relativement récente. L’abandon des EFC était jusqu’à il y a peu une hypothèse d’école, une sorte de jeu du « coucou fais-moi peur », au pire une affaire lointaine que l’on pouvait sans remord repousser aux calendes grecques.

Les temps ont changé. La géopolitique s’est rappelée à notre bon souvenir pour nous faire prendre conscience que les pions peuvent bouger sur l’échiquier, et que le temps de l’énergie à bon marché allait prendre fin, que d’autres concurrents pleins d’appétits pouvaient peser sur les cours.

Deux clans se sont formés sur le thème des choix énergétiques du futur.

La pomme de discorde est l’énergie nucléaire.

Les uns considèrent que les énergies renouvelables sont la panacée. Leur philosophie ( car c’est quasiment une philosophie ) consiste à affirmer que, quels que soient les besoins, les ER y pourvoiront . Au pire, s’il y a un problème, il suffira de se serrer la ceinture énergétique.

Leur crédo est l’abandon du nucléaire, leur argument est l’inacceptabilité des risques de catastrophe, et l’absence de solution pour éliminer les déchets. Deux arguments parfaitement recevables.

Le clan d’en face réunit ceux qui ne croient pas en la toute puissance des ER. ils leurs reconnaissent de grandes possibilités, mais en aucun cas la capacité de fournir 80% de la totalité des besoins énergétiques.

Ils estiment qu’il sera indispensable de recourir à d’autres sources d’énergie que le Soleil et le vent . Et là ils se divisent en deux tendances:

D’une part ceux qui souhaitent développer les ER et compléter les besoins par les EFC ( Energies Fossiles Carbonées ), dont l’usage ira en diminuant au fur et à mesure que les ER monteront en puissance.

D’autre part ceux qui soutiennent également les ER, mais veulent recourir au nucléaire pour compléter les fournitures.

Leurs argument sont connus:

- Le nucléaire n’émet pas de CO2.

- Le nucléaire est un garant de l’indépendance énergétique.

Les arguments des uns et des autres étant tout aussi recevables, la décision ne peut être que politique.

On peut donc craindre, dans les années qui viennent, une sorte de tango rythmé par les changements de majorités politiques sur le thème du maintient ou non des recherches et du développement de réacteurs nucléaires, versus les investissements dans les énergies renouvelables.

L’Allemagne nous a déjà donné un aperçu de cette politique du pendule, il serait regrettable que l’Europe l’imite dans sa valse hésitation, ce qui serait de nature à déstabiliser les stratégies industrielles, qui ont besoin d’un terrain solide pour s’établir.

Le tango français sur le photovoltaïque nous a donné un petit aperçu des dégâts que peut causer une politique industrielle de fantaisie.

La Charte Européenne de l’Energie repose sur le principe de stratégies coordonnées des pays membres. Si chacun tire des bords de son côté, au gré des changements d’amures politiques, l’Europe de l’Energie risque de se transformer en un grand bazar inefficace et donc vulnérable.

Si la politique énergétique de l’Europe devient celle du chien crevé au fil de l’eau, il se pourrait que Noël 2050 soit éclairé à la bougie….

 

 

 

 

 

 

 

 

 

 

 

Repost 0
30 mai 2011 1 30 /05 /mai /2011 15:53

30 Mai 2011

Un réacteur nucléaire est une grosse bouilloire qui produit de la vapeur d’eau sous pression, laquelle actionne une turbine couplée à un alternateur électrique.

Conformément au principe de Carnot, cette machine thermique fonctionne avec une rendement faible, environ 33% pour un réacteur classique.

Pour une puissance utile de 900 MWe ( MégaWatts électriques), il faut donc évacuer 1 800 MW de chaleur.

Comme dans les moteurs de nos voitures, cette chaleur est évacuée par un circuit d’eau de refroidissement. Ici un échangeur permet de séparer le circuit primaire du circuit secondaire.

Sauf qu’ici, la quantité de chaleur à évacuer est colossale.

Très schématiquement il existe deux types de circuits de refroidissement:

Si on dispose d’eau en quantité illimitée, c’est le cas du bord de mer, l’eau prélevée est rejetée après passage dans un échangeur. Le réchauffement de cette eau est de quelques degrés, sans grandes conséquences pour l’environnement.

Si la centrale est construite au bord d’un fleuve, il n’est pas possible de prélever des quantités d’eau aussi importantes, on utilise alors un refroidissement par tours d’évaporation ( Aéroréfrigérants). L’eau est donc recyclée sur place, sauf une partie qui s’échappe sous forme de vapeur. Pour « refaire le plein » il faut alors prélever sur le fleuve quelques m3 par seconde « seulement » .

Ce prélèvement ( permanent ) est de l’ordre de deux à trois m3/s pour un seul réacteur, à multiplier par le nombre de réacteurs.

Des règles très strictes régissent les conditions de prélèvement d’eau. La température, la dilution des rejets, le respect des niveaux d’étiage.

En période de sécheresse, ces règles sont susceptibles d’imposer une restriction des prélèvements d’eau.

Dans ces circonstances il y a plusieurs niveaux de réaction:

- Arrêt d’une partie des réacteurs.

- Réduction de la puissance des réacteurs.

- Stockage des effluents pour éviter d’empoisonner le cours d’eau.

- Arrêt de tous les réacteurs.

Même à l’arrêt un réacteur doit être refroidi. Après la procédure d’arrêt, le réacteur continue à produire de la chaleur, environ 6% de la puissance thermique nominale en fonctionnement. Pour une unité de 900 MWe , donc 2 700 MW thermiques, la puissance résiduelle en début de procédure d’arrêt est d’environ 160 MW.

Le système de refroidissement doit être maintenu quelques temps pour évacuer cette chaleur. Mais la quantité d’eau de complément nécessaire est beaucoup plus faible, ce qui ne pose pas de problème d’approvisionnement, même si le captage doit être interrompu.

L’accident dû au manque d’eau semble donc très improbable, cette circonstance étant prévue dans le plan de conduite de la centrale, et les procédures à mettre en oeuvre parfaitement définies.

L’arrêt d’un réacteur est une procédure courante parfaitement maîtrisée.

L’inconvénient majeur reste donc le déficit de fourniture électrique.

Sur les 58 réacteurs français, 14 sont en bord de mer, 4 ( Le Blayais ) en bord d’estuaire, et 40 aux bord de cours d’eau.

Parmi les 40 réacteurs installés en bord de cours d’eau, un certain nombre sont susceptibles de devoir être arrêtés, ou fortement ralentis, par manque d’eau.

Selon l’Observatoire du Nucléaire, 22 réacteurs seraient ainsi concernés, dans 8 centrales: Golfech, Civaux, Belleville, Dampierre, Saint-Laurent, Chinon, Shooz, et Catternom.

C’est donc jusqu’à 30% de la production électrique qui est vulnérable à une sècheresse sévère.

EDF met en œuvre un plan de gestion de la crise potentielle:

- Optimisation de la maintenance des centrales de bord de mer, afin d’en obtenir le maximum dans la période critique.

- Réduction de 20% de la production de certaines centrales hydroélectriques, afin de garder une bonne réserve d’eau pour les centrales nucléaires qui sont en aval.

Le Gouvernement a mis en place une cellule de crise réunissant tous les acteurs de la filière, afin de suivre en temps réel la situation de la production électrique, et de mettre en œuvre un plan d’urgence adapté à la situation.

Le recours à des importations paraît compromis, eu égard aux dispositions prises en Allemagne et dans d’autres pays limitrophes.

Ce plan d’urgence pourrait donc s’orienter vers des mesures contraignantes d’économies d’énergie électrique, voire même d’interdiction d’utiliser certains matériels comme les climatiseurs, et en dernier recours, l’interruption programmée des fournitures.

Il serait surprenant de devoir notre salut électrique à quelques vieilles centrales promises à la casse il n’y a pas si longtemps…

 

 

 

 

 

 

 

 

 

 

Repost 0
28 mai 2011 6 28 /05 /mai /2011 10:26

27 Mai 2011

La radioactivité a mauvaise presse, au sens propre du terme, car les médias l’évoquent le plus souvent dans les contextes de son usage dans les centrales nucléaires, ou pour des applications militaires, ou encore en raison de la pollution qu’elle provoque.

La RNTR ( Radioactivité Naturelle Technologiquement Renforcée ) fait désormais partie des paramètres environnementaux critiques sous surveillance des autorités de santé publique.

Il est temps de nuancer quelque peu cette image en rappelant l’importance de l’usage thérapeutique des radionucléides, qui sauvent des dizaines de milliers de vies chaque année.

Dès que le pouvoir destructeur des rayons ionisants sur la cellule vivante furent connus, la médecine tenta de les utiliser pour éliminer les cellules indésirables de l’organisme, particulièrement les cellules cancéreuses.

Les rayons ionisants communément émis lors des désintégrations de radionucléides sont essentiellement des photons Gamma, des particules Beta ( Electrons et positrons ) ou des particules Alpha ( Noyau d’Hélium ).

Ces particules sont émises avec des énergies très diverses et des effets spécifiques sur l’organisme.

Un peu comme les projectiles utilisés par les armées :

La balle de fusil de dix grammes propulsée à 900 m/s n’a pas du tout le même effet ni la même portée qu’une grenade de 300 grammes lancée à dix mètres.

Les particules Alpha sont peu dangereuses à l’extérieur. Elles sont stoppées par une simple feuille de papier, ou par la peau, qui est un bon gilet pare-balle pour la circonstance. Par contre, lorsqu’elles sont générées par un radionucléide à l’intérieur du corps ( inhalation ou ingestion ) elles causent des dégâts considérables sur les cellules dans leur proximité ( une fraction de mm ).

Leur radio toxicité est vingt fois supérieure à celle des autres particules, il est donc essentiel de savoir cibler exactement les cellules à atteindre, ce qu’on ne sait faire que depuis peu.

C’est pourquoi elles n’ont pas ( ou très peu ) été utilisées en radiothérapie jusqu’à présent car le remède aurait tué le malade !

Notons au passage que notre corps est radioactif, à cause du Potassium 40 et du Carbone 14 qu’il contient, nous émettons environ 5 000 Becquerels !

Nous supportons cela très bien car ces deux radionucléides n’émettent pas de particules Alpha, ils se contentent de particules Beta, sinon nous ne serions plus là pour en parler.

 

 

Les photons Gamma ayant peu d’interaction avec les cellules, il reste les particules Beta pour tâcher de détruire les tumeurs sans trop de dommages collatéraux pour le malade.

La stratégie consiste à porter dans ou à proximité de la tumeur à détruire, un radionucléide présentant une radioactivité Beta, et de durée de vie pas trop longue afin de disparaitre de l’organisme assez rapidement.

Les munitions sont variées:

Iode 131, Yttrium 90, Samarium 153, Lutetium 177, Strontium 89, Irridium 192, et quelques autres.

Ces produits émettent également des photons Gamma, sauf Yttrium 90 qui n’émet que des Beta.

Ce sont les Beta qui sont intéressants ici.

Le challenge dans ce combat est de réaliser, au sens propre, une frappe chirurgicale, pour éviter le plus possible des dégâts collatéraux.

Diverses méthodes ont été utilisées, dont la description n’est pas dans notre propos. La méthode moderne consiste à « vectoriser » l’élément radioactif en l’associant à un anticorps spécifique de la tumeur à traiter.

Le produit est mis en solution et injecté dans l’organisme. Les anticorps monoclonaux servent de véhicule à l’élément radioactif , ce qui permet de limiter le traitement à la zone malade, avec des atteintes périphériques limitées.

Bien sûr ceci est un raccourci un peu abusif, mais c’est l’idée.

La bonne maîtrise des méthodes de vectorisation des radionucléides a permis d’envisager l’utilisation plus large des particules Alpha, jusqu’alors manipulées avec parcimonie à cause de leur grande toxicité. Des travaux de validation sont en cours dans le cadre d’un projet Européen.

 

 

 

http://gfme.free.fr/ 

Ce petit aperçu de l’usage bénéfique de la radioactivité avait simplement pour but de montrer que derrière un Mister Hyde il y a toujours un Docteur Jekyll.

 

 

 

 

Repost 0
24 mai 2011 2 24 /05 /mai /2011 20:21

26 Mai 2011

Pour le démographe, la mort est une affaire de statistiques. Une seule certitude, au-delà de cent-vingt ans la probabilité de mourir est égale à l’unité. A la naissance nous disposons d’un capital variable qui nous confère une longévité probable que les démographes savent estimer.

Entre zéro et cent-vingt ans, divers évènements jalonnent notre existence, qui affectent notre longévité probable, et que les spécialistes appellent « facteurs de risques », accidents, maladies, facteurs héréditaires, alimentation, mauvaises pratiques, exposition à des dangers, etc…

Une partie de notre existence se passe à essayer de minimiser le plus possible ces fameux facteurs de risques, sachant qu’il y a un équilibre à trouver pour jouir de la vie sans brûler la chandelle par les deux bouts.

La prévention des risques est devenue une préoccupation nationale à laquelle les autorités accordent une grande importance, eu égard à l’augmentation des dangers auxquels la société moderne nous expose.

Ces temps-ci, il est un facteur de risque qui tient le devant de la scène, c’est la radioactivité.

Certains ont découvert récemment que nous sommes en permanence baignés par un flot de radiations ionisantes dites « naturelles » , considérées comme inoffensives, ce qui est un raccourci osé.

Certes l’Homme a vécu de tout temps avec ces radiations, il est devenu ce qu’il est malgré elles, c’est donc qu’elles sont bien tolérées. C’est un raisonnement un peu spécieux, car qui peut dire ce que l’Homme serait devenu sans ces radiations ?

Toujours est-il que le niveau de ces radiations naturelles est considéré comme une norme parfaitement acceptable.

Sa valeur moyenne, en France, est égale à 2,4 milli sievert ( mSv ) par an , avec une assez grande variabilité selon les régions, jusqu’à 20 mSv/an.

Persistant dans le même raisonnement ( abusif ) qui postule l’innocuité des radiations naturelles, la communauté scientifique en a déduit que les faibles doses de radiation sont inoffensives, même si elles ne sont pas naturelles.

A la décharge des spécialistes, il faut reconnaître qu’il est très difficile de caractériser un cancer radio induit, sinon par des études épidémiologiques très longues ( un cancer se déclare souvent des dizaines d’années après l’exposition ), encore faut-il avoir envie de chercher…

Mais tout cela est en train de changer. La science progresse, et dispose maintenant de résultats d’études épidémiologiques longues. La prévention des risques d’exposition à la radioactivité ( Radioprotection ) fait l’objet de conventions internationales, les effets des radiations ionisantes sont de mieux en mieux connus, et l’on sort d’un domaine approximatif pour entrer dans une science précise et bien documentée.

L’un des premiers résultats mis en avant par les études récentes est la remise en question de la notion de faibles doses inoffensives.

Ce changement de paradigme entraîne la nécessité de revoir les bases de l’évaluation des risques et de la radioprotection.

Le concept de seuils, dont les valeur étaient souvent tirées d’un chapeau, est remplacé par la stratégie ALARA ( As Low As Reasonnably Achievable ), aussi faible que raisonnablement possible.

Reconnaissons que ce n’est pas encore parfait, on remplace un seuil dont la valeur est discutable, par un « raisonnablement possible », tout aussi discutable.

Mais c’est un pas important dans la prise en compte du risque représenté par l’exposition aux faibles doses, autrefois noyé dans le bruit de fond des radiations naturelles.

Désormais la radioactivité technologiquement renforcée ( RNTR ) devient un facteur de risque de santé publique, qui doit être considéré avec autant de sérieux que l’amiante, l’Ozone, le Mercure, le Plomb, les nanoparticules, les oxydes d’Azote, les nitrates, les métaux lourds, l’automobile, et autres pollutions faisant l’objet de surveillance et de règlementations.

Les sources de pollution radioactive technologiquement renforcée sont nombreuses, et souvent négligées car leur niveau pris séparément est souvent inférieur à des fameux seuils fixés arbitrairement.

Mais l’effet des petites doses est cumulatif, et globalement l’exposition peut atteindre des niveaux étonnants.

Chacun d’entre nous est exposé aux radiations ionisantes d’une multitude d’éléments présents dans l’air, dans l’eau de consommation, dans les aliments, légumes, œufs, viandes, poissons, fruits de mer, vins, dans les bâtiments, dehors, sur certaines plages, et ceci en parfaite méconnaissance des risques.

Sait-on par exemple qu’un cure de 21 jours en certaines stations thermales équivaut à une dose efficace de plus de 2 mSv, soit pratiquement le doublement de la dose moyenne «normalisée »  ?

Sait-on que certaines eaux minérales sont assez fortement radioactives jusqu’à entraîner des doses supérieures à 1 mSv/an si elles sont consommées exclusivement ?

Sait-on que, en certaines régions, des bâtiments présentent une radioactivité supérieure à 1000 Bq/m3 ?

On pourrait ainsi remplir des pages d’exemples édifiants.

Aujourd’hui en France, les normes en vigueur sont toujours définies par des seuils ( il faut bien donner des chiffres ):

La CRIIRAD nous donne par exemple le critère statistique suivant:

Une exposition de 6 mSv/an est susceptible de causer 24 décès par cancer dans une population de 100 000 personnes. Ce qui fait quand même 1 440 décès sur la population française.

Bien sûr les statisticiens feront remarquer que les maladies cardiovasculaires tuent 180 000 personnes par an, et le cancer 147 000, ce qui relativise sérieusement le risque radioactif.

Les mauvaises langues ne manqueront pas de mettre en doute les chiffres de la CRIIRAD, arguant que si l’on ne sait pas caractériser un cancer radio induit, alors on ne sait pas non plus donner son facteur de mortalité.

Et elles n’auront pas tout à fait tort.

Les prochaines années nous réservent de belles discussions sur ce sujet….

 

 

 

 

Repost 0
22 mai 2011 7 22 /05 /mai /2011 15:36

22 Mai 2011

L’Administration Française est riche d’une pléthore de Commissions Nationales, de Hautes Autorités, d’Instituts Nationaux, parmi lesquels figure la CNDP ( Commission Nationale du Débat Public ).

C’est une institution créée en 1995 par la Loi Barnier, relative au renforcement de la protection de l’environnement, et mise en place en 1997. Transformée en Autorité Administrative Indépendante en 2002.

C’est un dispositif de participation du public au processus

décisionnel en ce qui concerne les grandes opérations publiques d’aménagement d’intérêt national.

La CNDP peut faire l’objet de saisines de la part du Ministre, du Maître d’œuvre, d’associations de défense de l’environnement, ou de tout autre corps constitué.

Si la saisine est prise en compte, une CPDP ( Commission Particulière du Débat Public) est alors constituée, qui sera chargée d’instruire le dossier et d’organiser éventuellement des débats publics pour l’information et la consultation des demandeurs et des usagers.

C’est à ce genre de prestation que nous sommes régulièrement conviés lorsqu’il s’agit d’exposer aux français les tenants et les aboutissants de quelque grand projet national, régional, et parfois local ( LGV, centrale nucléaire, autoroute, parc éolien, etc…).

La Commission n’ayant pas qualité pour se prononcer sur le fond des problèmes, les débats sont en fait de grandes opérations de communication. L’aspect « participation du public au processus décisionnel » est encore très peu développé, mais cela peut changer dans l’avenir.

Ces débats publics pourraient donc être considérés comme de pure forme et sans intérêt.

Ce n’est pas tout à fait le cas.

D’abord, ils sont l’occasion de rencontrer des représentants de tous les niveaux de responsabilité dans le projet en question, des experts relativement indépendants, du maître d’œuvre, de la DGEC ( Direction Générale de l’Energie et du Climat ), et de l’Administration, ce qui permet de couvrir la totalité des aspects du problème ( sauf celui de la décision, qui n’est pas dans les attributions de la CNDP).

Ensuite, de nombreux exposés techniques de qualité permettent aux usagers qui le désirent d’acquérir une bonne connaissance du sujet.

De plus, il est fréquent que le débat fasse surgir des problèmes dont la solution nécessite des expertises et/ou des études complémentaires, qui sont alors diligentées par la commission.

Enfin, les débats font l’objet de comptes rendus et de rapports publics, dont le contenu est disponible sur Internet.

La participation aux débats est également possible en ligne.

Il est évident que la qualité des débats dépend fortement de la qualité du public au sens large, puisque c’est à partir des questions de l’auditoire que se construit le dossier et que peuvent surgir les éléments nouveaux.

Or le public est souvent très clairsemé , essentiellement constitué par des représentants des principales associations de défense de l’environnement, Internationales, nationales ou locales, et/ou de partis politiques.

Si l’on prend l’exemple le plus emblématique du climat de ces dernières années, le débat public sur la construction du réacteur EPR de Penly3, l’assistance aux débats n’a jamais dépassé la centaine de personnes, alors que plusieurs millions d’individus sont concernés.

On peut se demander pourquoi si peu d’intérêt pour ce qu’il faut bien appeler la démocratie directe, alors que par ailleurs les associations de défense de l’environnement sont si promptes à monter aux créneaux pour exiger un référendum.

Il est vrai que le cas du nucléaire est particulier. On est pour ou contre, sans nuances, ce qui exclut d’avance tout débat, et justifie peut-être, sans l’excuser, le très faible taux de participation aux réunions publiques.

Le débat public sur l’éolien off-shore a été plus ouvert, car non biaisé au départ par une position catégorique de refus.

La démocratie participative suppose la participation…

Le lecteur intéressé pourra trouver les détails ici:

 

 

 

http://www.debatpublic.fr/ 

Projets examinés/ 01/07/2009 Projet Penly 3

Projets examinés/

07/10/2009

Projet de parc éolien en mer des Deux côtes

 

 

 

Repost 0
20 mai 2011 5 20 /05 /mai /2011 16:17

20 Mai 2011

La grande farce du marché pseudo concurrentiel de la distribution de l’électricité se met en place.

EDF est donc tenue de vendre des MWh à des entreprises commerciales, qui nous les revendront au prix règlementé, le tout dans une ambiance factice de concurrence pure et parfaite chère aux économistes distingués.

Concrètement cela revient à superposer au service commercial EDF une entreprise commerciale parasite qui revendra la production EDF, en se sucrant au passage comme toute entreprise privée.

Ce nouveau marché porte le doux nom de ARENH ( Accès Régulé à l’Electricité Nucléaire Historique ).

Les fournisseurs alternatifs ( le nom est bien choisi ) auront accès à 100 TWh/an d’électricité d’origine nucléaire.

( Notons au passage que ce « deal » implique que l’électricité nucléaire restera une denrée pérenne, la sortie du nucléaire n’est donc pas au programme).

Ce montage commercial scabreux se complique d’une difficulté que la concurrence pure et parfaite ignore: en France, le prix de l’électricité ne se marchande pas comme un panier au souk de Marrakech.

Les tarifs sont règlementés par la CRE ( Commission de Régulation de l’Energie), et fixés à un niveau qui correspond à la fourchette basse des pays développés ( 10 à 12 centimes le KWh grand public), carrément la moitié des tarifs pratiqués par exemple en Allemagne, Italie, danemark, qui sont entre 20 et 23 centimes le Kwh.

Les bas tarifs français sont le résultat d’une politique règlementée de service public de l’énergie, soutenue par une entreprise ( EDF ) qui, malgré son statut de société anonyme, a passé avec l’Etat un contrat de service public de durée indéterminée.

Ces tarifs publics avantageux, s’ils intéressent les usagers, sont par ailleurs un frein au développement des énergies durables, qui ne peuvent garantir des prix aussi bas.

Les fournisseurs alternatifs sont bien obligés de respecter ces tarifs règlementés. Pour se ménager des marges confortables, ils cherchent donc à obtenir d’EDF des prix les plus bas possibles.

Les récents marchandages ont abouti aux tarifs suivants:

4 centimes le KWh à partir du 1er Juillet 2011.

4,2 centimes le KWh à partir du 1er Janvier 2012.

Pour atteindre si possible 4,5 centimes en 2015.

( Les acheteurs avaient demandé 3,5 centimes )

Il est aisé de calculer le manque à gagner pour EDF, si le quota de 100 TWh est atteint, il s’agit de 8 milliards d’euros par an.

Et ceci au moment où l’on parle d’arrêt de centrales nucléaires et de démantèlement d’icelles.

Chers amis, il va falloir mettre la main à la poche.

Au fait, quel est la part du coût de construction d’un réacteur nucléaire dans le prix du KWh ?

Le petit dernier, genre Flamanville 3, est bien parti pour nous coûter la modeste somme de 6 milliards d’euros ( hors frais financiers).

D’une puissance électrique de 1 650 MW, il fournira environ 12 TWh/an.

En trente années de bons et loyaux services il aura fourni 360 TWh.

Ce qui nous fait le KWh à 1,7 centimes d’euros.

Pour avoir le coût de revient final ( du réacteur en ordre de marche) il faut ajouter différentes choses:

- Les frais financiers relatifs aux emprunts.

- Les remises à niveau indispensables.

- La maintenance et les réparations.

Last, but not least, il faut compter en plus :

- Le démantèlement.

- Le stockage et le traitement des déchets.

Ceci pour la partie production.

Le prix de revient du KWh EDF s’obtient en ajoutant les coûts des infrastructures du réseau de distribution, de la recherche et du développement, et de tous les frais habituels d’une entreprise de cette envergure.

Le prix de revient, hors démantèlement, ne doit pas être de beaucoup inférieur aux 4 centimes /KWh consenti aux fournisseurs alternatifs.

Cette opération risque de nous coûter fort cher…

Quant au coût du démantèlement, personne n’ose avancer une somme.

J’ai consulté Mme Soleil, qui m’a prédit des augmentations très conséquentes du tarif public de l’électricité. Les spécialistes parlent d’un doublement.

Ces augmentations des tarifs sont souhaitées par les professionnels pour plusieurs raisons:

- D’abord ils estiment nécessaire de pratiquer la vérité des prix, arguant qu’on ne peut continuer longtemps à subventionner l’énergie.

- Ensuite, ils voient d’un bon œil un KWh à 25 centimes, qui inciterait les usagers à recourir aux énergies durables, ce qui relancerait la filière.

- Enfin, un tarif élevé n’est-il pas la meilleure manière d’inciter l’usager à modérer ses appétits ?

 

 

 

 

 

 

 

 

Repost 0
16 mai 2011 1 16 /05 /mai /2011 18:35

16 Mai 2011


Les phosphates et les nitrates bien connus sont les rejetons de l’agriculture et de l’élevage intensifs.


Rejetés inconsidérément dans la nature, ils se retrouvent dans l’eau des rivières puis dans la mer, où ils suscitent une croissance exubérante des algues vertes.


Cette pollution empoisonnée fait la une des médias et pose le problème de l’harmonisation entre l’exploitation rentable des sols et les exigences du respect de l’environnement.


Ce fléau est souvent attribué aux seuls nitrates, mais les phosphates jouent un rôle au moins aussi important.


Au-delà de la nuisance visible, malodorante et toxique constituée par les algues pourrissantes, il est une autre nuisance, bien plus dangereuse, mais invisible, dont ces produits sont responsables, c’est la radioactivité.


Nous allons parler du rôle des phosphates.


Le minerai à partir duquel on obtient des engrais phosphatés, est en général un phosphate de Calcium. Il existe en abondance dans différentes régions du globe.


Comme tout ce qu’on extrait du sol, ce minerai contient de l’Uranium, et bien sûr tous les éléments de la série des désintégrations correspondantes.


Ici les quantités d’Uranium commencent à être intéressantes, au point que des tentatives pour l’extraire de manière industrielle ont été tentées, mais non rentables aujourd’hui.


Les minerais de phosphates du bassin méditerranéen présentent une activité de 5 à 10 000 Bq/kg, ce qui est déjà un bon chiffre.


Ce minerai est d’abord traité avec de l’acide sulfurique pour obtenir de l’acide phosphorique, à partir duquel sont fabriqués les engrais.


Le déchet de cette opération est le phosphogypse, qui est un précipité de sulfate de calcium hydraté ( Ca SO4 (H2O)2 ).


C’est un déchet radioactif  très encombrant: La production de une tonne d’acide phosphorique génère cinq tonnes de phosphogypse.


Dans les années 80, la France a ainsi « produit » chaque année 6 millions de tonnes de phosphogypse ( 60 Mt dans le monde ). Les principaux centre de production étaient Grand Quevilly, Grand Couronne, le Havre, Tarnos, Boucau….


Le sort de ces déchets radioactifs n’a fait l’objet d’aucune attention particulière, ils ont été soit rejetés en mer ou dans des cours d’eau, soit stockés sous forme de terrils sans précaution vis-à-vis de l’environnement.


Il y a donc deux sources de pollution radioactive :


- Les terrils et crassiers ( on parle quand même de 13 millions de tonnes) qui distillent leur poison au gré des lessivages des pluies.


- Les sédiments des fonds marins des zones de rejets, qui transmettent leur radioactivité aux poissons brouteurs, crustacés, moules.


Par exemple, l’usine de Boucau rejetait annuellement 270 000 tonnes de phosphogypse directement dans la mer. La Soferti, de Bordeaux, rejetait annuellement 113 000 t en Garonne. Etc…


Actuellement les rejets en mer sont en principe interdits.


Les énormes quantités stockées à terre n’ont pas manqué de susciter des tentatives de valorisation dans divers secteurs:


- Incorporation aux ciments et plâtres.


- Matériaux de construction.


- Construction des routes.


- Matériau de remblais.


Ce qui paraît incompatible avec le classement TFA ( déchets Très Faiblement Radioactifs ) qui les placent avec les déchets de démantèlement des centrales nucléaires.


Les stocks de phosphogypse constituent une bombe à retardement ( une de plus ) dont il faudra s’occuper un jour ou l’autre.


En attendant, il est vivement conseillé d’éviter de consommer des produits de la mer provenant d’anciens sites littoraux de déversement de phosphogypse, et de construire sa maison à proximité d’un site de stockage.



 



 


 


 

 
Repost 0