Overblog Suivre ce blog
Administration Créer mon blog
30 mai 2011 1 30 /05 /mai /2011 15:53

30 Mai 2011

Un réacteur nucléaire est une grosse bouilloire qui produit de la vapeur d’eau sous pression, laquelle actionne une turbine couplée à un alternateur électrique.

Conformément au principe de Carnot, cette machine thermique fonctionne avec une rendement faible, environ 33% pour un réacteur classique.

Pour une puissance utile de 900 MWe ( MégaWatts électriques), il faut donc évacuer 1 800 MW de chaleur.

Comme dans les moteurs de nos voitures, cette chaleur est évacuée par un circuit d’eau de refroidissement. Ici un échangeur permet de séparer le circuit primaire du circuit secondaire.

Sauf qu’ici, la quantité de chaleur à évacuer est colossale.

Très schématiquement il existe deux types de circuits de refroidissement:

Si on dispose d’eau en quantité illimitée, c’est le cas du bord de mer, l’eau prélevée est rejetée après passage dans un échangeur. Le réchauffement de cette eau est de quelques degrés, sans grandes conséquences pour l’environnement.

Si la centrale est construite au bord d’un fleuve, il n’est pas possible de prélever des quantités d’eau aussi importantes, on utilise alors un refroidissement par tours d’évaporation ( Aéroréfrigérants). L’eau est donc recyclée sur place, sauf une partie qui s’échappe sous forme de vapeur. Pour « refaire le plein » il faut alors prélever sur le fleuve quelques m3 par seconde « seulement » .

Ce prélèvement ( permanent ) est de l’ordre de deux à trois m3/s pour un seul réacteur, à multiplier par le nombre de réacteurs.

Des règles très strictes régissent les conditions de prélèvement d’eau. La température, la dilution des rejets, le respect des niveaux d’étiage.

En période de sécheresse, ces règles sont susceptibles d’imposer une restriction des prélèvements d’eau.

Dans ces circonstances il y a plusieurs niveaux de réaction:

- Arrêt d’une partie des réacteurs.

- Réduction de la puissance des réacteurs.

- Stockage des effluents pour éviter d’empoisonner le cours d’eau.

- Arrêt de tous les réacteurs.

Même à l’arrêt un réacteur doit être refroidi. Après la procédure d’arrêt, le réacteur continue à produire de la chaleur, environ 6% de la puissance thermique nominale en fonctionnement. Pour une unité de 900 MWe , donc 2 700 MW thermiques, la puissance résiduelle en début de procédure d’arrêt est d’environ 160 MW.

Le système de refroidissement doit être maintenu quelques temps pour évacuer cette chaleur. Mais la quantité d’eau de complément nécessaire est beaucoup plus faible, ce qui ne pose pas de problème d’approvisionnement, même si le captage doit être interrompu.

L’accident dû au manque d’eau semble donc très improbable, cette circonstance étant prévue dans le plan de conduite de la centrale, et les procédures à mettre en oeuvre parfaitement définies.

L’arrêt d’un réacteur est une procédure courante parfaitement maîtrisée.

L’inconvénient majeur reste donc le déficit de fourniture électrique.

Sur les 58 réacteurs français, 14 sont en bord de mer, 4 ( Le Blayais ) en bord d’estuaire, et 40 aux bord de cours d’eau.

Parmi les 40 réacteurs installés en bord de cours d’eau, un certain nombre sont susceptibles de devoir être arrêtés, ou fortement ralentis, par manque d’eau.

Selon l’Observatoire du Nucléaire, 22 réacteurs seraient ainsi concernés, dans 8 centrales: Golfech, Civaux, Belleville, Dampierre, Saint-Laurent, Chinon, Shooz, et Catternom.

C’est donc jusqu’à 30% de la production électrique qui est vulnérable à une sècheresse sévère.

EDF met en œuvre un plan de gestion de la crise potentielle:

- Optimisation de la maintenance des centrales de bord de mer, afin d’en obtenir le maximum dans la période critique.

- Réduction de 20% de la production de certaines centrales hydroélectriques, afin de garder une bonne réserve d’eau pour les centrales nucléaires qui sont en aval.

Le Gouvernement a mis en place une cellule de crise réunissant tous les acteurs de la filière, afin de suivre en temps réel la situation de la production électrique, et de mettre en œuvre un plan d’urgence adapté à la situation.

Le recours à des importations paraît compromis, eu égard aux dispositions prises en Allemagne et dans d’autres pays limitrophes.

Ce plan d’urgence pourrait donc s’orienter vers des mesures contraignantes d’économies d’énergie électrique, voire même d’interdiction d’utiliser certains matériels comme les climatiseurs, et en dernier recours, l’interruption programmée des fournitures.

Il serait surprenant de devoir notre salut électrique à quelques vieilles centrales promises à la casse il n’y a pas si longtemps…

 

 

 

 

 

 

 

 

 

 

Repost 0
28 mai 2011 6 28 /05 /mai /2011 10:26

27 Mai 2011

La radioactivité a mauvaise presse, au sens propre du terme, car les médias l’évoquent le plus souvent dans les contextes de son usage dans les centrales nucléaires, ou pour des applications militaires, ou encore en raison de la pollution qu’elle provoque.

La RNTR ( Radioactivité Naturelle Technologiquement Renforcée ) fait désormais partie des paramètres environnementaux critiques sous surveillance des autorités de santé publique.

Il est temps de nuancer quelque peu cette image en rappelant l’importance de l’usage thérapeutique des radionucléides, qui sauvent des dizaines de milliers de vies chaque année.

Dès que le pouvoir destructeur des rayons ionisants sur la cellule vivante furent connus, la médecine tenta de les utiliser pour éliminer les cellules indésirables de l’organisme, particulièrement les cellules cancéreuses.

Les rayons ionisants communément émis lors des désintégrations de radionucléides sont essentiellement des photons Gamma, des particules Beta ( Electrons et positrons ) ou des particules Alpha ( Noyau d’Hélium ).

Ces particules sont émises avec des énergies très diverses et des effets spécifiques sur l’organisme.

Un peu comme les projectiles utilisés par les armées :

La balle de fusil de dix grammes propulsée à 900 m/s n’a pas du tout le même effet ni la même portée qu’une grenade de 300 grammes lancée à dix mètres.

Les particules Alpha sont peu dangereuses à l’extérieur. Elles sont stoppées par une simple feuille de papier, ou par la peau, qui est un bon gilet pare-balle pour la circonstance. Par contre, lorsqu’elles sont générées par un radionucléide à l’intérieur du corps ( inhalation ou ingestion ) elles causent des dégâts considérables sur les cellules dans leur proximité ( une fraction de mm ).

Leur radio toxicité est vingt fois supérieure à celle des autres particules, il est donc essentiel de savoir cibler exactement les cellules à atteindre, ce qu’on ne sait faire que depuis peu.

C’est pourquoi elles n’ont pas ( ou très peu ) été utilisées en radiothérapie jusqu’à présent car le remède aurait tué le malade !

Notons au passage que notre corps est radioactif, à cause du Potassium 40 et du Carbone 14 qu’il contient, nous émettons environ 5 000 Becquerels !

Nous supportons cela très bien car ces deux radionucléides n’émettent pas de particules Alpha, ils se contentent de particules Beta, sinon nous ne serions plus là pour en parler.

 

 

Les photons Gamma ayant peu d’interaction avec les cellules, il reste les particules Beta pour tâcher de détruire les tumeurs sans trop de dommages collatéraux pour le malade.

La stratégie consiste à porter dans ou à proximité de la tumeur à détruire, un radionucléide présentant une radioactivité Beta, et de durée de vie pas trop longue afin de disparaitre de l’organisme assez rapidement.

Les munitions sont variées:

Iode 131, Yttrium 90, Samarium 153, Lutetium 177, Strontium 89, Irridium 192, et quelques autres.

Ces produits émettent également des photons Gamma, sauf Yttrium 90 qui n’émet que des Beta.

Ce sont les Beta qui sont intéressants ici.

Le challenge dans ce combat est de réaliser, au sens propre, une frappe chirurgicale, pour éviter le plus possible des dégâts collatéraux.

Diverses méthodes ont été utilisées, dont la description n’est pas dans notre propos. La méthode moderne consiste à « vectoriser » l’élément radioactif en l’associant à un anticorps spécifique de la tumeur à traiter.

Le produit est mis en solution et injecté dans l’organisme. Les anticorps monoclonaux servent de véhicule à l’élément radioactif , ce qui permet de limiter le traitement à la zone malade, avec des atteintes périphériques limitées.

Bien sûr ceci est un raccourci un peu abusif, mais c’est l’idée.

La bonne maîtrise des méthodes de vectorisation des radionucléides a permis d’envisager l’utilisation plus large des particules Alpha, jusqu’alors manipulées avec parcimonie à cause de leur grande toxicité. Des travaux de validation sont en cours dans le cadre d’un projet Européen.

 

 

 

http://gfme.free.fr/ 

Ce petit aperçu de l’usage bénéfique de la radioactivité avait simplement pour but de montrer que derrière un Mister Hyde il y a toujours un Docteur Jekyll.

 

 

 

 

Repost 0
24 mai 2011 2 24 /05 /mai /2011 20:21

26 Mai 2011

Pour le démographe, la mort est une affaire de statistiques. Une seule certitude, au-delà de cent-vingt ans la probabilité de mourir est égale à l’unité. A la naissance nous disposons d’un capital variable qui nous confère une longévité probable que les démographes savent estimer.

Entre zéro et cent-vingt ans, divers évènements jalonnent notre existence, qui affectent notre longévité probable, et que les spécialistes appellent « facteurs de risques », accidents, maladies, facteurs héréditaires, alimentation, mauvaises pratiques, exposition à des dangers, etc…

Une partie de notre existence se passe à essayer de minimiser le plus possible ces fameux facteurs de risques, sachant qu’il y a un équilibre à trouver pour jouir de la vie sans brûler la chandelle par les deux bouts.

La prévention des risques est devenue une préoccupation nationale à laquelle les autorités accordent une grande importance, eu égard à l’augmentation des dangers auxquels la société moderne nous expose.

Ces temps-ci, il est un facteur de risque qui tient le devant de la scène, c’est la radioactivité.

Certains ont découvert récemment que nous sommes en permanence baignés par un flot de radiations ionisantes dites « naturelles » , considérées comme inoffensives, ce qui est un raccourci osé.

Certes l’Homme a vécu de tout temps avec ces radiations, il est devenu ce qu’il est malgré elles, c’est donc qu’elles sont bien tolérées. C’est un raisonnement un peu spécieux, car qui peut dire ce que l’Homme serait devenu sans ces radiations ?

Toujours est-il que le niveau de ces radiations naturelles est considéré comme une norme parfaitement acceptable.

Sa valeur moyenne, en France, est égale à 2,4 milli sievert ( mSv ) par an , avec une assez grande variabilité selon les régions, jusqu’à 20 mSv/an.

Persistant dans le même raisonnement ( abusif ) qui postule l’innocuité des radiations naturelles, la communauté scientifique en a déduit que les faibles doses de radiation sont inoffensives, même si elles ne sont pas naturelles.

A la décharge des spécialistes, il faut reconnaître qu’il est très difficile de caractériser un cancer radio induit, sinon par des études épidémiologiques très longues ( un cancer se déclare souvent des dizaines d’années après l’exposition ), encore faut-il avoir envie de chercher…

Mais tout cela est en train de changer. La science progresse, et dispose maintenant de résultats d’études épidémiologiques longues. La prévention des risques d’exposition à la radioactivité ( Radioprotection ) fait l’objet de conventions internationales, les effets des radiations ionisantes sont de mieux en mieux connus, et l’on sort d’un domaine approximatif pour entrer dans une science précise et bien documentée.

L’un des premiers résultats mis en avant par les études récentes est la remise en question de la notion de faibles doses inoffensives.

Ce changement de paradigme entraîne la nécessité de revoir les bases de l’évaluation des risques et de la radioprotection.

Le concept de seuils, dont les valeur étaient souvent tirées d’un chapeau, est remplacé par la stratégie ALARA ( As Low As Reasonnably Achievable ), aussi faible que raisonnablement possible.

Reconnaissons que ce n’est pas encore parfait, on remplace un seuil dont la valeur est discutable, par un « raisonnablement possible », tout aussi discutable.

Mais c’est un pas important dans la prise en compte du risque représenté par l’exposition aux faibles doses, autrefois noyé dans le bruit de fond des radiations naturelles.

Désormais la radioactivité technologiquement renforcée ( RNTR ) devient un facteur de risque de santé publique, qui doit être considéré avec autant de sérieux que l’amiante, l’Ozone, le Mercure, le Plomb, les nanoparticules, les oxydes d’Azote, les nitrates, les métaux lourds, l’automobile, et autres pollutions faisant l’objet de surveillance et de règlementations.

Les sources de pollution radioactive technologiquement renforcée sont nombreuses, et souvent négligées car leur niveau pris séparément est souvent inférieur à des fameux seuils fixés arbitrairement.

Mais l’effet des petites doses est cumulatif, et globalement l’exposition peut atteindre des niveaux étonnants.

Chacun d’entre nous est exposé aux radiations ionisantes d’une multitude d’éléments présents dans l’air, dans l’eau de consommation, dans les aliments, légumes, œufs, viandes, poissons, fruits de mer, vins, dans les bâtiments, dehors, sur certaines plages, et ceci en parfaite méconnaissance des risques.

Sait-on par exemple qu’un cure de 21 jours en certaines stations thermales équivaut à une dose efficace de plus de 2 mSv, soit pratiquement le doublement de la dose moyenne «normalisée »  ?

Sait-on que certaines eaux minérales sont assez fortement radioactives jusqu’à entraîner des doses supérieures à 1 mSv/an si elles sont consommées exclusivement ?

Sait-on que, en certaines régions, des bâtiments présentent une radioactivité supérieure à 1000 Bq/m3 ?

On pourrait ainsi remplir des pages d’exemples édifiants.

Aujourd’hui en France, les normes en vigueur sont toujours définies par des seuils ( il faut bien donner des chiffres ):

La CRIIRAD nous donne par exemple le critère statistique suivant:

Une exposition de 6 mSv/an est susceptible de causer 24 décès par cancer dans une population de 100 000 personnes. Ce qui fait quand même 1 440 décès sur la population française.

Bien sûr les statisticiens feront remarquer que les maladies cardiovasculaires tuent 180 000 personnes par an, et le cancer 147 000, ce qui relativise sérieusement le risque radioactif.

Les mauvaises langues ne manqueront pas de mettre en doute les chiffres de la CRIIRAD, arguant que si l’on ne sait pas caractériser un cancer radio induit, alors on ne sait pas non plus donner son facteur de mortalité.

Et elles n’auront pas tout à fait tort.

Les prochaines années nous réservent de belles discussions sur ce sujet….

 

 

 

 

Repost 0
22 mai 2011 7 22 /05 /mai /2011 15:36

22 Mai 2011

L’Administration Française est riche d’une pléthore de Commissions Nationales, de Hautes Autorités, d’Instituts Nationaux, parmi lesquels figure la CNDP ( Commission Nationale du Débat Public ).

C’est une institution créée en 1995 par la Loi Barnier, relative au renforcement de la protection de l’environnement, et mise en place en 1997. Transformée en Autorité Administrative Indépendante en 2002.

C’est un dispositif de participation du public au processus

décisionnel en ce qui concerne les grandes opérations publiques d’aménagement d’intérêt national.

La CNDP peut faire l’objet de saisines de la part du Ministre, du Maître d’œuvre, d’associations de défense de l’environnement, ou de tout autre corps constitué.

Si la saisine est prise en compte, une CPDP ( Commission Particulière du Débat Public) est alors constituée, qui sera chargée d’instruire le dossier et d’organiser éventuellement des débats publics pour l’information et la consultation des demandeurs et des usagers.

C’est à ce genre de prestation que nous sommes régulièrement conviés lorsqu’il s’agit d’exposer aux français les tenants et les aboutissants de quelque grand projet national, régional, et parfois local ( LGV, centrale nucléaire, autoroute, parc éolien, etc…).

La Commission n’ayant pas qualité pour se prononcer sur le fond des problèmes, les débats sont en fait de grandes opérations de communication. L’aspect « participation du public au processus décisionnel » est encore très peu développé, mais cela peut changer dans l’avenir.

Ces débats publics pourraient donc être considérés comme de pure forme et sans intérêt.

Ce n’est pas tout à fait le cas.

D’abord, ils sont l’occasion de rencontrer des représentants de tous les niveaux de responsabilité dans le projet en question, des experts relativement indépendants, du maître d’œuvre, de la DGEC ( Direction Générale de l’Energie et du Climat ), et de l’Administration, ce qui permet de couvrir la totalité des aspects du problème ( sauf celui de la décision, qui n’est pas dans les attributions de la CNDP).

Ensuite, de nombreux exposés techniques de qualité permettent aux usagers qui le désirent d’acquérir une bonne connaissance du sujet.

De plus, il est fréquent que le débat fasse surgir des problèmes dont la solution nécessite des expertises et/ou des études complémentaires, qui sont alors diligentées par la commission.

Enfin, les débats font l’objet de comptes rendus et de rapports publics, dont le contenu est disponible sur Internet.

La participation aux débats est également possible en ligne.

Il est évident que la qualité des débats dépend fortement de la qualité du public au sens large, puisque c’est à partir des questions de l’auditoire que se construit le dossier et que peuvent surgir les éléments nouveaux.

Or le public est souvent très clairsemé , essentiellement constitué par des représentants des principales associations de défense de l’environnement, Internationales, nationales ou locales, et/ou de partis politiques.

Si l’on prend l’exemple le plus emblématique du climat de ces dernières années, le débat public sur la construction du réacteur EPR de Penly3, l’assistance aux débats n’a jamais dépassé la centaine de personnes, alors que plusieurs millions d’individus sont concernés.

On peut se demander pourquoi si peu d’intérêt pour ce qu’il faut bien appeler la démocratie directe, alors que par ailleurs les associations de défense de l’environnement sont si promptes à monter aux créneaux pour exiger un référendum.

Il est vrai que le cas du nucléaire est particulier. On est pour ou contre, sans nuances, ce qui exclut d’avance tout débat, et justifie peut-être, sans l’excuser, le très faible taux de participation aux réunions publiques.

Le débat public sur l’éolien off-shore a été plus ouvert, car non biaisé au départ par une position catégorique de refus.

La démocratie participative suppose la participation…

Le lecteur intéressé pourra trouver les détails ici:

 

 

 

http://www.debatpublic.fr/ 

Projets examinés/ 01/07/2009 Projet Penly 3

Projets examinés/

07/10/2009

Projet de parc éolien en mer des Deux côtes

 

 

 

Repost 0
20 mai 2011 5 20 /05 /mai /2011 16:17

20 Mai 2011

La grande farce du marché pseudo concurrentiel de la distribution de l’électricité se met en place.

EDF est donc tenue de vendre des MWh à des entreprises commerciales, qui nous les revendront au prix règlementé, le tout dans une ambiance factice de concurrence pure et parfaite chère aux économistes distingués.

Concrètement cela revient à superposer au service commercial EDF une entreprise commerciale parasite qui revendra la production EDF, en se sucrant au passage comme toute entreprise privée.

Ce nouveau marché porte le doux nom de ARENH ( Accès Régulé à l’Electricité Nucléaire Historique ).

Les fournisseurs alternatifs ( le nom est bien choisi ) auront accès à 100 TWh/an d’électricité d’origine nucléaire.

( Notons au passage que ce « deal » implique que l’électricité nucléaire restera une denrée pérenne, la sortie du nucléaire n’est donc pas au programme).

Ce montage commercial scabreux se complique d’une difficulté que la concurrence pure et parfaite ignore: en France, le prix de l’électricité ne se marchande pas comme un panier au souk de Marrakech.

Les tarifs sont règlementés par la CRE ( Commission de Régulation de l’Energie), et fixés à un niveau qui correspond à la fourchette basse des pays développés ( 10 à 12 centimes le KWh grand public), carrément la moitié des tarifs pratiqués par exemple en Allemagne, Italie, danemark, qui sont entre 20 et 23 centimes le Kwh.

Les bas tarifs français sont le résultat d’une politique règlementée de service public de l’énergie, soutenue par une entreprise ( EDF ) qui, malgré son statut de société anonyme, a passé avec l’Etat un contrat de service public de durée indéterminée.

Ces tarifs publics avantageux, s’ils intéressent les usagers, sont par ailleurs un frein au développement des énergies durables, qui ne peuvent garantir des prix aussi bas.

Les fournisseurs alternatifs sont bien obligés de respecter ces tarifs règlementés. Pour se ménager des marges confortables, ils cherchent donc à obtenir d’EDF des prix les plus bas possibles.

Les récents marchandages ont abouti aux tarifs suivants:

4 centimes le KWh à partir du 1er Juillet 2011.

4,2 centimes le KWh à partir du 1er Janvier 2012.

Pour atteindre si possible 4,5 centimes en 2015.

( Les acheteurs avaient demandé 3,5 centimes )

Il est aisé de calculer le manque à gagner pour EDF, si le quota de 100 TWh est atteint, il s’agit de 8 milliards d’euros par an.

Et ceci au moment où l’on parle d’arrêt de centrales nucléaires et de démantèlement d’icelles.

Chers amis, il va falloir mettre la main à la poche.

Au fait, quel est la part du coût de construction d’un réacteur nucléaire dans le prix du KWh ?

Le petit dernier, genre Flamanville 3, est bien parti pour nous coûter la modeste somme de 6 milliards d’euros ( hors frais financiers).

D’une puissance électrique de 1 650 MW, il fournira environ 12 TWh/an.

En trente années de bons et loyaux services il aura fourni 360 TWh.

Ce qui nous fait le KWh à 1,7 centimes d’euros.

Pour avoir le coût de revient final ( du réacteur en ordre de marche) il faut ajouter différentes choses:

- Les frais financiers relatifs aux emprunts.

- Les remises à niveau indispensables.

- La maintenance et les réparations.

Last, but not least, il faut compter en plus :

- Le démantèlement.

- Le stockage et le traitement des déchets.

Ceci pour la partie production.

Le prix de revient du KWh EDF s’obtient en ajoutant les coûts des infrastructures du réseau de distribution, de la recherche et du développement, et de tous les frais habituels d’une entreprise de cette envergure.

Le prix de revient, hors démantèlement, ne doit pas être de beaucoup inférieur aux 4 centimes /KWh consenti aux fournisseurs alternatifs.

Cette opération risque de nous coûter fort cher…

Quant au coût du démantèlement, personne n’ose avancer une somme.

J’ai consulté Mme Soleil, qui m’a prédit des augmentations très conséquentes du tarif public de l’électricité. Les spécialistes parlent d’un doublement.

Ces augmentations des tarifs sont souhaitées par les professionnels pour plusieurs raisons:

- D’abord ils estiment nécessaire de pratiquer la vérité des prix, arguant qu’on ne peut continuer longtemps à subventionner l’énergie.

- Ensuite, ils voient d’un bon œil un KWh à 25 centimes, qui inciterait les usagers à recourir aux énergies durables, ce qui relancerait la filière.

- Enfin, un tarif élevé n’est-il pas la meilleure manière d’inciter l’usager à modérer ses appétits ?

 

 

 

 

 

 

 

 

Repost 0
16 mai 2011 1 16 /05 /mai /2011 18:35

16 Mai 2011


Les phosphates et les nitrates bien connus sont les rejetons de l’agriculture et de l’élevage intensifs.


Rejetés inconsidérément dans la nature, ils se retrouvent dans l’eau des rivières puis dans la mer, où ils suscitent une croissance exubérante des algues vertes.


Cette pollution empoisonnée fait la une des médias et pose le problème de l’harmonisation entre l’exploitation rentable des sols et les exigences du respect de l’environnement.


Ce fléau est souvent attribué aux seuls nitrates, mais les phosphates jouent un rôle au moins aussi important.


Au-delà de la nuisance visible, malodorante et toxique constituée par les algues pourrissantes, il est une autre nuisance, bien plus dangereuse, mais invisible, dont ces produits sont responsables, c’est la radioactivité.


Nous allons parler du rôle des phosphates.


Le minerai à partir duquel on obtient des engrais phosphatés, est en général un phosphate de Calcium. Il existe en abondance dans différentes régions du globe.


Comme tout ce qu’on extrait du sol, ce minerai contient de l’Uranium, et bien sûr tous les éléments de la série des désintégrations correspondantes.


Ici les quantités d’Uranium commencent à être intéressantes, au point que des tentatives pour l’extraire de manière industrielle ont été tentées, mais non rentables aujourd’hui.


Les minerais de phosphates du bassin méditerranéen présentent une activité de 5 à 10 000 Bq/kg, ce qui est déjà un bon chiffre.


Ce minerai est d’abord traité avec de l’acide sulfurique pour obtenir de l’acide phosphorique, à partir duquel sont fabriqués les engrais.


Le déchet de cette opération est le phosphogypse, qui est un précipité de sulfate de calcium hydraté ( Ca SO4 (H2O)2 ).


C’est un déchet radioactif  très encombrant: La production de une tonne d’acide phosphorique génère cinq tonnes de phosphogypse.


Dans les années 80, la France a ainsi « produit » chaque année 6 millions de tonnes de phosphogypse ( 60 Mt dans le monde ). Les principaux centre de production étaient Grand Quevilly, Grand Couronne, le Havre, Tarnos, Boucau….


Le sort de ces déchets radioactifs n’a fait l’objet d’aucune attention particulière, ils ont été soit rejetés en mer ou dans des cours d’eau, soit stockés sous forme de terrils sans précaution vis-à-vis de l’environnement.


Il y a donc deux sources de pollution radioactive :


- Les terrils et crassiers ( on parle quand même de 13 millions de tonnes) qui distillent leur poison au gré des lessivages des pluies.


- Les sédiments des fonds marins des zones de rejets, qui transmettent leur radioactivité aux poissons brouteurs, crustacés, moules.


Par exemple, l’usine de Boucau rejetait annuellement 270 000 tonnes de phosphogypse directement dans la mer. La Soferti, de Bordeaux, rejetait annuellement 113 000 t en Garonne. Etc…


Actuellement les rejets en mer sont en principe interdits.


Les énormes quantités stockées à terre n’ont pas manqué de susciter des tentatives de valorisation dans divers secteurs:


- Incorporation aux ciments et plâtres.


- Matériaux de construction.


- Construction des routes.


- Matériau de remblais.


Ce qui paraît incompatible avec le classement TFA ( déchets Très Faiblement Radioactifs ) qui les placent avec les déchets de démantèlement des centrales nucléaires.


Les stocks de phosphogypse constituent une bombe à retardement ( une de plus ) dont il faudra s’occuper un jour ou l’autre.


En attendant, il est vivement conseillé d’éviter de consommer des produits de la mer provenant d’anciens sites littoraux de déversement de phosphogypse, et de construire sa maison à proximité d’un site de stockage.



 



 


 


 

 
Repost 0
15 mai 2011 7 15 /05 /mai /2011 11:56

15 Mai 2011


Le problème des algues vertes en Bretagne est désormais devenu récurrent et en passe de devenir une carte de visite de cette belle région.


Ce fléau n’est pas récent, il sévit depuis le développement de l’agriculture et de l’élevage intensifs, et est attribué unanimement à l’excès de produits azotés qui se répandent dans les rivières.


Depuis 1994, l’Etat aurait déversé sur la région 1 milliard d’euros pour tenter d’obtenir une réduction des taux de nitrate dans les rivières bretonnes.


Manifestement en pure perte.


Savoir à quoi a servi ce milliard est une autre problème que je ne me risquerais pas à tenter de résoudre….


Jusqu’aux années soixante-dix, les taux de nitrates dans les rivières bretonnes étaient de 15 à 20 mg/l. Les algues vertes ne proliféraient pas.


En 2001, le tiers de ces rivières présentait des taux supérieurs à 50 mg/l, avec les conséquences que l’on sait.


Les quantités d’azote répandues sur les terres des côtes d’Armor n’ont diminué de 5,5% en douze ans!


En dix ans, les taux de nitrates dans ces rivières n’ont baissé que de 18% !


Combien de milliards faudra-t-il pour abaisser les taux à leur niveau de 1970 ?


Le lecteur fera lui-même le calcul.


Pire, la courbe d’évolution des concentrations en nitrates dans les eaux superficielles des côtes d’Armor montre plutôt une légère croissance depuis 2002 !


Ces chiffres parlent d’eux-mêmes, dix ans de campagne contre les nitrates ont été sans effet significatif.


Sauf que le milliard d’euros n’a pas été perdu pour tout le monde.


Notons quand même qu’une mesure énergique a été prise par les autorités préfectorales des côtes d’Armor:


« Afin d’éviter d’éventuels incidents, sur des lieux fréquentés par le public (promeneurs, pécheurs à pied etc…), provoqués par le dégagement d’hydrogène sulfuré en provenance d’amas d’algues vertes en putréfaction et en décomposition, il est demandé, chaque année, aux maires de procéder au nettoyage et à la collecte systématique des algues vertes échouées sur leur territoire. »


( Pour le cas où ils n’y auraient pas pensé d’eux-mêmes….)


Pourtant les plans d’actions ne manquent pas, ni les soutiens financiers.


Un milliard d’euros n’ont pas suffit, qu’à cela ne tienne, un nouveau plan algues vertes est mis en place pour la période 2010-2014, avec un financement de 134 millions d’euros.


Avec une pareille pompe à subventions, les algues vertes vont devenir très rentables….


Les données citées sont extraites des sites suivants:

 

 

http://www.developpement-durable.gouv.fr/-Les-nitrates-et-les-algues-vertes-.html   


 

http://www.eau-artois-picardie.fr/IMG/pdf/algues_vertes-1_cle298f11.pdf



 


 


 


 


 


 


 


 


 


 

Repost 0
14 mai 2011 6 14 /05 /mai /2011 16:10

14 Mai 2011


Le débat actuel sur le nucléaire pose entre autres le problème de la mise à la retraite des réacteurs ayant dépassé une durée de fonctionnement de 30 années.


Le parc français de réacteurs en activité compte 58 machines pour une puissance installée nette de 63 250 MWe.


Le taux de disponibilité de ce parc est de 74% ( en 2009), pour des raisons de maintenance, et/ou d’incidents techniques. Rappelons que la moyenne mondiale est de 88%.


L’énergie fournie est donc de 63 250 x 8760 x 0,74 = 410 000 000 MWh,


ou encore 410 TWh.


La production totale d’électricité est de 550 TWh, ainsi répartis:


410 TWh, production nucléaire.


68 TWh, Hydroélectricité.


60 TWh, centrales thermiques à flamme.


9,5 TWh, éolien.


5,5 TWh, divers autres renouvelables.


Soit 553 TWh.


La consommation interne s’est élevée en 2010, à 488 TWh.


La différence, soit 65 TWh, a été exportée vers nos voisins européens.


11 réacteurs environ sont concernés par une possible cessation d’activité:


Bugey, 4 réacteurs de 900 MW.


Dampierre, 1 réacteur de 900 MW.


Fessenheim, 2 réacteurs de 900 MW.


Tricastin, 2 réacteurs de 900 MW.


Gravelines, 2 réacteurs de 900 MW.


Concernant une production d’environ 60 Twh, soit 15% de la production nucléaire ( le taux de disponibilité de ces vieux réacteurs a été estimé à 60% ).


Lorsque ces réacteurs seront déconnectés du réseau, la baisse de production sera de près de 15%, soit 60 TWh .


D’autre part, le programme d’inspection approfondie des réacteurs en activité va entrer en application en 2011, conformément à la décision du gouvernement. Une telle inspection impose un arrêt de la production pendant au moins trois mois. Il y a plusieurs dizaines de réacteurs à inspecter. Ce travail s’étendra sur plusieurs années, avec un impact sur la production que l’on peut estimer à l’équivalent de trois réacteurs, soit environ 26 Twh/an.


Ce programme d’inspection, conjointement avec la déconnection de 11 réacteurs, se traduira par une baisse de production annuelle de 86 TWh .


 

 

 


Les conséquences de cet arrêt sont évidentes:


- D’exportatrice, la France deviendra importatrice, avec une perte immédiate de quelques milliards d’euros de recettes.


D’autre part, la remise en question de la prolongation de durée de vie des réacteurs nucléaires est un mouvement européen. Il est donc certain que la pénurie consécutive à l’arrêt des vieux réacteurs touchera aussi nos fournisseurs éventuels. On le constate déjà aujourd’hui avec l’Allemagne,  qui nous achète des quantités importantes d’électricité suite à leur décision de déconnecter sept réacteurs.


La France risque donc de se trouver avec un déficit de production impossible à combler par des importations, qui de toutes façons nous coûteraient fort cher.


- Il est fort probable que les dirigeants français n’accepteront pas cette perte financière considérable, ils autoriseront certainement EDF à augmenter sa production thermique.


Aujourd’hui la France produit 60 TWh dans des centrales thermiques à flamme ( charbon, fuel ). Il est facile d’augmenter cette production, pour retrouver un bilan énergétique favorable.


- Ces tribulations économico-atomiques se traduiront par une augmentation assez considérable des tarifs de l’électricité, d’autant plus que EDF devra provisionner des réserves pour le démantèlement.


- Il ne faut pas exclure une éventuelle conséquence bénéfique: Un investissement massif dans les énergies renouvelables, qui passeraient progressivement de 15 TWh/an à 30 TWh en 2020.


On peut rêver….



 


 


 


 

Repost 0
12 mai 2011 4 12 /05 /mai /2011 18:09

11 Mai 2011


Un jour ou l’autre il va donc falloir se mettre au courant.


La seule énergie illimitée, propre et gratuite, étant celle du Soleil, nous sommes condamnés, à plus ou moins long terme, à nous y convertir.


Avec du Soleil on peut obtenir soit de la chaleur, soit de l’électricité ( On obtient également de la vie, mais ceci est une autre histoire…).


Nous devrons donc nous débrouiller avec ces deux formes d’énergie.


Tant mieux, parce que la chaleur et l’électricité, on connait déjà, on les utilise l’une depuis la préhistoire, l’autre depuis cent cinquante ans.


Aujourd’hui nous utilisons l’électricité avec parcimonie car c’est un sous-produit. On l’obtient très majoritairement à partir du charbon, du gaz et du pétrole, avec des rendements assez mauvais; or ces combustibles fossiles ne sont ni gratuits, ni illimités. C’est pourquoi on ne fabrique du courant électrique qu’en quantité juste suffisante.


Il existe bien une méthode ancienne de production d’électricité propre et durable, c’est l’exploitation de chutes d’eau, mais ses capacités de production sont faibles.


( Certains apprentis sorciers ont bien tenté d’en produire par la fission de noyaux atomiques, mais les inconvénients du procédé sont si grands pour la santé publique que cet exercice sera probablement interdit prochainement ).


Nous savons maintenant obtenir de l’électricité à partir du rayonnement solaire, donc en quantité illimitée. Il n’y a donc plus de raison de s’en priver.


Certes, les moyens de production sont entièrement nouveaux, il faut donc envisager de remplacer les moyens de production existants, ce qui ne pourra pas se faire du jour au lendemain. Compter quarante à cinquante an pour obtenir un résultat.


Les obstacles les plus coriaces ne seront pas technologiques, mais politiques. Ce sont les plus difficiles à réduire.


Le trio charbon- pétrole-gaz participe pour plus de 80% à notre consommation énergétique . Il est donc légitime de se demander si ces combustibles pourront être remplacés par du courant électrique dans toutes leurs applications.


La consommation énergétique se répartit entre les trois grands secteurs d’activité:


- Résidentiel Tertiaire: 70 Mtep


- Transports: 50 Mtep


- Industrie: 35 Mtep


Pour un total de 155 Mtep.


Le résidentiel-tertiaire pourrait sans inconvénient majeur se convertir au solaire, il utilise déjà largement l’électricité, et pour son chauffage le solaire thermique remplacerait avantageusement le fuel, le gaz et le bois énergie.


Les transports de passagers par le rail sont déjà électrifiés, les voitures particulières le seront bientôt. Les transports en commun routiers pourront d’adapter moyennant une logistique ad-hoc.


Par contre  les véhicules de transport lourds seront difficilement convertibles à l’électricité ( on voit mal un 44 tonnes traverser l’Europe avec les batteries…). Et ne parlons pas des avions…


Peut-être faudra-t-il revoir les bases de ces deux secteurs.


L’industrie consomme de moins en moins d’énergie, faut-il s’en réjouir ?


En dehors de la sidérurgie, la plupart des usages industriels peuvent être couverts par l’électricité.


La chimie, l’industrie des plastiques et l’industrie pharmaceutique resteront des utilisateurs de charbon et de pétrole.


La conversion est donc possible, mais avec de considérables bouleversements.


Il ne nous reste plus qu’à attendre de la fée électricité le coup de baguette magique qui amorcera le grand virage du XXIè siècle.



 


 


 


 

Repost 0
12 mai 2011 4 12 /05 /mai /2011 12:28

11 Mai 2011


Journellement les spécialistes de la spécialité nous entretiennent du futur catastrophique de notre civilisation à cause de l’extinction des sources d’énergie.


Ce pessimisme ambiant est créé grâce à une confusion abusive entre les réserves d’énergie disponibles et l’usage qui en est fait. Confusion que certains entretiennent pour en tirer profit.


Il est temps de rectifier cette imposture.


Il n’y a pas, et il n’y aura jamais pénurie d’énergie.


L’énergie solaire annuelle moyenne rayonnée sur notre territoire est de


1 300 KWh/m2/an ( source ADEME ).


La technologie actuelle de capteurs hybrides permet de transformer cette énergie avec un rendement opérationnel de 50%.


Il est donc, dès aujourd’hui, possible de recueillir 650 KWh/m2/an en moyenne annuelle ( partie en électricité, partie en chaleur).


Les documents d’urbanisation du ministère nous indiquent que la superficie totale des sols bâtis en France dépasse 10 000 Km2, soit 1,8% du territoire.


L’équipement de ces surfaces en panneaux hybrides permettrait donc de recueillir, en moyenne annuelle,  6 500 TWh, soit plus de trois fois la consommation finale totale de la France toutes énergies confondues ( 155 Mtep).


Ce pactole étant réparti, selon la technologie choisie ( Power-Therm ou Power-Volt ), entre électricité et chaleur. En optant pour une partition 50/50 il serait donc possible de récolter plus de 3 000 TWh électriques par an, ce qui représente six ( 6 ) fois la consommation française d’électricité.


Où est donc la menace de pénurie ?


Cette menace est dans les esprits.


Notre civilisation, fondée sur le progrès technique, lui-même conditionné par la disponibilité de l’énergie, a développé une technologie, des structures logistiques, des moyens de communications, des habitudes de vie, étroitement dépendants du type d’énergie disponible.


Le charbon, le pétrole, et le gaz, ont permis l’essor de nos sociétés, et constituent encore au XXIè siècle plus de 80% de nos sources d’approvisionnement. L’électricité n’est qu’un sous-produit puisque 90% des centrales électriques fonctionnent avec les combustibles fossiles cités.


( Le cas français est unique au monde et ne constitue donc pas une référence ).


On comprend donc très bien que l’abandon, même progressif, de ces sources d’énergies fossiles bien commodes, représente un bouleversement majeur de l’environnement technologique, des structures logistiques et des habitudes de vie.


On ne peut pas demander aux industriels, aux investisseurs, aux exploitants, aux utilisateurs, à un monde qui vit de, et par, l’énergie fossile, de remettre tout en question au profit d’un système entièrement nouveau, qui n’a pas fait ses preuves, et qui va exiger des investissements colossaux pour la reconversion de la technologie.


Le problème n’est donc pas de trouver de l’énergie, il y en a à profusion, sans même faire appel à l’éolien.


Le challenge est d’adapter notre technologie au type d’énergie disponible, ce qui est complètement différent.


Un quart environ de notre technologie fonctionne à l’électricité. Mais les trois-quarts restants devront être convertis. Ce n’est pas impossible, mais cela demande du temps et beaucoup d’argent.


Aucun des acteurs économiques, aucun des responsables industriels, ne souhaite casser son outil de travail pour plonger dans l’inconnu.


La mutation ne peut se réaliser qu’à l’échelle du demi-siècle au mieux.


La crise de l’énergie n’est pour l’instant qu’une menace. Il en faudra beaucoup plus pour amorcer la révolution énergétique.


Les grands acteurs de l’énergie sont assis sur une technologie qui leur donne satisfaction et leur assure des rentes confortables, le produit est présent, ce n’est pas la frénésie des gaz de schiste qui apportera un démenti.


Le CO2 n’empêche plus personne de dormir.


La première « victime » de la révolution énergétique pourrait bien être le nucléaire.


Cette énergie ne représente que quelques pourcents des fournitures mondiales, elle pourrait être aisément remplacée par du solaire pour peu qu’on se donne la peine de résoudre les problèmes d’adaptation ( stockage de l’électricité ), et tout les ennuis qu’elle nous procure ne valent pas le maigre bénéfice qu’on en retire à l’échelon mondial, sauf pour les fournisseur de réacteurs bien entendu.


D’autant plus que le fameux gaz de schiste est prêt à prendre la relève du nucléaire, et pour bien moins cher….


La mutation vers le solaire exigera de profonds aménagements des structures technologiques:


- L’énergie solaire est disponible de manière intermittente, et doit pouvoir être stockée pour assurer une disponibilité opérationnelle acceptable. Il subsistera toujours un risque d’insuffisance d’approvisionnement dont il faudra tenir compte en adaptant la consommation au flux disponible, et en établissant des règles de priorités. C’est une philosophie nouvelle de la consommation et de l’organisation du travail qui doit être inventée.


- Les réseaux de distribution doivent être repensés pour tenir compte de la multiplicité des sources et de l’irrégularité des fournitures. C’est là que le concept de réseau intelligent prend tout son sens. Il y aura une énergie produite localement pour les besoins courants, avec un recours à un réseau extérieur pour la demande excédentaire.


- Le basculement du moteur thermique vers l’électrique se généralisera, ce qui aura un impact sur la logistique des transports, notamment routiers longues distances.


- Le réseau ferroviaire devra être démultiplié pour accueillir l’afflux des utilisateurs actuel de la route qui se convertiront au rail.


- Ce réseau devra être étendu à une toile d’araignée de lignes secondaires pour desservir tout le territoire.


- Le recours à la voiture pour les déplacements longue distance sera exceptionnel, sauf si une logistique adaptée peut être mise en place pour gérer les véhicules électriques.


- L’habitat devra évoluer pour s’adapter aux nouveaux réseaux de déplacements.


- Il est possible que les déplacements en avion subissent certaines restrictions, ce qui aurait un impact considérable sur le tourisme.


Le passage à l’énergie solaire ne se fera donc pas sans soubresauts, qui ne seront pas acceptés sans réticence. Il s’agit d’un choix qui entraînera des bouleversements très importants de nos modes de vie, avec un impact économique aujourd’hui imprévisible.


Il faudra bien le siècle pour digérer la pilule…



 


 


 


 


 



 


 


 


 


 


 

Repost 0