Overblog Suivre ce blog
Administration Créer mon blog
15 mai 2011 7 15 /05 /mai /2011 11:56

15 Mai 2011


Le problème des algues vertes en Bretagne est désormais devenu récurrent et en passe de devenir une carte de visite de cette belle région.


Ce fléau n’est pas récent, il sévit depuis le développement de l’agriculture et de l’élevage intensifs, et est attribué unanimement à l’excès de produits azotés qui se répandent dans les rivières.


Depuis 1994, l’Etat aurait déversé sur la région 1 milliard d’euros pour tenter d’obtenir une réduction des taux de nitrate dans les rivières bretonnes.


Manifestement en pure perte.


Savoir à quoi a servi ce milliard est une autre problème que je ne me risquerais pas à tenter de résoudre….


Jusqu’aux années soixante-dix, les taux de nitrates dans les rivières bretonnes étaient de 15 à 20 mg/l. Les algues vertes ne proliféraient pas.


En 2001, le tiers de ces rivières présentait des taux supérieurs à 50 mg/l, avec les conséquences que l’on sait.


Les quantités d’azote répandues sur les terres des côtes d’Armor n’ont diminué de 5,5% en douze ans!


En dix ans, les taux de nitrates dans ces rivières n’ont baissé que de 18% !


Combien de milliards faudra-t-il pour abaisser les taux à leur niveau de 1970 ?


Le lecteur fera lui-même le calcul.


Pire, la courbe d’évolution des concentrations en nitrates dans les eaux superficielles des côtes d’Armor montre plutôt une légère croissance depuis 2002 !


Ces chiffres parlent d’eux-mêmes, dix ans de campagne contre les nitrates ont été sans effet significatif.


Sauf que le milliard d’euros n’a pas été perdu pour tout le monde.


Notons quand même qu’une mesure énergique a été prise par les autorités préfectorales des côtes d’Armor:


« Afin d’éviter d’éventuels incidents, sur des lieux fréquentés par le public (promeneurs, pécheurs à pied etc…), provoqués par le dégagement d’hydrogène sulfuré en provenance d’amas d’algues vertes en putréfaction et en décomposition, il est demandé, chaque année, aux maires de procéder au nettoyage et à la collecte systématique des algues vertes échouées sur leur territoire. »


( Pour le cas où ils n’y auraient pas pensé d’eux-mêmes….)


Pourtant les plans d’actions ne manquent pas, ni les soutiens financiers.


Un milliard d’euros n’ont pas suffit, qu’à cela ne tienne, un nouveau plan algues vertes est mis en place pour la période 2010-2014, avec un financement de 134 millions d’euros.


Avec une pareille pompe à subventions, les algues vertes vont devenir très rentables….


Les données citées sont extraites des sites suivants:

 

 

http://www.developpement-durable.gouv.fr/-Les-nitrates-et-les-algues-vertes-.html   


 

http://www.eau-artois-picardie.fr/IMG/pdf/algues_vertes-1_cle298f11.pdf



 


 


 


 


 


 


 


 


 


 

Repost 0
14 mai 2011 6 14 /05 /mai /2011 16:10

14 Mai 2011


Le débat actuel sur le nucléaire pose entre autres le problème de la mise à la retraite des réacteurs ayant dépassé une durée de fonctionnement de 30 années.


Le parc français de réacteurs en activité compte 58 machines pour une puissance installée nette de 63 250 MWe.


Le taux de disponibilité de ce parc est de 74% ( en 2009), pour des raisons de maintenance, et/ou d’incidents techniques. Rappelons que la moyenne mondiale est de 88%.


L’énergie fournie est donc de 63 250 x 8760 x 0,74 = 410 000 000 MWh,


ou encore 410 TWh.


La production totale d’électricité est de 550 TWh, ainsi répartis:


410 TWh, production nucléaire.


68 TWh, Hydroélectricité.


60 TWh, centrales thermiques à flamme.


9,5 TWh, éolien.


5,5 TWh, divers autres renouvelables.


Soit 553 TWh.


La consommation interne s’est élevée en 2010, à 488 TWh.


La différence, soit 65 TWh, a été exportée vers nos voisins européens.


11 réacteurs environ sont concernés par une possible cessation d’activité:


Bugey, 4 réacteurs de 900 MW.


Dampierre, 1 réacteur de 900 MW.


Fessenheim, 2 réacteurs de 900 MW.


Tricastin, 2 réacteurs de 900 MW.


Gravelines, 2 réacteurs de 900 MW.


Concernant une production d’environ 60 Twh, soit 15% de la production nucléaire ( le taux de disponibilité de ces vieux réacteurs a été estimé à 60% ).


Lorsque ces réacteurs seront déconnectés du réseau, la baisse de production sera de près de 15%, soit 60 TWh .


D’autre part, le programme d’inspection approfondie des réacteurs en activité va entrer en application en 2011, conformément à la décision du gouvernement. Une telle inspection impose un arrêt de la production pendant au moins trois mois. Il y a plusieurs dizaines de réacteurs à inspecter. Ce travail s’étendra sur plusieurs années, avec un impact sur la production que l’on peut estimer à l’équivalent de trois réacteurs, soit environ 26 Twh/an.


Ce programme d’inspection, conjointement avec la déconnection de 11 réacteurs, se traduira par une baisse de production annuelle de 86 TWh .


 

 

 


Les conséquences de cet arrêt sont évidentes:


- D’exportatrice, la France deviendra importatrice, avec une perte immédiate de quelques milliards d’euros de recettes.


D’autre part, la remise en question de la prolongation de durée de vie des réacteurs nucléaires est un mouvement européen. Il est donc certain que la pénurie consécutive à l’arrêt des vieux réacteurs touchera aussi nos fournisseurs éventuels. On le constate déjà aujourd’hui avec l’Allemagne,  qui nous achète des quantités importantes d’électricité suite à leur décision de déconnecter sept réacteurs.


La France risque donc de se trouver avec un déficit de production impossible à combler par des importations, qui de toutes façons nous coûteraient fort cher.


- Il est fort probable que les dirigeants français n’accepteront pas cette perte financière considérable, ils autoriseront certainement EDF à augmenter sa production thermique.


Aujourd’hui la France produit 60 TWh dans des centrales thermiques à flamme ( charbon, fuel ). Il est facile d’augmenter cette production, pour retrouver un bilan énergétique favorable.


- Ces tribulations économico-atomiques se traduiront par une augmentation assez considérable des tarifs de l’électricité, d’autant plus que EDF devra provisionner des réserves pour le démantèlement.


- Il ne faut pas exclure une éventuelle conséquence bénéfique: Un investissement massif dans les énergies renouvelables, qui passeraient progressivement de 15 TWh/an à 30 TWh en 2020.


On peut rêver….



 


 


 


 

Repost 0
12 mai 2011 4 12 /05 /mai /2011 18:09

11 Mai 2011


Un jour ou l’autre il va donc falloir se mettre au courant.


La seule énergie illimitée, propre et gratuite, étant celle du Soleil, nous sommes condamnés, à plus ou moins long terme, à nous y convertir.


Avec du Soleil on peut obtenir soit de la chaleur, soit de l’électricité ( On obtient également de la vie, mais ceci est une autre histoire…).


Nous devrons donc nous débrouiller avec ces deux formes d’énergie.


Tant mieux, parce que la chaleur et l’électricité, on connait déjà, on les utilise l’une depuis la préhistoire, l’autre depuis cent cinquante ans.


Aujourd’hui nous utilisons l’électricité avec parcimonie car c’est un sous-produit. On l’obtient très majoritairement à partir du charbon, du gaz et du pétrole, avec des rendements assez mauvais; or ces combustibles fossiles ne sont ni gratuits, ni illimités. C’est pourquoi on ne fabrique du courant électrique qu’en quantité juste suffisante.


Il existe bien une méthode ancienne de production d’électricité propre et durable, c’est l’exploitation de chutes d’eau, mais ses capacités de production sont faibles.


( Certains apprentis sorciers ont bien tenté d’en produire par la fission de noyaux atomiques, mais les inconvénients du procédé sont si grands pour la santé publique que cet exercice sera probablement interdit prochainement ).


Nous savons maintenant obtenir de l’électricité à partir du rayonnement solaire, donc en quantité illimitée. Il n’y a donc plus de raison de s’en priver.


Certes, les moyens de production sont entièrement nouveaux, il faut donc envisager de remplacer les moyens de production existants, ce qui ne pourra pas se faire du jour au lendemain. Compter quarante à cinquante an pour obtenir un résultat.


Les obstacles les plus coriaces ne seront pas technologiques, mais politiques. Ce sont les plus difficiles à réduire.


Le trio charbon- pétrole-gaz participe pour plus de 80% à notre consommation énergétique . Il est donc légitime de se demander si ces combustibles pourront être remplacés par du courant électrique dans toutes leurs applications.


La consommation énergétique se répartit entre les trois grands secteurs d’activité:


- Résidentiel Tertiaire: 70 Mtep


- Transports: 50 Mtep


- Industrie: 35 Mtep


Pour un total de 155 Mtep.


Le résidentiel-tertiaire pourrait sans inconvénient majeur se convertir au solaire, il utilise déjà largement l’électricité, et pour son chauffage le solaire thermique remplacerait avantageusement le fuel, le gaz et le bois énergie.


Les transports de passagers par le rail sont déjà électrifiés, les voitures particulières le seront bientôt. Les transports en commun routiers pourront d’adapter moyennant une logistique ad-hoc.


Par contre  les véhicules de transport lourds seront difficilement convertibles à l’électricité ( on voit mal un 44 tonnes traverser l’Europe avec les batteries…). Et ne parlons pas des avions…


Peut-être faudra-t-il revoir les bases de ces deux secteurs.


L’industrie consomme de moins en moins d’énergie, faut-il s’en réjouir ?


En dehors de la sidérurgie, la plupart des usages industriels peuvent être couverts par l’électricité.


La chimie, l’industrie des plastiques et l’industrie pharmaceutique resteront des utilisateurs de charbon et de pétrole.


La conversion est donc possible, mais avec de considérables bouleversements.


Il ne nous reste plus qu’à attendre de la fée électricité le coup de baguette magique qui amorcera le grand virage du XXIè siècle.



 


 


 


 

Repost 0
12 mai 2011 4 12 /05 /mai /2011 12:28

11 Mai 2011


Journellement les spécialistes de la spécialité nous entretiennent du futur catastrophique de notre civilisation à cause de l’extinction des sources d’énergie.


Ce pessimisme ambiant est créé grâce à une confusion abusive entre les réserves d’énergie disponibles et l’usage qui en est fait. Confusion que certains entretiennent pour en tirer profit.


Il est temps de rectifier cette imposture.


Il n’y a pas, et il n’y aura jamais pénurie d’énergie.


L’énergie solaire annuelle moyenne rayonnée sur notre territoire est de


1 300 KWh/m2/an ( source ADEME ).


La technologie actuelle de capteurs hybrides permet de transformer cette énergie avec un rendement opérationnel de 50%.


Il est donc, dès aujourd’hui, possible de recueillir 650 KWh/m2/an en moyenne annuelle ( partie en électricité, partie en chaleur).


Les documents d’urbanisation du ministère nous indiquent que la superficie totale des sols bâtis en France dépasse 10 000 Km2, soit 1,8% du territoire.


L’équipement de ces surfaces en panneaux hybrides permettrait donc de recueillir, en moyenne annuelle,  6 500 TWh, soit plus de trois fois la consommation finale totale de la France toutes énergies confondues ( 155 Mtep).


Ce pactole étant réparti, selon la technologie choisie ( Power-Therm ou Power-Volt ), entre électricité et chaleur. En optant pour une partition 50/50 il serait donc possible de récolter plus de 3 000 TWh électriques par an, ce qui représente six ( 6 ) fois la consommation française d’électricité.


Où est donc la menace de pénurie ?


Cette menace est dans les esprits.


Notre civilisation, fondée sur le progrès technique, lui-même conditionné par la disponibilité de l’énergie, a développé une technologie, des structures logistiques, des moyens de communications, des habitudes de vie, étroitement dépendants du type d’énergie disponible.


Le charbon, le pétrole, et le gaz, ont permis l’essor de nos sociétés, et constituent encore au XXIè siècle plus de 80% de nos sources d’approvisionnement. L’électricité n’est qu’un sous-produit puisque 90% des centrales électriques fonctionnent avec les combustibles fossiles cités.


( Le cas français est unique au monde et ne constitue donc pas une référence ).


On comprend donc très bien que l’abandon, même progressif, de ces sources d’énergies fossiles bien commodes, représente un bouleversement majeur de l’environnement technologique, des structures logistiques et des habitudes de vie.


On ne peut pas demander aux industriels, aux investisseurs, aux exploitants, aux utilisateurs, à un monde qui vit de, et par, l’énergie fossile, de remettre tout en question au profit d’un système entièrement nouveau, qui n’a pas fait ses preuves, et qui va exiger des investissements colossaux pour la reconversion de la technologie.


Le problème n’est donc pas de trouver de l’énergie, il y en a à profusion, sans même faire appel à l’éolien.


Le challenge est d’adapter notre technologie au type d’énergie disponible, ce qui est complètement différent.


Un quart environ de notre technologie fonctionne à l’électricité. Mais les trois-quarts restants devront être convertis. Ce n’est pas impossible, mais cela demande du temps et beaucoup d’argent.


Aucun des acteurs économiques, aucun des responsables industriels, ne souhaite casser son outil de travail pour plonger dans l’inconnu.


La mutation ne peut se réaliser qu’à l’échelle du demi-siècle au mieux.


La crise de l’énergie n’est pour l’instant qu’une menace. Il en faudra beaucoup plus pour amorcer la révolution énergétique.


Les grands acteurs de l’énergie sont assis sur une technologie qui leur donne satisfaction et leur assure des rentes confortables, le produit est présent, ce n’est pas la frénésie des gaz de schiste qui apportera un démenti.


Le CO2 n’empêche plus personne de dormir.


La première « victime » de la révolution énergétique pourrait bien être le nucléaire.


Cette énergie ne représente que quelques pourcents des fournitures mondiales, elle pourrait être aisément remplacée par du solaire pour peu qu’on se donne la peine de résoudre les problèmes d’adaptation ( stockage de l’électricité ), et tout les ennuis qu’elle nous procure ne valent pas le maigre bénéfice qu’on en retire à l’échelon mondial, sauf pour les fournisseur de réacteurs bien entendu.


D’autant plus que le fameux gaz de schiste est prêt à prendre la relève du nucléaire, et pour bien moins cher….


La mutation vers le solaire exigera de profonds aménagements des structures technologiques:


- L’énergie solaire est disponible de manière intermittente, et doit pouvoir être stockée pour assurer une disponibilité opérationnelle acceptable. Il subsistera toujours un risque d’insuffisance d’approvisionnement dont il faudra tenir compte en adaptant la consommation au flux disponible, et en établissant des règles de priorités. C’est une philosophie nouvelle de la consommation et de l’organisation du travail qui doit être inventée.


- Les réseaux de distribution doivent être repensés pour tenir compte de la multiplicité des sources et de l’irrégularité des fournitures. C’est là que le concept de réseau intelligent prend tout son sens. Il y aura une énergie produite localement pour les besoins courants, avec un recours à un réseau extérieur pour la demande excédentaire.


- Le basculement du moteur thermique vers l’électrique se généralisera, ce qui aura un impact sur la logistique des transports, notamment routiers longues distances.


- Le réseau ferroviaire devra être démultiplié pour accueillir l’afflux des utilisateurs actuel de la route qui se convertiront au rail.


- Ce réseau devra être étendu à une toile d’araignée de lignes secondaires pour desservir tout le territoire.


- Le recours à la voiture pour les déplacements longue distance sera exceptionnel, sauf si une logistique adaptée peut être mise en place pour gérer les véhicules électriques.


- L’habitat devra évoluer pour s’adapter aux nouveaux réseaux de déplacements.


- Il est possible que les déplacements en avion subissent certaines restrictions, ce qui aurait un impact considérable sur le tourisme.


Le passage à l’énergie solaire ne se fera donc pas sans soubresauts, qui ne seront pas acceptés sans réticence. Il s’agit d’un choix qui entraînera des bouleversements très importants de nos modes de vie, avec un impact économique aujourd’hui imprévisible.


Il faudra bien le siècle pour digérer la pilule…



 


 


 


 


 



 


 


 


 


 


 

Repost 0
7 mai 2011 6 07 /05 /mai /2011 19:33

8 Mai 2011


Les risques évidents d

une exposition à des radiations ionisantes de forte intensité ( Tchernobyl, Fukushima ) à caractère accidentel, ne doivent pas faire négliger les risques dune exposition permanente à des radiations de faible intensité.


Dans un article du 2 Mai 2011, nous évoquions l

hormèse et la loi de Harndt-Schulz, à propos dun problème qui partage la communauté scientifique, à savoir lexistence ou non dun seuil de tolérance de lorganisme aux radiations nucléaires.


En France la population est exposée en permanence à des radiations ionisantes qui se traduisent par une dose annuelle moyenne de 3,7 milliSievert, avec d

assez grandes disparités.


L

opinion sinterroge à juste titre sur la nocivité potentielle de cette exposition à laquelle on ne peut échapper.


La triste vérité est que personne ne sait donner de réponse précise.


Jusqu

à une période récente, la  communauté scientifique admettait le principe de leffet de seuil. En dessous dun certain seuil le risque était considéré nul. Les autorités responsables de la radioprotection avaient fixé des seuils en se basant sur les données de lexpérience ( Notamment Hiroshima et Tchernobyl), mais sans aucune base vraiment scientifique.


Les effets possibles des faibles doses, inférieures aux seuils fixés, n

étaient pas niés, mais limpossibilité de les distinguer du bruit de fond pathologique en rendait létude très difficile. Comment savoir, parmi les cancers dun certains type, ceux qui seraient causés par les radiations ionisantes de niveau faible ?


Cette incertitude est aujourd

hui jugée inacceptable, car elle est la porte ouverte à un certain laisser-aller dans la rigueur. En effet, dans une optique deffet de seuil, comment éviter le laxisme qui consisterait à augmenter le seuil normatif pour sadapter à une situation de terrain mal maîtrisée ?


Par exemple, le suivi médical radiologique en constant développement conduit à une augmentation des doses cumulées. Aux Etats-Unis, il a été constaté que l

exposition due aux seuls examens radiologiques était passée de 0,5 mSv en 1980 à 3 mSv en 2006. Les examens au scanner, qui délivrent des doses de 10 à 12 mSv, sont en constantes augmentation.


Il est donc apparu que le recours à une nouvelle manière d

évaluer les effets des faibles doses simposait.


Cette insuffisance des connaissances en radiobiologie se traduisait par des informations au public contradictoires, peu convaincantes et de nature à entretenir une suspicion légitime .


Pour sortir de cette incertitude, l

Europe a financé un vaste programme sur quatre ans ( 2004-2008) dans le but détablir les bases de la connaissance des effets biologiques des faibles doses de radiations.


C

est le projet RISC-RAD :


(

Radiosensitivity of Individuals and Susceptibility to Cancer induced by ionizing radiations).


Voici un extrait des conclusions provisoires de ces travaux:



« Les premiers résultats de recherches menées sur les faibles doses au niveau européen (notamment dans le cadre du projet Risc-Rad ) et international ont d’ores et déjà permis d’avancer dans la compréhension des mécanismes de cancérogénèse associés à l’irradiation.


Les données obtenues ne remettent pas en question l’utilisation, en radioprotection, de modèles d’estimation du risque basés sur une augmentation linéaire du risque avec la dose de rayonnements. Néanmoins, les études montrent que les faibles doses d’irradiation ont des réponses biologiques spécifiques.


Trois enseignements clés sont ressortis de ces études :


- Il n’y a pas une forme unique de relation dose-effet pour tous les processus biologiques cellulaires.


- Les rayonnements peuvent avoir des effets indirects, qui joueraient dans la cancérogénèse un rôle mineur par rapport aux effets directs sur l’ADN .


- Les prédispositions génétiques modulent le risque de développer un cancer.


Il n’y a pas une forme unique de relation dose-effet pour tous les processus biologiques cellulaires étudiés.


De nombreux efforts ont porté sur l’exploration des relations entre la dose de rayonnements et les effets sur les processus biologiques impliqués dans la cancérisation. Les différents résultats obtenus mettent en lumière une diversité de réponses à la dose de rayonnements selon le mécanisme biologique étudié :


- Un certain nombre de processus répondent de façon dépendante de la dose. C’est le cas, par exemple, des effets immédiats tels que de l’induction de dommages à l’ADN, d’aberrations chromosomiques et de mutations. D’autres en revanche présentent un seuil de dose en-dessous duquel aucun effet ne peut être observé. C’est le cas notamment du contrôle du cycle cellulaire.



- Les effets induits par de faibles doses d’irradiation peuvent être différents de ceux observés lors d’expositions à de fortes doses d’irradiation. La nature de ces différences (qui portent sur le type d’effet, leur cinétique d’apparition…) et leurs implications restent encore à explorer. Mais ces résultats suggèrent qu’il faut prendre en compte cette variabilité .



- Enfin, dans certains contextes cellulaires, une faible dose d’irradiation donnée avant une irradiation à forte dose peut conférer une résistance et pourrait donc être bénéfique pour la survie cellulaire.


Si ces résultats n’apportent pas de conclusion définitive quant aux conséquences de la variabilité de réponse en fonction du mécanisme biologique étudié, ils contribueront à mieux définir les facteurs influençant le risque de cancer. »


Les recherches soutenues par le projet européen sont poursuivies à l’échelon international, dans le cadre des travaux du HLEG ( High Level Expert Group on European Low Dose Risk research), et MELODI ( Multidisciplinary European Low Dose Initiative).


L’objectif de ces travaux est multiple:


- Acquisition de meilleures connaissances des interactions entre le vivant et les radiations ionisantes de faible intensité, particulièrement en matière de cancers radio induits et de désordres génétiques.


- Développer une démarche de santé publique visant au contrôle des risques d’exposition de la population, dans l’environnement et dans les actes techniques de radiologie.


- Informer la population par une communication claire sur l’évolution des risques et les moyens de radioprotection.


Nous reviendrons sur certains des résultats obtenus, qui ouvrent déjà sur des perspectives nouvelles.


Repost 0
6 mai 2011 5 06 /05 /mai /2011 11:00

6 Mai 2011


Dans un article du 17 Novembre 2010 « Variation des niveaux marins » nous présentions succinctement l’état des connaissances permettant l’établissement des cartes de variations du niveau des océans.


Ce paramètre étant un témoin direct du réchauffement climatique, il est de la plus haute importance de le mesurer avec la plus grande exactitude possible.


Il est assez rapidement apparu que les anciennes méthodes de mesures basées sur les marégraphes ne sont pas suffisamment précises à l’échelle de la planète, et ne permettent pas l’analyse fine des variations lentes des niveaux marins.


C’est pourquoi, dès l’apparition des premiers satellites, on a décidé de les utiliser pour obtenir une connaissance précise des paramètres géodésiques de la Terre.


La série des satellites des missions Topex Poseidon, Jason 1, Jason 2, ont permis d’améliorer considérablement la précisions des mesures.


Les niveaux marins ne sont plus seulement mesurés par rapport à des repères terrestres ( qui sont eux-mêmes instables), mais par rapport à un repère fixe défini internationalement, qui est un éllipsoïde, surface mathématique virtuelle positionnée sur le centre de la Terre, lui-même défini par rapport à des repères astronomiques fixes ( Quasars).


Les paramètres de l’ellipsoïde sont définis pour que la surface virtuelle coïncide avec la surface moyenne du géoïde ( pour faire court ).


Le géoïde étant la surface équipotentielle de gravité, qui présente des irrégularités dûes aux variations du gradient de pesanteur.


Les satellites procèdent à des mesures altimétriques du niveau de la mer ( de la portion d’océan qu’ils survolent à un instant donné), tout en mesurant leur position par rapport à des balises référencées sur l’ellipsoïde ( Réseau DIDON ).


Par différence on obtient la hauteur du niveau marin par rapport à l’ellipsoïde.


Tout ceci est extrêmement complexe, mais c’est à cette condition que l’on peut obtenir des relevés avec une précision de quelques centimètres.


Comment peut-on prétendre connaître des variations de niveau de quelques millimètres par an avec un système dont la précision n’est « que » de quelques centimètres, sachant que ce niveau est lui-même variable en fonction des marées, de la houle, du vent, des courants, et de la température de l’eau ?


Le secret réside dans la multiplication des mesures qui permet d’obtenir de longues séries temporelles desquelles ont peut extraire les tendances à long terme.


Ces méthodes, dont la complexité dépasse l’entendement, ont permis d’obtenir des résultats intéressants:


- Le niveau moyen des océans est en augmentation régulière d’environ 3,8 mm par an .


- Ce facteur d’augmentation, relativement modéré, cache de grande disparités. La carte insérée dans l’article cité montre que certaines régions du globe subissent une augmentation de niveau importante, plus de 10 mm/an, alors que d’autres ne sont pas concernées.


De plus, le gradient de variation du niveau dans une région donnée n’est pas constant, il peut varier dans le temps.


Ces résultats sont essentiels car ils montrent que les stratégies de protection contre l’augmentation du niveau de la mer devront être adaptées localement.


Ces campagnes de mesures confirment le grand intérêt de la connaissance précise du globe terrestre, et donc la nécessité de les poursuivre en améliorant leur efficacité.


Dans ce but, l’ESA ( European Space Administration) a initié une série de missions satellitaires qui s’inscrivent dans le cadre du programme « Living Planete » .


Le satellite GOCE ( Gravity and Oceanic Circulation of Earth ) , lancé le 17 Mars 2009, est la première mission de base du programme Living Planete. 45 entreprises européennes ont participé à sa réalisation.


De plus d’une tonne, il évolue à une altitude de 254 km.


( Cette faible altitude le rend sensible au freinage atmosphérique. Pour compenser cet effet, il est muni d’un moteur ionique ).


Sa mission principale est de relever la carte exacte de la gravité terrestre, c’est-à-dire la forme précise du géoïde afin d’améliorer la précision des mesures géodésiques.


Ce géoïde amélioré permettra d’augmenter la précision des mesures du niveau des océans. Le satellite permet également de surveiller la circulation océanique et la dynamique des calottes polaires.


Les premières cartes du géoïde ont été délivrées en Avril 2011 par l’ESA.


Elles apportent une précision jamais atteinte qui permettra d’améliorer la résolution des relevés océaniques, et de suivre l’évolution du changement climatique.



 


 


 


 


 


 


 


 


 


 


 


 


 


 


 

Repost 0
5 mai 2011 4 05 /05 /mai /2011 15:15

6 Mai 2011


Nous avons vu que, même en l’absence de catastrophe nucléaire, notre environnement est en permanence imprégné de radiations ionisantes d’origine naturelle technologiquement renforcée, ou d’origine industrielle liée à l’utilisation de produits radioactifs ( centrales électronucléaires, applications industrielles et médicales des rayons ionisants), ou d’activités de défense et reliquat d’essais nucléaires atmosphériques.


Une catastrophe nucléaire augmente bien entendu cette imprégnation, la pollution atmosphérique se répandant autour du globe grâce aux courants aériens.


Cet environnement est dangereux pour l’organisme humain, qui subit deux types d’atteintes:


- L’exposition aux rayons ionisants en provenance de l’atmosphère, du sol, des roches, d’examens radiologiques, ou de la proximité d’une quelconque source émettrice.


- La contamination par inhalation et par la chaîne alimentaire.


Pour tenter de maîtriser les risques liés à la radioactivité de l’environnement, L’Etat amis en place une structure chargée de la règlementation, du contrôle, et de l’information aux autorités et au public.


Le cadre législatif est la Loi TSN ( Transparence et Sécurité Nucléaire) du 13 Juin 2006.


Cette Loi s’accompagne de la création du HCTISN ( Haut Comité pour le Transparence et l’Information sur la sécurité Nucléaire ), dont les missions sont clairement rappelées dans sa désignation.


A la même occasion fut créée l’ASN ( Autorité de Sureté Nucléaire ), chargée de mettre en œuvre les missions définies par la loi.


Pour l’expertise technique, l’ASN s’appuie sur l’IRSN ( Institut de Radioprotection et de Sureté Nucléaire ), créé en 2001.


Les accréditations nécessaires lui sont délivrées par la COFRAC ( Comité Français d’ACcréditation ) créée en 1994, seule instance française habilitée à délivrer des accréditations.


L’ASN travaille en liaison avec le DSDN ( Délégué à la Sureté Nucléaire Défense ), et en délégation avec les ARS ( Agences Régionales de Santé ).


La tâche essentielle de l’ASN, dans sa mission de sureté nucléaire, est le contrôle des applications du nucléaire civil, particulièrement des centrales électronucléaires évidemment.


En complément de cette surveillance directe, l’ASN est en charge de la surveillance de l’environnement, non seulement au voisinage des centrales, mais également sur tout le territoire.


Les activités de l’IRSN, sous l’égide de l’ASN, sont rendues publiques et accessibles sur le site:


 

 

 

 

http://environnement.irsn.fr   


On pourra consulter également:


 

 

 

 

http://criter.irsn.fr/exercice/acteur   


et:


 

 

 

 

http://sws.irsn.fr/sws/mesure/index   


On voit que la matière ne manque pas, les informations sont là, nous en détaillerons certains aspects dans de prochains articles.


En face de la très officielle et très Etatique ASN/IRSN, il y a la CRIIRAD ( Commission de Recherche et d’Information Indépendantes sur la Radioactivité).


C’est une association à but non lucratif, qui s’est constituée à l’occasion de la catastrophe de Tchernobyl en 1986. Elle se déclare indépendante des exploitants du nucléaire, de l’Etat, et des partis politiques ( C’est une déclaration gratuite). Elle s’est donné pour mission la critique des informations diffusées par l’IRSN, et l’analyse contradictoire des données sur la contamination radioactive.


Disposant d’un laboratoire d’analyses ayant reçu sa qualification du Ministère de la santé, et d’une équipe de terrain, la CRIIRAD est en mesure d’apporter une vision indépendante du problème de pollution de l’environnement par les radiations nucléaires.


Les deux entités, ASN/IRSN et CRIIRAD, ont évidemment des positions opposées sur la manière de traiter les informations, et sur la validité des données diffusées.


L’organisme d’Etat et l’Association à but non lucratif se déclarent tous deux indépendants, mais chacun possède sa propre sensibilité et les mêmes données peuvent être interprétées différemment.


L’ASN/IRSN intervient dans le cadre de la politique française électronucléaire et de la santé publique, alors que la CRIIRAD intervient au départ en tant que critique du travail de l’ASN et de son interprétation des données jugées à priori tendancieuse.


Il existe par ailleurs différents laboratoires possédant une accréditation COFRAC, et susceptibles d’intervenir à la demande pour réaliser des analyses. Peuvent y avoir recours les collectivités locales, les exploitants nucléaires, les associations, les représentants de la société civile, ou les entreprises, qui peuvent également s’adresser directement à l’IRSN.


Les mêmes dispositifs existent évidemment à l’échelle internationale.


Les moyens techniques existent donc à profusion pour effectuer toute mesure jugée utile, mais le crédit à accorder aux conclusions à l’usage du public reste partiellement remis en question par une partie de l’opinion.


En clair, la confiance du public n’est pas totalement acquise, il existe un doute sur la sincérité des affirmations des autorités, ce qui laisse du grain à moudre à la CRIIRAD. Un grand travail de communication reste à faire, le nuage de Tchernobyl n’est pas encore dissipé dans les esprits. Et ce n’est pas celui de Fukushima qui va contribuer à nous redonner un ciel bleu…



 


 


 


 

Repost 0
4 mai 2011 3 04 /05 /mai /2011 17:46

3 Mai 2011


Nous avons précédemment rapidement passé en revue quelques-unes des sources de radioactivité, d’origine naturelle ou artificielle ( les artificielles devant hélas rapidement rejoindre le clan des naturelles puisqu’il faudra désormais vivre avec).


Les média évoquent souvent la pollution radioactive atmosphérique, la plus évidente étant constituée par les rejets massifs des réacteurs dont on a perdu le contrôle. On parle du nuage de Tchernobyl, du nuage de Fukushima.


Les pouvoirs publics disposent d’un important réseau de capteurs qui délivrent des informations fiables sur les taux de radioactivité associés à ces fameux nuages.


L’opinion est ainsi conditionnée à croire que, une fois le nuage passé, tout danger est écarté.


Pour parfaire la mise en scène, un coupable « marqueur » est désigné, c’est l’Iode 131. C’est un bouc émissaire complaisant, sa durée de vie est courte ( période de 8 jours) et il se transforme en Xénon 131 non radioactif après émission d’une particule Beta.


Donc il devient quasiment inoffensif au bout de quelques semaines, et quelques pastilles d’iode normal suffisent à bloquer son entrée dans l’organisme ( la thyroïde).


La réalité n’est pas aussi simple.


Les « nuages » de pollution radioactive ne contiennent pas que de l’iode 131. De nombreux autres produits de fission sont entraînés dans l’atmosphère et sont susceptibles d’être transportés sur de très longues distances ( Principalement des isotopes de l’Iode et du Césium).


Les produits radioactifs de l’atmosphère sont rapidement dosés et leur taux rendu public, particulièrement dans sa phase de décroissance.


Ces polluants existent soit à l’état gazeux, soit sous forme d’aérosols, ce sons des nanoparticules.


Leur séjour dans l’atmosphère est en général de courte durée, ils rejoignent le sol, entraînés par les poussières ou la pluie.


Leur proportion dans l’air diminue donc , non pas parce qu’ils disparaissent, mais parce qu’ils sont maintenant au sol.


Au sol, ils s’intègrent à la chaîne alimentaire par contamination des eaux de surface et des végétaux qui sont ensuite consommés soit pas l’Homme, soit par les animaux ( Bétail, gibier, volaille ). Ils se mélangent à la terre par infiltration et percolation, par l’effet des labourages, du travail des vers de terre et des insectes fouisseurs.


Dans le sol, leur durée de vie ne dépend que de leur cycle de désintégration, ce qui laisse de belles années à des produits comme le Plomb 210, le Polonium 210, le Césium 137, le Tritium, et quelques autres.


Il est donc essentiel de contrôler non seulement l’atmosphère, mais aussi et surtout l’ensemble de la chaîne alimentaire.


Qui est chargé de ce contrôle ?


En France c’est l’ASN ( Autorité de Sureté Nucléaire ) qui centralise toutes les démarches de règlementation, de contrôle, et d’information du public.


Nous en verrons les rouages dans l’article suivant.



 

Repost 0
2 mai 2011 1 02 /05 /mai /2011 19:07

2 Mai 2011


L’analyse de la nocivité des radiations ionisantes impose de considérer plusieurs catégories de circonstances. On ne peut en effet utiliser les mêmes outils d’analyse pour traiter du problème des liquidateurs de Tchernobyl , et pour mesurer le risque lié à l’exposition au radon dans un logement.


Trois niveaux ont été définis pour l’étude de la relation dose/effets:


Le premier niveau est appelé déterministe.


C’est le niveau d’exposition qui entraine des dégâts sûrs, irréversibles, et fatals à court ou moyen terme.


Les noms de Three mile Island, Tchernobyl, Fukushima, viennent immédiatement à l’esprit comme exemples d’irradiations massives entraînant un nombre important de décès et de dégâts importants.


La population, dans sa grande majorité, échappe heureusement à ce risque extrême, mais se trouve cependant confrontée à un risque plus insidieux, qui est l’exposition permanente à des doses réduites de ces mêmes radiations.


Les études épidémiologiques montrent, dans un certain nombre de cas bien renseignés, une relation de cause à effet indiscutable entre l’exposition à des doses significatives mais non massives, et des désordres organiques tels que cancers, leucémies, désordres génétiques, mutations, affaiblissement des défenses immunitaires, etc…


Ces cas constituent le deuxième groupe, associé à des effets « semi-stochastique ».


C’est le cas par exemple de l’exposition au radon associée au tabagisme, qui induit de nombreux cancers du poumon; le cas également des travailleurs des mines d’Uranium, de sel, de phosphate; ou bien des expositions trop prolongées au Soleil, de l’usage abusif des cabines de bronzage, etc…


L’ensemble de ces cas d’expositions significatives mais « non massives » entraîne des dégâts de santé publique qui, jusqu’à présent, sont supérieurs en nombre de plusieurs ordres de grandeurs à ceux des accidents de réacteurs nucléaires.


Le troisième groupe concerne les cas d’exposition permanente à des «petites» doses, sans que la relation dose/effets soit parfaitement établie. Les effets sont alors purement stochastiques, ce qui signifie qu’il y a des effets, mais que ceux-ci se manifestent de manière probabiliste au sein d’une population nombreuse.


En clair, on peut affirmer que X% de la population de Bretagne sera atteinte d’un cancer du poumon lié au radon, mais on ne sait pas dire qui sera atteint.


Ce troisième groupe est représenté par environ 80% de la population. Les 20% restant sont les travailleurs susceptibles d’être exposés à des radiations( y compris solaires), soit directement, soit à travers des produits qu’ils utilisent sans toujours savoir qu’ils sont radioactifs. Il faut y ajouter les fumeurs qui augmentent les effets du radon, et les forcenés de la bronzette qui abusent des UV artificiels.


Ces 80% de la population, qui pensent en toute bonne foi être à l’abri des radiations nucléaires, reçoivent en moyenne une dose annuelle de 2,4 milliSievert. Cette dose est une moyenne, elle peut être très supérieure pour certaines catégories de personnes selon la région de résidence, les habitudes alimentaires, etc…


L’évaluation des risques encourus par cette troisième catégorie d’individus est très approximative car la connaissance des relations dose/effets est encore très discutée.


Trois hypothèses sont proposées, la vérité étant probablement un mélange des trois:


La première hypothèse, la plus ancienne, consiste à admettre un effet de seuil. Pour les doses inférieures à ce seuil, il n’existerait aucun effet.


Dans ce cadre on a défini des seuils d’exposition d’une manière assez arbitraire. On parle de doses annuelles admissibles, sans bien préciser le sens donné au terme « admissible ». On indique des doses différentes selon que l’individu est un quidam ou bien un travailleur exposé, ce qui est parfaitement absurde. Pourquoi un travailleur est-il censé supporter une dose supérieure à celle considérée comme maximale pour un quidam ?


On a introduit la notion de « débit de dose » pour faire une différence entre une dose reçue en une courte période et la même dose étalée sur une durée plus grande.


Tout ceci n’est pas très satisfaisant, mais c’est la norme actuellement appliquée.


La seconde hypothèse résulte des progrès des études épidémiologiques réalisées ces dernières décennies, et des expérimentations animales lorsque l’expérience humaine n’est pas disponible.


Cette hypothèse considère qu’il n’y pas d’effet de seuil. La relation dose/effets serait du type linéaire sans seuil.


ce qui évidemment change tout puisque la notion de dose admissible perd son sens. Les doses les plus faibles sont susceptibles de déclencher des effets chez certains individus.


La stratégie de gestion du risque nucléaire doit donc être changée. Il ne suffit plus que l’exposition d’un individu soit inférieure à la dose règlementaire, il faut gérer cette exposition selon le concept ALARA ( As Low As Reasonably Achievable), c’est-à-dire prendre les mesures nécessaires pour que l’exposition soit aussi faible que ce que permet raisonnablement la technologie dans le cas considéré.


Ce qui n’a pas grand sens, dans la mesure où l’on peut toujours réduire les doses reçues, en y mettant le prix.


Ce concept, plus conforme à la réalité, n’est pas facile à mettre en œuvre. Il paraît impossible de se passer de valeurs numériques à respecter dans le cadre d’une règlementation.


La troisième hypothèse ne rejette pas complètement les deux autres, elle les complète en y ajoutant un facteur qui tient compte d’observations déjà anciennes.


On sait, depuis Mithridate, que l’on peut s’immuniser contre un poison en en absorbant des petites doses pour habituer l’organisme à développer des défenses spécifiques.


Au XIXè siècle, Harndt et Schulz ont reformulé cette constatation à partir de leurs propres expériences:


« pour toute substance, de faibles doses stimulent, des doses modérées inhibent, des doses trop fortes tuent. »


Formulation connue sous le nom de « Loi de Harndt et Schulz ».


Cette « loi » a été rejetée par la science, surtout avec l’arrivée des thèses sur l’homéopathie.


Mais de nombreuses expériences biologiques récentes ont remis en évidence ce phénomène important: Dans de nombreux cas, de très faibles doses ont un effet très supérieur à celui de doses importantes.


Et ce phénomène a également été constaté à propos des effets radio induits.


Il porte le nom d’Hormèse.


L’explication du phénomène n’est pas connue avec certitude. Il semble que de faibles doses provoqueraient une réaction spécifique du système immunitaire, qui préparerait l’organisme à accepter des doses importantes par la suite.


Il existerait, en quelque sorte, une espèce de vaccination contre les radiations nucléaires.


Le champ de l’évaluation des risques épidémiologiques liés à une exposition aux radiations nucléaires est donc encore largement une « terra incognita ».


Gardons-nous donc de porter des jugements définitifs sur des phénomènes qui nous dépassent encore, et en matière de radiations, appliquons la formule prudente recommandée pour le vin:


« Un milliSievert, çà va, deux milliSievert, bonjour les dégâts »…



 


 

Repost 0
2 mai 2011 1 02 /05 /mai /2011 11:30

2 Mai 2011


Le Radon commence maintenant à être bien connu. Ce gaz radioactif d’origine naturelle est même devenu l’objet de mesures de protection qui ne tarderont pas à être étendues aux habitations particulières.


L’accent mis sur sa faible durée de vie ( 3,8 jours ), peut laisser penser qu’une fois désintégré il ne présente plus aucun danger.


C’est exactement le contraire !


Comme tout élément radioactif, le Radon 222 fait partie d’une famille d’éléments qui dérivent d’un élément primordial par une chaîne de désintégrations successives.


L’ancêtre du Radon est l’Uranium 238, qui est le plus abondant des isotopes de l’Uranium naturel sur Terre.


U238 se désintègre spontanément en une succession d’éléments eux-mêmes radioactifs, et on arrive au Radon 222 en passant par un certain nombre d’éléments comme le Thorium et le Radium bien connu.


Il y a d’autres isotopes du Radon, mais leur durée de vie est si brève qu’ils peuvent être ignorés, au moins pour ce qui nous préoccupe.


Ce  Radon 222 est un gaz, c’est pourquoi il se répand dans l’atmosphère dès qu’il peut trouver une fissure dans le sol pour s’échapper.


Lorsqu’il est inhalé il pénètre profondément dans les poumons et se dépose facilement à cause de son poids ( 8 fois plus lourd que l’air ).


En lui-même il n’est pas nocif puisque c’est un gaz inerte.


Mais s’il est chimiquement inerte, il reste radioactif car la chaîne à laquelle il appartient n’est pas terminée.


Il va se transformer successivement en Bismuth 218, Thallium 214, Polonium 214, Polonium 210, Plomb 210, tous radioactifs, pour finir la chaîne en Plomb 206 stable.


Un atome de Rn 222 finit en Pb 206 après avoir émis quatre particules alpha qui vont provoquer dans l’organisme de multiples ionisations destructrices.


Les rejetons du Radon les plus virulents sont le Plomb 210 et le Polonium 210. Leur radio toxicité est supérieure à celle du Plutonium 239, pourtant déjà tristement célèbre dans les gazettes, à cause de ses liens étroits avec le nucléaire industriel.


Les atomes de Radon qui s’échappent du sol se répandent dans l’atmosphère, dans les eaux des nappes phréatiques, dans les poches souterraines de gaz naturel, de pétrole; le radon est bien sûr présent dans toutes les roches, dans les charbons, et est amené en surface par l’intermédiaire des procédés d’extraction. Avec lui arrivent aussi ses descendants , dont Pb 210 et Po 210.


Le Radon fait un cours séjour dans l’atmosphère puisqu’il se transforme assez rapidement en éléments non gazeux lourds, qui retombent sur le sol et s’intègrent à la chaîne alimentaire .


Nous en reparlerons donc prochainement.



 


 


 


 


 


 

Repost 0