Overblog Suivre ce blog
Administration Créer mon blog
13 décembre 2010 1 13 /12 /décembre /2010 11:44

13 Décembre 2010


Les deux entrées essentielles des nanoparticules dans le corps humain sont les voies aériennes et les voies digestives. L’entrée par la voie intradermique est théoriquement possible, bien que fortement contestée dans des conditions normales hors blessure. Nous nous intéressons ici à la voie aérienne.


L’air que nous respirons est « normalement » chargé de particules de toutes sortes. Chaque cm3 inspiré contient entre 10 000 et 100 000 particules dont la taille s’échelonne entre 1 nm et 100 µm, et dont la composition représente un échantillonnage à peu près complet de ce que notre civilisation est capable de produire, sans oublier les particules naturelles bien entendu.


Les voies aériennes bronchiques sont tapissées de muqueuses et de cils vibratiles qui participent à l’élimination de l’essentiel des particules grâce au mécanisme de clairance pulmonaire. Les déchets restants sont expectorés et le reste est éliminé par les macrophages.


La structure fractale de l’arbre bronchique est semblable à celle d’un filtre à particules, mais à l‘envers. Les fibres sont ici remplacées par des tubes recouverts de muqueuse qui « piège » les particules par les mêmes mécanismes d’impact, de gravité et de diffusion, que dans un filtre.  Des mécanismes électrostatiques ne sont pas exclus.


Seule une très petite fraction des  nanoparticules réussissent à se faufiler dans les alvéoles pulmonaires.


Notons qu’il a été signalé une possibilité d’entrée des nanoparticules par l’appareil olfactif, directement en liaison avec le cerveau par le nerf olfactif. Ceci sera évoqué ultérieurement.


Les échanges gazeux se font à travers la membrane alvéolaire, dont la surface totale est comparable à celle d’un cours de tennis.


Le lobule alvéolaire est enrobé de vaisseaux capillaires sanguins en sorte que la distance entre l’intérieur des alvéoles et l’intérieur des capillaires sanguins n’excède pas 200 nanomètres.


Les polluants du monde extérieur ne sont donc séparés de l’intérieur de l’organisme que par une mince et fragile barrière physiologique de 200 nanomètres ! De plus cette barrière est ouverte à de nombreux échanges comme nous allons le voir ci-après.


En toute rigueur l’intérieur de l’organisme commence lors du franchissement de la membrane apicale phospholipidique des cellules épithéliales alvéolaires (pneumocytes de type 1 ) . La barrière serait donc réellement de 7 nm au lieu de 200 !


Une fois franchie cette « barrière » de 7 nm, la particule possède une chance sur deux d’être éjectée de la membrane basale par exocytose et de se retrouver dans la circulation lymphatique. Ou pire encore, si la nanoparticule possède quelque affinité avec une protéine transmembranaire, ou si elle est très petite ( quelques nm ), elle peut passer tranquillement la barrière épithéliale sans avoir à montrer patte blanche.


Un peu comme les molécules de certains gaz ( alcool, anesthésiants, toxiques ) utilisent le même chemin que O2 et CO2 , même si les mécanismes ne sont pas exactement les mêmes ( Diffusion simple à travers la membrane phospholipidique dans un cas , protéines transmembranaires dans l’autre ).


Lorsqu’une particule se dépose sur la paroi d’une alvéole, il peut lui arriver plusieurs choses:


Dans la très grande majorité des cas , elle a affaire aux macrophages. Ce sont des cellules spécialisées dans l’élimination des déchets, il y en a toujours quelques-unes dans chaque alvéole. Le macrophage se déplace en glissant sur la paroi de l’alvéole grâce à des pseudopodes, un peu comme un poulpe. Il absorbe la particule et, selon sa composition, la digère ou la conserve dans son cytoplasme.


Un macrophage peut « s’occuper » de plusieurs parasites ( particules, bactéries, …) avant de mourir. Il est alors lui-même évacué , soit vers l’extérieur, soit à travers la membrane alvéolaire dans l’intersticium, d’où ses composantes rejoignent le réseau lymphatique et les ganglions.


La protection apportée par les macrophages est « saturable ». Au-delà d’un certain seuil de pollution le système est dépassé .


Les particules qui échappent aux macrophages peuvent soit se dissoudre dans le surfactant, soit traverser la barrière alvéolo-capillaire, soit s’amasser dans l’alvéole.


La membrane des cellules épithéliales alvéolaire peut être franchie selon plusieurs procédés selon les dimensions de la particule, sa composition, son état de surface, sa polarité, sa réactivité chimique, sa souplesse, sa surface active, son degré d‘opsonisation. Les voies de passage peuvent être la diffusion simple, la diffusion facilitée, les canaux ioniques, les mécanismes d’endocytose, les clathrines, les cavéoles.


Il apparaît ainsi que le mécanisme de filtrage pulmonaire ne possède pas une efficacité parfaite, et que la barrière alvéolo-capillaire n’est pas une protection infranchissable.


Bien entendu, en cas de lésion pulmonaire, le passage des particules est grandement facilité.


Il est donc inévitable de retrouver dans l’organisme une partie des particules inhalées.


Le problème n’est donc plus de savoir si les nanoparticules entrent dans l’organisme, mais plutôt de savoir ce qu’elles deviennent  dans cet organisme quand elles y sont entrées.



(Ceci est une version réduite , la seule compatible avec Internet Explorer 9 version Béta. Y manquent notamment les liens et les figures.)



 


 

Repost 0
9 décembre 2010 4 09 /12 /décembre /2010 11:45

9 Décembre 2010


Concernant le débit que l’usager peut espérer d’une liaison WiMax, on trouve des indications très variables. En fait, la seule réponse sensée serait «  çà dépend… » un peu comme le fût du canon de Fernand Raynaud.


En effet, la norme IEEE 802-16 permet une transmission dite « adaptative » , ce qui est une qualité incontestable, mais qui implique par ailleurs certaines contraintes.


Le procédé grâce auquel les informations numériques sont transmises est trop complexe pour être décrit ici. Il suffit de savoir que la station de base ( l’antenne ) sait identifier chacun des abonnés individuellement, en terme de distance, de type de matériel de réception, de qualité de son antenne réceptrice, de type de service qui est demandé. De plus, la base est capable de mesurer la qualité de la transmission avec cet abonné, et ceci en permanence.


Par ailleurs la base a la possibilité technique d’adapter en temps réel le débit numérique servi à cet abonné , et de choisir le débit pour lequel la qualité de transmission sera convenable en fonction de certains critères ( QoS, Quality of Service).


Chaque abonné se verra donc attribué un débit de transmission individuel, qui pourra être différent de celui des autres abonnés.


Par exemple, si un abonné est situé loin de l’antenne, ou masqué par un obstacle, la transmission sera difficile; dans ce cas la base choisit , pour lui, un type de modulation plus « robuste », qui lui assurera une bonne réception. Or si on augmente la « robustesse » de la transmission c’est au détriment du débit, qui va être plus faible.


Pour un autre abonné qui se trouve près de l’antenne , la base va pouvoir lui servir la modulation la plus performante , avec un débit très supérieur au cas précédent.


Donc, le même jour, à la même heure, deux abonnés du même secteur d’antenne pourront avoir des débits très différents.


En plus de cet ajustement technique du débit , il faut également compter avec le nombre d’abonnés connectés simultanément sur le réseau. Pour éviter la cacophonie digitale, la base doit procéder à une régulation des accès. Pour cela elle fait appel à un algorithme qui gère lui-même les « temps de parole » en tenant compte de l’harmonisation des délais, du type de service demandé, et bien sûr du contenu du contrat d’abonnement.


Pour toutes ces raisons il n’est pas possible de connaître à l’avance le débit sur lequel on va pouvoir compter.


Une seule certitude: plus on se rapproche de l’antenne et plus les performances s’améliorent.

Repost 0
7 décembre 2010 2 07 /12 /décembre /2010 11:41

7 Décembre 2010


Le Gouvernement a lancé en Décembre 2009 le label « Haut débit pour tous »


Il s’agit d’attribuer un label de qualité pour permettre à l’usager de voir clair dans la multiplicité des offres qui lui seront présentées.


Grâce aux média le WiMAX est perçu du grand public comme LA solution ADSL performante capable de pallier avantageusement les défaillances de la paire de cuivre dans les « zones blanches ».


Mais WiMAX est une norme adaptative qui permet de moduler les performances en fonction de la robustesse du canal utilisé ( distance, hauteur d’antenne, obstacles, interférences, etc…). D’autre part, comme dans toute liaison radio , la ressource disponible sur un canal donné doit être partagée entre les usagers de ce  canal.


WiMAX peut donc offrir le meilleur comme le pire selon les circonstances.


Il est donc intéressant de se pencher sur le cahier des charges que les FAI devront respecter pour avoir droit au fameux label.


Voici l’essentiel des performances exigées:



«Le service d’accès à Internet doit permettre d’échanger des courriels et des fichiers de taille raisonnable (de l’ordre de 1 Mo) et de consulter et d’utiliser la plupart des sites internet accessibles au public en bénéficiant en fonctionnement normal, avec un objectif de disponibilité du service permanente, du débit théorique suivant :





un débit descendant minimum de 512 kbit/s ;


un débit montant minimum de 96 kbit/s.





Au-delà de l’échange de 2 Go de données sur un mois (dont 300 Mo en émission), le débit maximum proposé est susceptible d’être limité et la connexion coupée.



L’usage intensif des téléchargements peer-to-peer et la visualisation prolongée de vidéos ne sont donc pas exigés des prestataires.



Il n’est pas exigé que le service proposé permette la réception de la télévision ou de la radio, l’utilisation des jeux vidéo en réseau, ou d’un service de téléphonie dont le flux serait différencié des autres flux de données ».


 

 

 

http://www.hautdebitpourtous.telecom.gouv.fr/cahier_des_charges.php  



Voici donc ce que pourra offrir un FAI détenteur du label « Haut débit pour tous » sans risquer de se voir poursuivi .


Pas de peer-to-peer, pas de jeux vidéo en ligne, pas de transferts d’images, et bien sûr pas de télévision ni de radio, et menace de coupure de connexion en cas de dépassement d’un quota.


Je conseille aux usagers intéressés par le WiMAX de bien lire le contrat et le cahier des charges avant de signer.



 


 


 


 


 


 


 


 


 

 
Repost 0
3 décembre 2010 5 03 /12 /décembre /2010 16:02

 

 

3 Décembre 2010

L’explosion du marché des nanomatériaux a bénéficié d’un vide règlementaire et donc d’une absence à peu près totale de contrôle, en particulier du point de vue sanitaire.

La règlementation existante concernant la dissémination des particules et des poussières et les précautions imposées pour leur manipulation ne convient pas aux nanoparticules. En effet, les propriétés d’un matériau sont complètement différentes selon qu’il est à l’état macroscopique ou à l’état nanoscopique; il s’agit pratiquement d’un nouveau produit , avec des capacités réactives particulières spécialement en raison de la taille des éléments.

Il est donc nécessaire de développer une approche spécifique de ce type de produits, en insistant particulièrement sur les risques sanitaires liés à la pénétration dans l’organisme humain.

La Communauté Européenne a initié un projet ( NANOSAFE 1 ) avec pour mission de faire un état des lieux aussi complet que possible sur les nanomatériaux. Ce projet de deux ans ( 2003- 2004 ) s’est déroulé avec la participation de neuf partenaires européens dans tous les domaines concernés: La fabrication des NP, leur utilisation, la recherche en pneumologie et épidémiologie, la médecine du travail.

L’objectif étant de rassembler l’information sur les risques potentiels des nanomatériaux, évaluer les risques pour les travailleurs et les consommateurs, recommander des mesures de règlementation et des règles d’usage pour préserver la santé des individus.

Le résultat de ces travaux est exposé dans le rapport final de 2004 disponible ici:

 

 

http://www.nanosafe.org/home/liblocal/docs/Nanosafe1_final_report.pdf 

Dans ce rapport le consortium prend acte de l’insuffisance ces connaissances et souligne la nécessité de travaux supplémentaires pour la caractérisation des nanoparticules et l’évaluation des risques potentiels.

Le programme NANOSAFE 1 a été suivi de NANOSAFE 2, toujours soutenu par la Communauté Européenne dans le cadre du 6è Programme Cadre. Sept pays européens y ont participé sous le leadership du CEA, 24 partenaires . Programme démarré en 2005 pour 48 mois.

Il s’agissait essentiellement de mettre en œuvre les recommandations exprimées dans NANOSAFE 1, déclinés en quatre sous-projets:

- Techniques de détection et de caractérisation des nanoparticules.

- Risques sanitaires et toxicologiques.

- Systèmes de production et d’application sécurisés.

- Impact sur la société et l’environnement, aspects légaux.

De nombreux résultats sont disponibles, l’ensemble du projet peut être consulté ici:

 

 

http://www.nanosafe.org/scripts/home/publigen/content/templates/show.asp?L=EN&P=55&vTicker=alleza 

Nous nous proposons d’analyser ces résultats dans de prochains articles.

 

 

 

 

 

 

 

 

 

Repost 0
2 décembre 2010 4 02 /12 /décembre /2010 19:01

2 Décembre 2010

Nous avons évoqué ( article du 30 Novembre ) le monde des nanoparticules naturelles, avec lesquelles l’Homme a appris à vivre en développant des protections physiologiques au fil de l’évolution.

Les progrès technologiques nous confrontent maintenant à un nouveau type de pollution constitué par des nanoparticules artificielles purement anthropiques.

Ces particules, qu’il faut plutôt appeler « nanomatériaux » ont été créées pour l’intérêt de leurs propriétés particulières liées à leur taille microscopique. Utilisées comme additifs à certains matériaux et produits manufacturés, elles leurs confèrent des qualités supplémentaires très appréciées.

Leur composition est très variable. Le tableau suivant résume l’essentiel des différents types proposés sur le marché par les entreprises spécialisées.

Nanomateriaux-primaires-copie-2.jpg

La législation sur les nanomatériaux est à peu près inexistante, en tous cas sommaire et un peu vague. Ces nouveaux venus se retrouvent donc dans la plupart des produits de grande consommation. Le tableau ci-dessous présente une liste non exhaustive des domaines dans lesquels on peut les trouver ( Trouver n’est le mot qui convient puisqu’ils sont invisibles et indétectables, sauf à utiliser des procédés de laboratoire).

Nanoparticules-artificielles_2-Dec-2010-copie-4.jpg

 

Des travaux sont en cours pour permettre aux industriels et aux consommateurs de s’y retrouver dans cette jungle. Nous tâcherons d’y voir plus clair dans un prochain article.

 

Repost 0
30 novembre 2010 2 30 /11 /novembre /2010 15:41

30 Novembre 2010

Depuis la nuit des temps l’Homme respire une atmosphère chargée de particules:

Suies de combustion, cendres volcaniques, produits d’érosion éolienne, poussières, microparticules végétales comme les pollens, sables désertiques, ont toujours été présents, et le système respiratoire des mammifères s’est adapté en développant des protections naturelles à base de sécrétions de mucus, de cils vibratiles, de poils filtrants, de macrophages dans les alvéoles pulmonaires, qui sont efficaces contre l’intrusion de ces particules avec l’aide du reflex de la toux, et constituent les mécanismes de clairance.

Les particules naturellement présentes dans l’atmosphère , de par leurs origines très diverses, se présentent sous des aspects variés. Leurs dimensions s’étendent de quelques microns pour les poussières d’érosion des sols, jusqu’à quelques nanomètres pour les suies et les fumées de combustion. On appelle nanoparticules les éléments inférieurs à 100 nanomètres.

Le tableau suivant montre l’échelle des dimensions de ces particules naturelles :

 

La-metrique-des-objets-1.jpg

 

Lorsque des particules atmosphériques naturelles pénètrent dans les voies respiratoires elles sont normalement rejetées par les mécanismes de clairance, si elles ne sont pas en nombre excessif. Mais les particules les plus fines ( nanoparticules ) pénètrent profondément dans les poumons jusqu’à l’intérieur des alvéoles pulmonaires. Si leur nombre est trop élevé, le mécanisme de clairance est saturé et les particules les plus fines peuvent s’amasser dans les alvéoles, voire même passer dans le circuit sanguin.

Le tableau ci-dessous montre que les nanoparticules sont du domaine des dimensions physiologiques les plus faibles, elles sont plus petites qu’un virus HIV, certaines sont d’une taille inférieure à celle d’un protéine, ce qui explique la vulnérabilité de l’organisme à des agresseurs aussi petits, dont certains peuvent franchir la membrane cellulaire.

 

La-metrique-des-objets-2.jpg

 

Le nombre des particules naturelles présentes dans l’atmosphère varie de quelques milliers par cm3 à quelques dizaines de milliers par cm3, voire beaucoup plus, selon l’endroit. Parmi les nanoparticules naturelles nous connaissons les pollens, générateurs de troubles respiratoires, et les suies et fumées de combustion, qui causent de graves troubles pulmonaires dans certaines régions du monde ( voir l‘article du 25 Novembre sur le nuage brun d‘Asie ).

Les programmes de réduction des émissions de nanoparticules de combustion de biomasse ne concernent pas seulement les régions défavorisées comme l’Asie ou l’Afrique, mais aussi les pays développés qui tendent , pour de mauvaises raisons écologiques, à remplacer les combustibles fossiles par le bois.

L’ADEME recommande d’encadrer le développement de la biomasse énergie et de se débarrasser des appareils de combustion anciens.

Aujourd'hui, les grosses chaudières font l'objet de réglementations sévères et du label "Flamme verte". En revanche, la réglementation sur les cheminées ou autres barbecues est inexistante.

Il ne serait pas pertinent de remplacer une pollution par une autre.

 

 

 

 

Repost 0
27 novembre 2010 6 27 /11 /novembre /2010 15:22

27 Novembre 2010

L’AFSSET ( Agence Française de Sécurité Sanitaire de l’Environnement et du Travail) a rendu en Nov. 2008 un avis favorable à l’injection de biogaz dans le réseau de distribution de gaz naturel.

Ce procédé, déjà largement utilisé en Allemagne, s’inscrit dans le cadre de la valorisation des déchets ménagers et agricoles, et à ce titre reçoit une approbation unanime. L’AFSSET rassure les futurs utilisateurs:

« Il n'y a pas de risque sanitaire spécifique au biogaz, par rapport au gaz naturel, que ce biogaz provienne de méthanisation de résidus agricoles, agro-alimentaires, de biodéchets ménagers, de déchets municipaux, de centre de stockage de déchets non dangereux (déchets municipaux et déchets industriels banals) ».

Nulle part il n’est fait mention des nanoparticules.

Quel rapport avec le biogaz ?

Les nanoparticules sont utilisées de plus en plus largement partout et en particulier dans les produits alimentaires et cosmétiques. On les trouvent aussi bien évidemment dans les emballages et les produits ménagers. Ces nanoparticules passent dans le système digestif et pénètrent la peau. De cela tout le monde se moque, il n’existe aucune étude d’innocuité malgré les fortes suspicions qui pèsent sur ces produits.

Business as usual….

Mais au moins nos poumons sont épargnés.

Par contre, lorsque les déchets ménagers contribuent à la fabrication du biogaz , les nanoparticules ne sont pas éliminées ( personne ne sait comment les filtrer ) et se retrouvent dans le bio méthane injecté dans le réseau.

Le gaz brûlé dans nos cuisinières contient donc des nanoparticules qui se retrouvent dans les résidus de combustion et donc se répandent dans la maison.

C’est donc dans nos poumons que ces particules vont terminer leur existence et achever de nous intoxiquer.

Et encore, ceci n’est rien à coté de ce qui se prépare. Jusqu’à présent les autorités n’ont pas osé autoriser l’injection du biométhane obtenu à partir des boues de stations d’épuration. Il y a des limites à l’inconscience.

Mais cela ne saurait durer car l’Afsset regarde sérieusement de ce coté et recommande:

«- la recherche de données de composition chimique et microbiologique des biogaz issus de boues de stations d’épuration et des déchets industriels en vue d’une évaluation des risques sanitaires, si leur injection devait être envisagée,

- de développer des programmes de recherche visant à renseigner les teneurs en éléments traces dans les biogaz épurés, mais également dans le gaz naturel distribué,

- d’acquérir des connaissances sur l’efficacité des systèmes d’épuration du biogaz brut,

- de rechercher des indicateurs pertinents de suivi de la qualité du biogaz dès lors que celui sera injecté,

- d’une manière plus générale de mieux renseigner l’exposition des usagers au gaz naturel, au biogaz et à leurs résidus de combustion » .

Espérons que les travaux de nos apprentis sorciers ne seront pas laissés à l’initiative des seuls marchands de gaz….

Repost 0
26 novembre 2010 5 26 /11 /novembre /2010 11:53

26 Novembre 2010

Pour espérer gagner une guerre, il faut d’abord connaître son ennemi. Dans le contexte de la menace de changement climatique catastrophique, le dioxyde de carbone a été élu ennemi public numéro un , une guerre contre ce gaz est donc envisagée à l’échelle de la planète.

Avant de déclencher les hostilités contre un agresseur, il est indispensable de connaître ses forces, ses intentions, ses modes d’action, ses alliés, ses points faibles.

Or, en matière de CO2, il subsiste de graves lacunes dans nos connaissances:

De la totalité du carbone émis par les activités humaines depuis 1750 jusqu’à nos jours, seulement 40% sont demeurés dans l’atmosphère. Les 60% restant ont été soit absorbés par les océans et les continents, soit ont disparu ( durée de vie longue mais limitée ). On estime que la partie absorbée se partage 50% dans les océans, et 50% sur les continents. Nos connaissances des sources et des puits de carbone est très insuffisante.

Il nous faut répondre aux questions suivantes:

- Quels sont les processus naturels d’absorption des émissions anthropiques de carbone ?

- Ces processus vont-ils continuer comme aujourd’hui à limiter l’accroissement du taux de CO2 ?

Ou bien, vont-ils s’arrêter ou même s’inverser dans le futur ?

- Le carbone manquant a-t-il été absorbé par les océans et par les continents ? Et dans quelles proportions ?

- Quels continents absorbent davantage que d’autres ?

- Pourquoi le taux d’accroissement du CO2 varie-t-il d’une année sur l’autre alors que les émissions augmentent uniformément ?

- Comment les puits de carbone répondront-ils aux changements climatiques et/ou aux changements d’utilisation des sols ?

- Quels sont les processus qui contrôlent le taux d’accroissement du CO2 ?

- Quelles sont les sources du CO2 ?

- Quelle est la distribution géographique et l’importance des émissions de CO2 provenant de la combustion des combustibles fossiles, et des sources moins bien connues comme le dégazage des océans, la déforestation, la combustion des biomasses ?. Comment cette distribution évolue-t-elle avec le temps ?

Questionnaire extrait de:

 

http://www.nasa.gov/mission_pages/oco/mission/index.html

 

La mise en place d’une stratégie cohérente anti-carbone exige évidemment de pouvoir répondre à ces questions, non pas avec des approximations mais avec des explications claires et des données chiffrées.

Dans le cadre des études sur les cycles du carbone, la NASA prépare le lancement du satellite OCO-2 ( Orbital Carbon Observatory ) . Le lancement est prévu pour 2013, en remplacement de OCO-1, dont le lancement en 2009 a échoué.

Ce satellite a pour mission d’établir une carte mondiale du CO2, remise à jour tout les 16 jours, avec identification des sources naturelles et anthropiques, les variations saisonnières, identification des puits, surveillance permanente de leur évolution.

Aujourd’hui , une centaine de stations terrestres effectuent des observations du CO2, mais sans possibilité d’identifier les puits de carbone. Seule une observation spatiale pourra apporter des réponses précises.

OCO-2 prendra place dans le train de satellites d’observation de la NASA, composé aujourd’hui de cinq satellites d’observation groupés sur la même orbite.

 

 

 

 







 

 

Repost 0
25 novembre 2010 4 25 /11 /novembre /2010 18:42

25 Novembre 2010

On évalue à trois milliards le nombre de personnes qui n’utilisent pas les combustibles fossiles pour cuisiner ou se chauffer. Leurs combustibles naturels sont le bois de coupe, le petit bois, les brindilles, les résidus de récoltes, ou les bouses séchées. Ces produits sont brûlés dans des dispositifs rudimentaires tels que feux ouverts ou fourneaux en boue séchée, qui sont fortement émetteurs de produits de combustion incomplète: particules de suie ( carbone noir ), méthane, et autres précurseurs d’ozone, dont de nombreux toxiques. En sus du dioxyde de carbone bien entendu.

Malgré leur faible durée de vie dans l’atmosphère ( quelques semaines ) , le volume considérable émis se traduit par une couverture permanente ( car renouvelée ) visible depuis l’espace ( voir photo ). Le nuage stagnant au-dessus de la région Inde-Chine s’étend sur une surface comparable à celle des Etats-Unis, sur une épaisseur de deux à trois kilomètres.

 

Brown-cloud_nasa-image.jpg

 

 

Il est composé pour 2/3 des résidus de combustion de biomasse, et pour 1/3 de la combustion des énergies fossiles.

Ces composants polluants contribuent à la part anthropique de l’effet de serre à hauteur de 30 à 50%, le reste étant la part du CO2. Les chiffres exacts de la répartition sont encore imprécis et font l’objet de programmes de mesures par satellites.

Ce fameux nuage brun d’Asie ignore évidemment les frontières. La circulation atmosphérique se charge d’en faire profiter le reste du monde au gré des courants et des turbulences.

Dans les régions comme l’Inde et la Chine, où la concentration humaine est maximale, le nuage est présent en permanence, avec des effets « secondaires » néfastes. Fonte des neiges et glaces par noircissement et changement d’albedo, déforestation induisant un déficit du bilan CO2, mais aussi fort impact sur la santé des populations. Les Nations Unies évaluent à un million et demi le nombre de morts causés chaque année par cette pollution.

Le programme SURYA , soutenu par les Nations Unies, se propose d’apporter une solution à ce problème par une modification des conditions d’utilisation de l’énergie. Il s’agit essentiellement de promouvoir des méthodes « propres » pour le chauffage et la cuisson. L’idée n’est pas neuve, mais elle a toujours été appliquée à petite échelle et de manière sporadique.

 

cuisine-tradirionnelle.png

 

four-solaire-familial.jpg

 

 

 Le projet SURYA est un programme scientifique de grande échelle qui sera décomposé en trois phases:

Une première phase pilote 2009/2010 , pour la validation des procédures. Cette phase est terminée.

Une seconde phase, 2011/2013, intéressant un ensemble de 50 000 personnes dans le Nord de l’Inde.

Une troisième phase, 2014/2020, visant à l’élargissement de la zone de confirmation, avec extension à d’autres régions comme l’Afrique, l’Asie, et l’Amérique latine.

De nombreux scientifiques de toutes disciplines sont impliqués dans ce projet , de nombreuses stations de mesures au sol sont prévues, en liaison avec le « petit train de la NASA » . Pour les détails, voir ici:

 

http://www.projectsurya.org/

 

http://csc.gallaudet.edu/soarhigh/A-TrainExplain.html

 

L’intérêt d’un tel projet, outre une amélioration du confort et de la santé des populations, et une action contre l’effet de serre anthropique, est l’obtention d’un résultat quasi immédiat et palpable.

En effet, alors que le CO2 possède une très longue durée de vie, et donc ne pourra diminuer que dans très longtemps, les produits sales de combustion ont une durée de vie très courte. Une action contre ces produits donnera des résultats quasi immédiats, facilitant l’adhésion des populations aux efforts demandés.

 

 

 

 

Repost 0
23 novembre 2010 2 23 /11 /novembre /2010 15:38

23 Novembre 2010

L’arrêt de non lieu pris par la Ministre Valérie Pécresse à l’issue d’une instruction menée à huis clos dans le procès intenté au Soleil dans l’affaire du changement climatique , ne mettra pas un terme à l’action des parties civiles, lesquelles parties persistent à acter , arguant du caractère purement local et gaulois de la portée de cette décision, qui par ailleurs ne saurait engager les parties non directement inféodées au gouvernement de la Gaule.

En conséquence, rien de nouveau sous le Soleil, les projets en cours continuent, et des projets nouveaux voient le jour.

Voici un petit aperçu des programmes de recherche portant sur l’étude du Soleil dans ses relations avec la Terre .

 

- D’abord la mission SOHO ( Solar and Heliospheric Observatory) , collaboration entre l’ESA et la NASA; lancé en Décembre 1995, le satellite emporte douze instruments d’observation et de mesure du Soleil. Son orbite, synchrone de celle de la Terre, le situe sur une ligne entre Terre et Soleil. Cette station fonctionne toujours, la dernière prolongation s’étend jusqu’en 2012 et en fait un instrument encore actuel malgré ses quatorze années de service.

Tous les détails ici:

 

http://smsc.cnes.fr/SOHO/Fr/

- La mission CLUSTER, de l’ESA, comporte quatre satellites dont chacun porte onze instruments de mesures du Soleil. Plus particulièrement destinés à l’étude des interactions entre vents Solaires et magnétosphère Terrestre.

Commencée en 2000, la mission a été également prolongée jusqu’en 2012.

Voir détails ici:

 

http://smsc.cnes.fr/CLUSTER/Fr/

SOHO et CLUSTER font partie du programme « HORIZON 2000 » de l’ESA pour la partie STSP ( Solar Terrestrial Science Program ).

- La mission DOUBLE STAR, de l’Agence Spatiale Nationale Chinoise, en collaboration avec l’ESA et le CNES. Deux satellites, lancés en 2003 et 2004, portant 17 instruments pour l’étude détaillée de certaines régions de la magnétosphère. Fonctionnent en synchronisme avec CLUSTER.

 

http://smsc.cnes.fr/DBSTAR/Fr/

- La mission HINODE ( ex SOLAR B ), collaboration entre l’Agence Spatiale Japonaise, la NASA, l’ESA, et la Grande Bretagne. Satellite qui succède à YOKO (ex SOLAR A) perdu prématurément. Transporte trois instruments pour l’étude du Soleil: Télescope dans le visible, et analyse UV et rayons X.

Lancé en 2006.

 

http://solarb.msfc.nasa.gov/

- La mission STEREO, de la NASA, comporte deux satellites pour l’études des éruptions solaires et de leurs effets sur l’environnement terrestre, en liaison avec les stations terrestres ( NOAA, CNES, etc…). Instrumentation en ^partie fournie par le CNES. Lancement en Oct. 2006.

 

http://smsc.cnes.fr/STEREO/Fr/

- La mission PICARD, un satellite du CNES ( de la famille des micro-satellites) lancé en Juin 2010 pour l’observation du Soleil dans la phase ascendante du 24è cycle .

 

http://smsc.cnes.fr/PICARD/Fr/GP_satellite.htm

- Nous avons déjà présenté le programme « CLOUD » ( voir article du 22/11), portant sur le rôle du rayonnement cosmique sur les nuages et les aérosols, avec le Soleil en coulisses , pour son action sur les rayons cosmiques par l‘intermédiaires des vents solaires.

Les résultats consolidés doivent être obtenus en 2011/2012, la partie mise en œuvre et expérimentation étant à peu près terminée.

 

http://public.web.cern.ch/public/en/Research/CLOUD-en.html

- Le programme Russe « ASTROMETRIA » se propose d’étudier le Soleil lui-même. L’expérience sera embarquée sur la station spatiale internationale. Son but est l’étude de l’ensemble des processus qui se déroulent dans le Soleil et de leur influence sur les variations des processus physiques du système Soleil/Terre, et l’analyse fine des structures et de la dynamique des régions actives et des régions calmes de la photosphère ainsi que leurs variations cycliques.

Il s’agit d’une station de mesure long terme qui devra recueillir des longues séries temporelles de relevés.

Détails du projet ASTROMETRIA ici:

 

http://195.201.30.3/english/astrometr/index1_eng.html

Détails techniques sur le Limbograph SL-200 ici

 

http://www.gao.spb.ru/english/astrometr/1_eng.html

- Le programme NASA LWS ( Living With a Star ) .

Le nom du programme suffit à décrire les intentions.

La première partie du programme est supportée par la mission SDO ( Solar Dynamics Observatory ) , embarquée sur un satellite mis sur orbite en Février 2010.

Il s’agit d’étudier les processus de génération du champ magnétique solaire, ses structures et ses modes d’action à travers l’héliosphère et le géospace.

Il s’agit d’une mission à long terme, typiquement la durée du cycle solaire.

Tout sur cette mission ici:

 

http://sdo.gsfc.nasa.gov/mission/about.php

 

Cet aperçu limité montre qu’une activité scientifique considérable est déployée au niveau internationale pour l’étude du Soleil et de ses interactions avec notre planète.

La France est présente dans beaucoup de ces missions « solaires », ce qui témoigne de l’intérêt porté par nos scientifiques à l’étude du système Terre-Soleil et aux interactions entre activité solaire et environnement terrestre.

On peut d’autant plus s’étonner de l’attitude du Ministre de la Recherche, qui semble ignorer cette activité dans son domaine de responsabilité.

 

 

 

 

 

 

Repost 0