Overblog Suivre ce blog
Administration Créer mon blog
16 décembre 2010 4 16 /12 /décembre /2010 09:27

16 Décembre 2010


Nous avons vu précédemment que la voiture tout électrique ne deviendra une « vraie » voiture que lorsque la réserve d’énergie embarquée sera suffisante, de l’ordre de 250 KWh. Rappelons qu’aujourd’hui cette réserve ne dépasse pas le dixième de cette valeur , avec un maximum de 30 KWh sur la Blue-Car de Bolloré.


Les industriels ont parfaitement conscience de ce problème et tous les labos de recherches travaillent au développement de nouvelles batteries, avec un objectif de densité massique de 1 KWh par kilogramme.


Cet objectif n’est pas utopique, il est déjà atteint sur des démonstrateurs de labo. Le problème est de transférer ces résultats sur le terrain industriel pour lequel le cahier des charges est exigeant: coût, sécurité, fiabilité, robustesse, durée de vie, tenue en température, mise en œuvre, approvisionnement des matériaux, etc…


On peut raisonnablement penser que cet objectif industriel sera atteint dans un délai de cinq à dix ans, compte tenu de la très forte demande liée à la nécessité de remplacer les combustibles fossiles, de réduire les émissions de CO2, et de supprimer la pollution par les oxydes d’azote et les nanoparticules.


Lorsque nos voitures seront équipées de batteries de 250 KWh, un autre problème devra être résolu: celui de la recharge de ces « monstres ».


Autant il est relativement facile de recharger à domicile en quelques heures une batterie de 25 KWh, autant la fourniture de 250 KWh est problématique.


Sur une installation domestique, on peut envisager de prendre 3 KW pour le chargeur de batterie. Une dizaine d’heures suffisent alors à recharger un accu de 25 KWh.


( Les gazettes ne disent pas comment EDF pourra faire face à ce formidable appel de courant en soirée, courant qui viendra s’ajouter aux besoins du chauffage en hiver, mais ceci est une autre histoire…)


Par contre, aucune installation domestique n’est capable de fournir les 30 KW nécessaires à la recharge de l’accu de 250 KWh. Il faudra faire appel à une structure extérieure , une station service électrique ou un réseau spécialisé. Et pour EDF, la difficulté sera multipliée par dix.


Donc la croissance du marché de la voiture tout électrique n’est pas pour demain. Cette croissance ne sera possible que si les problèmes de logistique sont résolus.


La mise au point de batteries performantes ne suffira pas à créer le marché. Il faudra mettre en place une infrastructure logistique lourde pour laquelle il n’existe aujourd’hui aucun projet.


La Blue-Car de Bolloré vient d’être retenue pour la mise en place du service Autolib à Paris. Cette application en vraie grandeur permettra une meilleure connaissance des problèmes de logistique, dont il y aura sûrement des leçons à tirer.



 

Repost 0
15 décembre 2010 3 15 /12 /décembre /2010 17:49

15 Décembre 2010


Aujourd’hui nous roulons dans des voitures qui consomment un carburant liquide. Ces véhicules nous donnent toute satisfaction, tant sur le plan du confort que de l’autonomie. Même le prix est apparemment accepté si l’on en juge par le succès commercial des nouveaux modèles . Nous apprécions de pouvoir emprunter les autoroutes pour franchir des centaines de kilomètres pour les vacances ou les week-ends, et ce sans avoir à s’arrêter pour faire le plein.


Pour cela nos autos sont équipées de réservoirs d’environ 70 litres, dont le volume et le poids sont discrets, laissant une large place pour emporter cinq passagers et leurs bagages.


le pouvoir calorifique de l’essence est d’environ 35 000 KJ/L, ce qui fait un stock énergétique de 2 450 MJ, ou encore 681 KWh.


Une grande partie de cette énergie est perdue* car le rendement de nos moteurs thermiques ne dépasse pas 0,4. L’énergie « utile » à la propulsion est donc de 272 KWh « seulement ».


* Pas tout à fait perdue car une partie est utilisée pour le chauffage de l’habitacle en hiver.


Si l’on remplace le moteur thermique par une propulsion électrique, tout en conservant les mêmes prestations, il faut garder la même énergie utile de 272 KWh.


Le moteur électrique possède un excellent rendement, au moins 80%. La réserve d’énergie à prévoir sera donc d’environ 340 KWh en première approximation.


Mais on considère que 20 % environ de l’énergie dépensée peut être récupérée lors de phases de freinage. L’énergie embarquée peut alors se limiter à 270 KWh.


Dans l’état actuel de la technologie des batteries, la densité massique est de l’ordre de 100 Wh/Kg ( chiffres indiqués pour la batterie L.M.P. qui équipe la « Blue-Car » de Bolloré).


Pour obtenir une réserve de 270 KWh, il faut  une batterie d’un poids de 2 700 Kg.


Ceci est  bien sûr parfaitement inconcevable.


Donc, aujourd’hui, il n’est pas possible de fabriquer une voiture électrique offrant les mêmes prestations que son homologue à essence.


Les véhicules électriques présentés sur le marché sont une première offre compatible avec l’état de l’art. Le passage obligé est le poids maximum acceptable de la batterie, de l’ordre de 300 Kg. En-dessous l’énergie est très insuffisante, et au-dessus le poids est inacceptable. Ceci nous donne la réserve d’énergie, soit 30 KWh environ, c’est-à-dire presque dix fois moins que ce qu’il faudrait pour égaler les prestations d’une auto actuelle à essence.


Il n’est donc pas pertinent d’essayer de comparer les deux: il s’agit d’autre chose, pour un autre usage.


Avec ces 30 KWh, on cherche à offrir une autonomie raisonnable, de l’ordre de 150 Kms. Avec l’énergie récupérée au freinage on peut compter sur 40 KWh utiles .Il faut donc limiter la puissance du moteur à une vingtaine de Kilowatts, soit environ 27 CV, ce qui correspond à la puissance d’une Renault Dauphine, mais avec la pénalité d’une batterie de 300 Kg !


La Blue-Car de Bolloré est présentée avec un moteur de 50 KW, qui servira surtout à impressionner les journalistes en permettant une vitesse de pointe de 130 Km/h, qui ne pourra pas être soutenue bien longtemps évidemment, eu égard à la puissance crête de la batterie , annoncée pour 45 KW pendant 30 secondes ! Même pas de quoi impressionner la petite amie…


L’autonomie annoncée de 250 Kms doit être comprise à puissance limitée évidemment, c’est-à-dire à vitesse réduite, le Lithium ne permet pas de miracles….


Le problème de la voiture électrique reste donc la batterie. Mais , contrairement aux tentatives précédentes avortées faute de technologie de batteries, il y a aujourd’hui des espoirs sérieux d’améliorer significativement la situation.


L’objectif les labos de recherche est d’atteindre une densité massique de 1 KWh/Kg.


La technique industrialisable aujourd’hui  permet le dixième de ce chiffre. On mesure l’ampleur de la tâche à accomplir.


Nous verrons dans un autre article qui fait quoi dans ce domaine .



 


 


 


 

Repost 0
13 décembre 2010 1 13 /12 /décembre /2010 11:44

13 Décembre 2010


Les deux entrées essentielles des nanoparticules dans le corps humain sont les voies aériennes et les voies digestives. L’entrée par la voie intradermique est théoriquement possible, bien que fortement contestée dans des conditions normales hors blessure. Nous nous intéressons ici à la voie aérienne.


L’air que nous respirons est « normalement » chargé de particules de toutes sortes. Chaque cm3 inspiré contient entre 10 000 et 100 000 particules dont la taille s’échelonne entre 1 nm et 100 µm, et dont la composition représente un échantillonnage à peu près complet de ce que notre civilisation est capable de produire, sans oublier les particules naturelles bien entendu.


Les voies aériennes bronchiques sont tapissées de muqueuses et de cils vibratiles qui participent à l’élimination de l’essentiel des particules grâce au mécanisme de clairance pulmonaire. Les déchets restants sont expectorés et le reste est éliminé par les macrophages.


La structure fractale de l’arbre bronchique est semblable à celle d’un filtre à particules, mais à l‘envers. Les fibres sont ici remplacées par des tubes recouverts de muqueuse qui « piège » les particules par les mêmes mécanismes d’impact, de gravité et de diffusion, que dans un filtre.  Des mécanismes électrostatiques ne sont pas exclus.


Seule une très petite fraction des  nanoparticules réussissent à se faufiler dans les alvéoles pulmonaires.


Notons qu’il a été signalé une possibilité d’entrée des nanoparticules par l’appareil olfactif, directement en liaison avec le cerveau par le nerf olfactif. Ceci sera évoqué ultérieurement.


Les échanges gazeux se font à travers la membrane alvéolaire, dont la surface totale est comparable à celle d’un cours de tennis.


Le lobule alvéolaire est enrobé de vaisseaux capillaires sanguins en sorte que la distance entre l’intérieur des alvéoles et l’intérieur des capillaires sanguins n’excède pas 200 nanomètres.


Les polluants du monde extérieur ne sont donc séparés de l’intérieur de l’organisme que par une mince et fragile barrière physiologique de 200 nanomètres ! De plus cette barrière est ouverte à de nombreux échanges comme nous allons le voir ci-après.


En toute rigueur l’intérieur de l’organisme commence lors du franchissement de la membrane apicale phospholipidique des cellules épithéliales alvéolaires (pneumocytes de type 1 ) . La barrière serait donc réellement de 7 nm au lieu de 200 !


Une fois franchie cette « barrière » de 7 nm, la particule possède une chance sur deux d’être éjectée de la membrane basale par exocytose et de se retrouver dans la circulation lymphatique. Ou pire encore, si la nanoparticule possède quelque affinité avec une protéine transmembranaire, ou si elle est très petite ( quelques nm ), elle peut passer tranquillement la barrière épithéliale sans avoir à montrer patte blanche.


Un peu comme les molécules de certains gaz ( alcool, anesthésiants, toxiques ) utilisent le même chemin que O2 et CO2 , même si les mécanismes ne sont pas exactement les mêmes ( Diffusion simple à travers la membrane phospholipidique dans un cas , protéines transmembranaires dans l’autre ).


Lorsqu’une particule se dépose sur la paroi d’une alvéole, il peut lui arriver plusieurs choses:


Dans la très grande majorité des cas , elle a affaire aux macrophages. Ce sont des cellules spécialisées dans l’élimination des déchets, il y en a toujours quelques-unes dans chaque alvéole. Le macrophage se déplace en glissant sur la paroi de l’alvéole grâce à des pseudopodes, un peu comme un poulpe. Il absorbe la particule et, selon sa composition, la digère ou la conserve dans son cytoplasme.


Un macrophage peut « s’occuper » de plusieurs parasites ( particules, bactéries, …) avant de mourir. Il est alors lui-même évacué , soit vers l’extérieur, soit à travers la membrane alvéolaire dans l’intersticium, d’où ses composantes rejoignent le réseau lymphatique et les ganglions.


La protection apportée par les macrophages est « saturable ». Au-delà d’un certain seuil de pollution le système est dépassé .


Les particules qui échappent aux macrophages peuvent soit se dissoudre dans le surfactant, soit traverser la barrière alvéolo-capillaire, soit s’amasser dans l’alvéole.


La membrane des cellules épithéliales alvéolaire peut être franchie selon plusieurs procédés selon les dimensions de la particule, sa composition, son état de surface, sa polarité, sa réactivité chimique, sa souplesse, sa surface active, son degré d‘opsonisation. Les voies de passage peuvent être la diffusion simple, la diffusion facilitée, les canaux ioniques, les mécanismes d’endocytose, les clathrines, les cavéoles.


Il apparaît ainsi que le mécanisme de filtrage pulmonaire ne possède pas une efficacité parfaite, et que la barrière alvéolo-capillaire n’est pas une protection infranchissable.


Bien entendu, en cas de lésion pulmonaire, le passage des particules est grandement facilité.


Il est donc inévitable de retrouver dans l’organisme une partie des particules inhalées.


Le problème n’est donc plus de savoir si les nanoparticules entrent dans l’organisme, mais plutôt de savoir ce qu’elles deviennent  dans cet organisme quand elles y sont entrées.



(Ceci est une version réduite , la seule compatible avec Internet Explorer 9 version Béta. Y manquent notamment les liens et les figures.)



 


 

Repost 0
9 décembre 2010 4 09 /12 /décembre /2010 11:45

9 Décembre 2010


Concernant le débit que l’usager peut espérer d’une liaison WiMax, on trouve des indications très variables. En fait, la seule réponse sensée serait «  çà dépend… » un peu comme le fût du canon de Fernand Raynaud.


En effet, la norme IEEE 802-16 permet une transmission dite « adaptative » , ce qui est une qualité incontestable, mais qui implique par ailleurs certaines contraintes.


Le procédé grâce auquel les informations numériques sont transmises est trop complexe pour être décrit ici. Il suffit de savoir que la station de base ( l’antenne ) sait identifier chacun des abonnés individuellement, en terme de distance, de type de matériel de réception, de qualité de son antenne réceptrice, de type de service qui est demandé. De plus, la base est capable de mesurer la qualité de la transmission avec cet abonné, et ceci en permanence.


Par ailleurs la base a la possibilité technique d’adapter en temps réel le débit numérique servi à cet abonné , et de choisir le débit pour lequel la qualité de transmission sera convenable en fonction de certains critères ( QoS, Quality of Service).


Chaque abonné se verra donc attribué un débit de transmission individuel, qui pourra être différent de celui des autres abonnés.


Par exemple, si un abonné est situé loin de l’antenne, ou masqué par un obstacle, la transmission sera difficile; dans ce cas la base choisit , pour lui, un type de modulation plus « robuste », qui lui assurera une bonne réception. Or si on augmente la « robustesse » de la transmission c’est au détriment du débit, qui va être plus faible.


Pour un autre abonné qui se trouve près de l’antenne , la base va pouvoir lui servir la modulation la plus performante , avec un débit très supérieur au cas précédent.


Donc, le même jour, à la même heure, deux abonnés du même secteur d’antenne pourront avoir des débits très différents.


En plus de cet ajustement technique du débit , il faut également compter avec le nombre d’abonnés connectés simultanément sur le réseau. Pour éviter la cacophonie digitale, la base doit procéder à une régulation des accès. Pour cela elle fait appel à un algorithme qui gère lui-même les « temps de parole » en tenant compte de l’harmonisation des délais, du type de service demandé, et bien sûr du contenu du contrat d’abonnement.


Pour toutes ces raisons il n’est pas possible de connaître à l’avance le débit sur lequel on va pouvoir compter.


Une seule certitude: plus on se rapproche de l’antenne et plus les performances s’améliorent.

Repost 0
7 décembre 2010 2 07 /12 /décembre /2010 11:41

7 Décembre 2010


Le Gouvernement a lancé en Décembre 2009 le label « Haut débit pour tous »


Il s’agit d’attribuer un label de qualité pour permettre à l’usager de voir clair dans la multiplicité des offres qui lui seront présentées.


Grâce aux média le WiMAX est perçu du grand public comme LA solution ADSL performante capable de pallier avantageusement les défaillances de la paire de cuivre dans les « zones blanches ».


Mais WiMAX est une norme adaptative qui permet de moduler les performances en fonction de la robustesse du canal utilisé ( distance, hauteur d’antenne, obstacles, interférences, etc…). D’autre part, comme dans toute liaison radio , la ressource disponible sur un canal donné doit être partagée entre les usagers de ce  canal.


WiMAX peut donc offrir le meilleur comme le pire selon les circonstances.


Il est donc intéressant de se pencher sur le cahier des charges que les FAI devront respecter pour avoir droit au fameux label.


Voici l’essentiel des performances exigées:



«Le service d’accès à Internet doit permettre d’échanger des courriels et des fichiers de taille raisonnable (de l’ordre de 1 Mo) et de consulter et d’utiliser la plupart des sites internet accessibles au public en bénéficiant en fonctionnement normal, avec un objectif de disponibilité du service permanente, du débit théorique suivant :





un débit descendant minimum de 512 kbit/s ;


un débit montant minimum de 96 kbit/s.





Au-delà de l’échange de 2 Go de données sur un mois (dont 300 Mo en émission), le débit maximum proposé est susceptible d’être limité et la connexion coupée.



L’usage intensif des téléchargements peer-to-peer et la visualisation prolongée de vidéos ne sont donc pas exigés des prestataires.



Il n’est pas exigé que le service proposé permette la réception de la télévision ou de la radio, l’utilisation des jeux vidéo en réseau, ou d’un service de téléphonie dont le flux serait différencié des autres flux de données ».


 

 

 

http://www.hautdebitpourtous.telecom.gouv.fr/cahier_des_charges.php  



Voici donc ce que pourra offrir un FAI détenteur du label « Haut débit pour tous » sans risquer de se voir poursuivi .


Pas de peer-to-peer, pas de jeux vidéo en ligne, pas de transferts d’images, et bien sûr pas de télévision ni de radio, et menace de coupure de connexion en cas de dépassement d’un quota.


Je conseille aux usagers intéressés par le WiMAX de bien lire le contrat et le cahier des charges avant de signer.



 


 


 


 


 


 


 


 


 

 
Repost 0
3 décembre 2010 5 03 /12 /décembre /2010 16:02

 

 

3 Décembre 2010

L’explosion du marché des nanomatériaux a bénéficié d’un vide règlementaire et donc d’une absence à peu près totale de contrôle, en particulier du point de vue sanitaire.

La règlementation existante concernant la dissémination des particules et des poussières et les précautions imposées pour leur manipulation ne convient pas aux nanoparticules. En effet, les propriétés d’un matériau sont complètement différentes selon qu’il est à l’état macroscopique ou à l’état nanoscopique; il s’agit pratiquement d’un nouveau produit , avec des capacités réactives particulières spécialement en raison de la taille des éléments.

Il est donc nécessaire de développer une approche spécifique de ce type de produits, en insistant particulièrement sur les risques sanitaires liés à la pénétration dans l’organisme humain.

La Communauté Européenne a initié un projet ( NANOSAFE 1 ) avec pour mission de faire un état des lieux aussi complet que possible sur les nanomatériaux. Ce projet de deux ans ( 2003- 2004 ) s’est déroulé avec la participation de neuf partenaires européens dans tous les domaines concernés: La fabrication des NP, leur utilisation, la recherche en pneumologie et épidémiologie, la médecine du travail.

L’objectif étant de rassembler l’information sur les risques potentiels des nanomatériaux, évaluer les risques pour les travailleurs et les consommateurs, recommander des mesures de règlementation et des règles d’usage pour préserver la santé des individus.

Le résultat de ces travaux est exposé dans le rapport final de 2004 disponible ici:

 

 

http://www.nanosafe.org/home/liblocal/docs/Nanosafe1_final_report.pdf 

Dans ce rapport le consortium prend acte de l’insuffisance ces connaissances et souligne la nécessité de travaux supplémentaires pour la caractérisation des nanoparticules et l’évaluation des risques potentiels.

Le programme NANOSAFE 1 a été suivi de NANOSAFE 2, toujours soutenu par la Communauté Européenne dans le cadre du 6è Programme Cadre. Sept pays européens y ont participé sous le leadership du CEA, 24 partenaires . Programme démarré en 2005 pour 48 mois.

Il s’agissait essentiellement de mettre en œuvre les recommandations exprimées dans NANOSAFE 1, déclinés en quatre sous-projets:

- Techniques de détection et de caractérisation des nanoparticules.

- Risques sanitaires et toxicologiques.

- Systèmes de production et d’application sécurisés.

- Impact sur la société et l’environnement, aspects légaux.

De nombreux résultats sont disponibles, l’ensemble du projet peut être consulté ici:

 

 

http://www.nanosafe.org/scripts/home/publigen/content/templates/show.asp?L=EN&P=55&vTicker=alleza 

Nous nous proposons d’analyser ces résultats dans de prochains articles.

 

 

 

 

 

 

 

 

 

Repost 0
2 décembre 2010 4 02 /12 /décembre /2010 19:01

2 Décembre 2010

Nous avons évoqué ( article du 30 Novembre ) le monde des nanoparticules naturelles, avec lesquelles l’Homme a appris à vivre en développant des protections physiologiques au fil de l’évolution.

Les progrès technologiques nous confrontent maintenant à un nouveau type de pollution constitué par des nanoparticules artificielles purement anthropiques.

Ces particules, qu’il faut plutôt appeler « nanomatériaux » ont été créées pour l’intérêt de leurs propriétés particulières liées à leur taille microscopique. Utilisées comme additifs à certains matériaux et produits manufacturés, elles leurs confèrent des qualités supplémentaires très appréciées.

Leur composition est très variable. Le tableau suivant résume l’essentiel des différents types proposés sur le marché par les entreprises spécialisées.

Nanomateriaux-primaires-copie-2.jpg

La législation sur les nanomatériaux est à peu près inexistante, en tous cas sommaire et un peu vague. Ces nouveaux venus se retrouvent donc dans la plupart des produits de grande consommation. Le tableau ci-dessous présente une liste non exhaustive des domaines dans lesquels on peut les trouver ( Trouver n’est le mot qui convient puisqu’ils sont invisibles et indétectables, sauf à utiliser des procédés de laboratoire).

Nanoparticules-artificielles_2-Dec-2010-copie-4.jpg

 

Des travaux sont en cours pour permettre aux industriels et aux consommateurs de s’y retrouver dans cette jungle. Nous tâcherons d’y voir plus clair dans un prochain article.

 

Repost 0
30 novembre 2010 2 30 /11 /novembre /2010 15:41

30 Novembre 2010

Depuis la nuit des temps l’Homme respire une atmosphère chargée de particules:

Suies de combustion, cendres volcaniques, produits d’érosion éolienne, poussières, microparticules végétales comme les pollens, sables désertiques, ont toujours été présents, et le système respiratoire des mammifères s’est adapté en développant des protections naturelles à base de sécrétions de mucus, de cils vibratiles, de poils filtrants, de macrophages dans les alvéoles pulmonaires, qui sont efficaces contre l’intrusion de ces particules avec l’aide du reflex de la toux, et constituent les mécanismes de clairance.

Les particules naturellement présentes dans l’atmosphère , de par leurs origines très diverses, se présentent sous des aspects variés. Leurs dimensions s’étendent de quelques microns pour les poussières d’érosion des sols, jusqu’à quelques nanomètres pour les suies et les fumées de combustion. On appelle nanoparticules les éléments inférieurs à 100 nanomètres.

Le tableau suivant montre l’échelle des dimensions de ces particules naturelles :

 

La-metrique-des-objets-1.jpg

 

Lorsque des particules atmosphériques naturelles pénètrent dans les voies respiratoires elles sont normalement rejetées par les mécanismes de clairance, si elles ne sont pas en nombre excessif. Mais les particules les plus fines ( nanoparticules ) pénètrent profondément dans les poumons jusqu’à l’intérieur des alvéoles pulmonaires. Si leur nombre est trop élevé, le mécanisme de clairance est saturé et les particules les plus fines peuvent s’amasser dans les alvéoles, voire même passer dans le circuit sanguin.

Le tableau ci-dessous montre que les nanoparticules sont du domaine des dimensions physiologiques les plus faibles, elles sont plus petites qu’un virus HIV, certaines sont d’une taille inférieure à celle d’un protéine, ce qui explique la vulnérabilité de l’organisme à des agresseurs aussi petits, dont certains peuvent franchir la membrane cellulaire.

 

La-metrique-des-objets-2.jpg

 

Le nombre des particules naturelles présentes dans l’atmosphère varie de quelques milliers par cm3 à quelques dizaines de milliers par cm3, voire beaucoup plus, selon l’endroit. Parmi les nanoparticules naturelles nous connaissons les pollens, générateurs de troubles respiratoires, et les suies et fumées de combustion, qui causent de graves troubles pulmonaires dans certaines régions du monde ( voir l‘article du 25 Novembre sur le nuage brun d‘Asie ).

Les programmes de réduction des émissions de nanoparticules de combustion de biomasse ne concernent pas seulement les régions défavorisées comme l’Asie ou l’Afrique, mais aussi les pays développés qui tendent , pour de mauvaises raisons écologiques, à remplacer les combustibles fossiles par le bois.

L’ADEME recommande d’encadrer le développement de la biomasse énergie et de se débarrasser des appareils de combustion anciens.

Aujourd'hui, les grosses chaudières font l'objet de réglementations sévères et du label "Flamme verte". En revanche, la réglementation sur les cheminées ou autres barbecues est inexistante.

Il ne serait pas pertinent de remplacer une pollution par une autre.

 

 

 

 

Repost 0
27 novembre 2010 6 27 /11 /novembre /2010 15:22

27 Novembre 2010

L’AFSSET ( Agence Française de Sécurité Sanitaire de l’Environnement et du Travail) a rendu en Nov. 2008 un avis favorable à l’injection de biogaz dans le réseau de distribution de gaz naturel.

Ce procédé, déjà largement utilisé en Allemagne, s’inscrit dans le cadre de la valorisation des déchets ménagers et agricoles, et à ce titre reçoit une approbation unanime. L’AFSSET rassure les futurs utilisateurs:

« Il n'y a pas de risque sanitaire spécifique au biogaz, par rapport au gaz naturel, que ce biogaz provienne de méthanisation de résidus agricoles, agro-alimentaires, de biodéchets ménagers, de déchets municipaux, de centre de stockage de déchets non dangereux (déchets municipaux et déchets industriels banals) ».

Nulle part il n’est fait mention des nanoparticules.

Quel rapport avec le biogaz ?

Les nanoparticules sont utilisées de plus en plus largement partout et en particulier dans les produits alimentaires et cosmétiques. On les trouvent aussi bien évidemment dans les emballages et les produits ménagers. Ces nanoparticules passent dans le système digestif et pénètrent la peau. De cela tout le monde se moque, il n’existe aucune étude d’innocuité malgré les fortes suspicions qui pèsent sur ces produits.

Business as usual….

Mais au moins nos poumons sont épargnés.

Par contre, lorsque les déchets ménagers contribuent à la fabrication du biogaz , les nanoparticules ne sont pas éliminées ( personne ne sait comment les filtrer ) et se retrouvent dans le bio méthane injecté dans le réseau.

Le gaz brûlé dans nos cuisinières contient donc des nanoparticules qui se retrouvent dans les résidus de combustion et donc se répandent dans la maison.

C’est donc dans nos poumons que ces particules vont terminer leur existence et achever de nous intoxiquer.

Et encore, ceci n’est rien à coté de ce qui se prépare. Jusqu’à présent les autorités n’ont pas osé autoriser l’injection du biométhane obtenu à partir des boues de stations d’épuration. Il y a des limites à l’inconscience.

Mais cela ne saurait durer car l’Afsset regarde sérieusement de ce coté et recommande:

«- la recherche de données de composition chimique et microbiologique des biogaz issus de boues de stations d’épuration et des déchets industriels en vue d’une évaluation des risques sanitaires, si leur injection devait être envisagée,

- de développer des programmes de recherche visant à renseigner les teneurs en éléments traces dans les biogaz épurés, mais également dans le gaz naturel distribué,

- d’acquérir des connaissances sur l’efficacité des systèmes d’épuration du biogaz brut,

- de rechercher des indicateurs pertinents de suivi de la qualité du biogaz dès lors que celui sera injecté,

- d’une manière plus générale de mieux renseigner l’exposition des usagers au gaz naturel, au biogaz et à leurs résidus de combustion » .

Espérons que les travaux de nos apprentis sorciers ne seront pas laissés à l’initiative des seuls marchands de gaz….

Repost 0
26 novembre 2010 5 26 /11 /novembre /2010 11:53

26 Novembre 2010

Pour espérer gagner une guerre, il faut d’abord connaître son ennemi. Dans le contexte de la menace de changement climatique catastrophique, le dioxyde de carbone a été élu ennemi public numéro un , une guerre contre ce gaz est donc envisagée à l’échelle de la planète.

Avant de déclencher les hostilités contre un agresseur, il est indispensable de connaître ses forces, ses intentions, ses modes d’action, ses alliés, ses points faibles.

Or, en matière de CO2, il subsiste de graves lacunes dans nos connaissances:

De la totalité du carbone émis par les activités humaines depuis 1750 jusqu’à nos jours, seulement 40% sont demeurés dans l’atmosphère. Les 60% restant ont été soit absorbés par les océans et les continents, soit ont disparu ( durée de vie longue mais limitée ). On estime que la partie absorbée se partage 50% dans les océans, et 50% sur les continents. Nos connaissances des sources et des puits de carbone est très insuffisante.

Il nous faut répondre aux questions suivantes:

- Quels sont les processus naturels d’absorption des émissions anthropiques de carbone ?

- Ces processus vont-ils continuer comme aujourd’hui à limiter l’accroissement du taux de CO2 ?

Ou bien, vont-ils s’arrêter ou même s’inverser dans le futur ?

- Le carbone manquant a-t-il été absorbé par les océans et par les continents ? Et dans quelles proportions ?

- Quels continents absorbent davantage que d’autres ?

- Pourquoi le taux d’accroissement du CO2 varie-t-il d’une année sur l’autre alors que les émissions augmentent uniformément ?

- Comment les puits de carbone répondront-ils aux changements climatiques et/ou aux changements d’utilisation des sols ?

- Quels sont les processus qui contrôlent le taux d’accroissement du CO2 ?

- Quelles sont les sources du CO2 ?

- Quelle est la distribution géographique et l’importance des émissions de CO2 provenant de la combustion des combustibles fossiles, et des sources moins bien connues comme le dégazage des océans, la déforestation, la combustion des biomasses ?. Comment cette distribution évolue-t-elle avec le temps ?

Questionnaire extrait de:

 

http://www.nasa.gov/mission_pages/oco/mission/index.html

 

La mise en place d’une stratégie cohérente anti-carbone exige évidemment de pouvoir répondre à ces questions, non pas avec des approximations mais avec des explications claires et des données chiffrées.

Dans le cadre des études sur les cycles du carbone, la NASA prépare le lancement du satellite OCO-2 ( Orbital Carbon Observatory ) . Le lancement est prévu pour 2013, en remplacement de OCO-1, dont le lancement en 2009 a échoué.

Ce satellite a pour mission d’établir une carte mondiale du CO2, remise à jour tout les 16 jours, avec identification des sources naturelles et anthropiques, les variations saisonnières, identification des puits, surveillance permanente de leur évolution.

Aujourd’hui , une centaine de stations terrestres effectuent des observations du CO2, mais sans possibilité d’identifier les puits de carbone. Seule une observation spatiale pourra apporter des réponses précises.

OCO-2 prendra place dans le train de satellites d’observation de la NASA, composé aujourd’hui de cinq satellites d’observation groupés sur la même orbite.

 

 

 

 







 

 

Repost 0