Overblog Suivre ce blog
Administration Créer mon blog
16 décembre 2010 4 16 /12 /décembre /2010 18:10

16 Décembre 2010


Les batteries actuelles au Lithium ont une capacité massique d’environ 100 Wh / Kg, ce qui limite l’énergie embarquée à 30 KWh si l’on ne veut pas dépasser un poids de batterie de 300 Kg, soit l‘équivalent de quatre personnes en poids mort.


Avec 30 KWh on ne peut proposer que des véhicules de petit gabarit dont les performances sont limitées en autonomie et en vitesse ( de l’ordre de 150 Kms à 70 Km/h ). On ne peut en aucun cas proposer l’équivalent d’une voiture actuelle.


Les recherches pour l’industrialisation de batteries à forte capacité massique n’aboutiront pas industriellement avant la période 2015-2020.


En attendant de pouvoir fabriquer des voitures tout électrique de performances acceptables , il existe un marché pour une  voiture hybride fonctionnant alternativement aux deux énergies.


TOYOTA a compris dès le départ que la voiture tout électrique de performances acceptables ne pouvait pas être prête avant longtemps. La Prius a été développée pour occuper le vide créé par le battage médiatique autour de la propulsion électrique . Les premiers modèles de Prius méritaient à peine le nom de voiture hybride, le moteur électrique d’appoint était alimenté par une batterie de très faible capacité ( pour limiter le surpoids ), ne permettant qu’une autonomie ridicule ( quelques kilomètres ) en tout électrique. Mais l’utilisation intelligente d’un moteur thermique très performant en rendement a permis de montrer de bons résultats en émissions de CO2 ainsi qu’une consommation d’essence intéressante. Ce compromis a permis à TOYOTA de trouver une clientèle convaincue par les arguments écologiques.


Il s’est vite révélé à l’usage que le principe général était bon, quoiqu’assez cher, mais que l’engin serait encore plus attractif avec une batterie convenable. En effet, la batterie d’origine , de 1,3 Kwh pour un poids de 30 Kg, ne peut servir que de tampon tout juste bon à justifier l’appellation de véhicule hybride.


Plusieurs solutions « bricolées » sur des Prius par des entreprises innovantes et un peu téméraires ont convaincu TOYOTA de passer au stade supérieur en montant une batterie plus forte, et à faire de la Prius un véritable PHEV ( Plug-in Hybrid Electric Vehicle ). Bien sûr cela suppose une ré-étude du véhicule à cause du poids supplémentaire, et une homologation. Le véhicule actuel pèse déjà 1 300 Kg, il n’est pas anodin d’ajouter 150 Kg de batteries. De plus une étude de fiabilité de la batterie doit être validée avant commercialisation.


Des détails complémentaires figurent ici:


 

 

 

http://www.cartech.fr/news/essai-prius-rechargeable-39751238.htm  


Il ne faut pas rêver, cette nouvelle batterie donnera certes une autonomie électrique supplémentaire ( on parle de 20 Kms ), mais le poids énorme à tirer ( près de 1,6 tonnes en charge) est un très sérieux handicap.


Mais quand on aime on ne compte pas…..


Repost 0
16 décembre 2010 4 16 /12 /décembre /2010 12:23

16 Décembre 2010


Nous avons vu précédemment les obstacles à lever pour transformer les  expériences ponctuelles sur des véhicules électriques « de salon » en un marché industriel susceptible de remplacer 20 % des véhicules actuels à l’horizon 2020.


Le marché actuel de l’automobile est un marché technologiquement fermé. Par exemple un réservoir de Renault ne se monte pas sur une Mercédès, et c’est vrai pour la plupart des pièces, même si de gros efforts ont été faits ces dernières années.


Par contre, dans la voiture électrique , la batterie est et restera  une pièce très onéreuse. Pour en réduire le coût il est important d’en standardiser la fabrication. Il ne serait pas pertinent d’avoir un modèle de batterie pour chaque constructeur, voire pour chaque modèle.


D’autre part le problème de la recharge en cours de trajet conduit au concept d’échange de batterie, aucun usager n’accepterait d’attendre six heures à une station service pour faire le plein d’électricité !


Pour toutes ces raisons il est essentiel de construire une normalisation pour établir une standardisation des batteries de véhicules électriques, faute de quoi le marché ne pourrait pas démarrer.


Il faut définir les caractéristiques mécaniques , et électriques. La connectique, les systèmes de fixation, les différentes classes, les gammes, le marquage.


Ceci ne peut pas être fait rapidement. la Commission Européenne a lancé le processus qui devrait conduire à cette normalisation.



 

 

 

http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P7-TA-2010-0150+0+DOC+XML+V0//FR&language=FR  



On comprend la difficulté de la tâche quand on sait que la technologie des batteries est en pleine évolution. Comment normaliser un objet dont on ne connaît ni les caractéristiques, ni les conditions d’utilisation, ni les besoins réels du marché ?


Il est évident que l’échéance de 2011 souhaitée par la Commission, est un vœux pieux. Il est probable qu’un standard se dégagera progressivement , plus ou moins imposé par le ou les leaders du marché, et qu’il faudra attendre au moins 2015 pour pouvoir parler  de norme.


Il faudra bien ce temps pour développer les procédés, appareils et bancs de mesures destinés au test et à la vérification des batteries qui circuleront sur le réseau, ainsi que les infrastructures ad-hoc.


La voiture électrique ouvre un nouveau marché où il faudra se hâter lentement....

Repost 0
16 décembre 2010 4 16 /12 /décembre /2010 09:27

16 Décembre 2010


Nous avons vu précédemment que la voiture tout électrique ne deviendra une « vraie » voiture que lorsque la réserve d’énergie embarquée sera suffisante, de l’ordre de 250 KWh. Rappelons qu’aujourd’hui cette réserve ne dépasse pas le dixième de cette valeur , avec un maximum de 30 KWh sur la Blue-Car de Bolloré.


Les industriels ont parfaitement conscience de ce problème et tous les labos de recherches travaillent au développement de nouvelles batteries, avec un objectif de densité massique de 1 KWh par kilogramme.


Cet objectif n’est pas utopique, il est déjà atteint sur des démonstrateurs de labo. Le problème est de transférer ces résultats sur le terrain industriel pour lequel le cahier des charges est exigeant: coût, sécurité, fiabilité, robustesse, durée de vie, tenue en température, mise en œuvre, approvisionnement des matériaux, etc…


On peut raisonnablement penser que cet objectif industriel sera atteint dans un délai de cinq à dix ans, compte tenu de la très forte demande liée à la nécessité de remplacer les combustibles fossiles, de réduire les émissions de CO2, et de supprimer la pollution par les oxydes d’azote et les nanoparticules.


Lorsque nos voitures seront équipées de batteries de 250 KWh, un autre problème devra être résolu: celui de la recharge de ces « monstres ».


Autant il est relativement facile de recharger à domicile en quelques heures une batterie de 25 KWh, autant la fourniture de 250 KWh est problématique.


Sur une installation domestique, on peut envisager de prendre 3 KW pour le chargeur de batterie. Une dizaine d’heures suffisent alors à recharger un accu de 25 KWh.


( Les gazettes ne disent pas comment EDF pourra faire face à ce formidable appel de courant en soirée, courant qui viendra s’ajouter aux besoins du chauffage en hiver, mais ceci est une autre histoire…)


Par contre, aucune installation domestique n’est capable de fournir les 30 KW nécessaires à la recharge de l’accu de 250 KWh. Il faudra faire appel à une structure extérieure , une station service électrique ou un réseau spécialisé. Et pour EDF, la difficulté sera multipliée par dix.


Donc la croissance du marché de la voiture tout électrique n’est pas pour demain. Cette croissance ne sera possible que si les problèmes de logistique sont résolus.


La mise au point de batteries performantes ne suffira pas à créer le marché. Il faudra mettre en place une infrastructure logistique lourde pour laquelle il n’existe aujourd’hui aucun projet.


La Blue-Car de Bolloré vient d’être retenue pour la mise en place du service Autolib à Paris. Cette application en vraie grandeur permettra une meilleure connaissance des problèmes de logistique, dont il y aura sûrement des leçons à tirer.



 

Repost 0
15 décembre 2010 3 15 /12 /décembre /2010 17:49

15 Décembre 2010


Aujourd’hui nous roulons dans des voitures qui consomment un carburant liquide. Ces véhicules nous donnent toute satisfaction, tant sur le plan du confort que de l’autonomie. Même le prix est apparemment accepté si l’on en juge par le succès commercial des nouveaux modèles . Nous apprécions de pouvoir emprunter les autoroutes pour franchir des centaines de kilomètres pour les vacances ou les week-ends, et ce sans avoir à s’arrêter pour faire le plein.


Pour cela nos autos sont équipées de réservoirs d’environ 70 litres, dont le volume et le poids sont discrets, laissant une large place pour emporter cinq passagers et leurs bagages.


le pouvoir calorifique de l’essence est d’environ 35 000 KJ/L, ce qui fait un stock énergétique de 2 450 MJ, ou encore 681 KWh.


Une grande partie de cette énergie est perdue* car le rendement de nos moteurs thermiques ne dépasse pas 0,4. L’énergie « utile » à la propulsion est donc de 272 KWh « seulement ».


* Pas tout à fait perdue car une partie est utilisée pour le chauffage de l’habitacle en hiver.


Si l’on remplace le moteur thermique par une propulsion électrique, tout en conservant les mêmes prestations, il faut garder la même énergie utile de 272 KWh.


Le moteur électrique possède un excellent rendement, au moins 80%. La réserve d’énergie à prévoir sera donc d’environ 340 KWh en première approximation.


Mais on considère que 20 % environ de l’énergie dépensée peut être récupérée lors de phases de freinage. L’énergie embarquée peut alors se limiter à 270 KWh.


Dans l’état actuel de la technologie des batteries, la densité massique est de l’ordre de 100 Wh/Kg ( chiffres indiqués pour la batterie L.M.P. qui équipe la « Blue-Car » de Bolloré).


Pour obtenir une réserve de 270 KWh, il faut  une batterie d’un poids de 2 700 Kg.


Ceci est  bien sûr parfaitement inconcevable.


Donc, aujourd’hui, il n’est pas possible de fabriquer une voiture électrique offrant les mêmes prestations que son homologue à essence.


Les véhicules électriques présentés sur le marché sont une première offre compatible avec l’état de l’art. Le passage obligé est le poids maximum acceptable de la batterie, de l’ordre de 300 Kg. En-dessous l’énergie est très insuffisante, et au-dessus le poids est inacceptable. Ceci nous donne la réserve d’énergie, soit 30 KWh environ, c’est-à-dire presque dix fois moins que ce qu’il faudrait pour égaler les prestations d’une auto actuelle à essence.


Il n’est donc pas pertinent d’essayer de comparer les deux: il s’agit d’autre chose, pour un autre usage.


Avec ces 30 KWh, on cherche à offrir une autonomie raisonnable, de l’ordre de 150 Kms. Avec l’énergie récupérée au freinage on peut compter sur 40 KWh utiles .Il faut donc limiter la puissance du moteur à une vingtaine de Kilowatts, soit environ 27 CV, ce qui correspond à la puissance d’une Renault Dauphine, mais avec la pénalité d’une batterie de 300 Kg !


La Blue-Car de Bolloré est présentée avec un moteur de 50 KW, qui servira surtout à impressionner les journalistes en permettant une vitesse de pointe de 130 Km/h, qui ne pourra pas être soutenue bien longtemps évidemment, eu égard à la puissance crête de la batterie , annoncée pour 45 KW pendant 30 secondes ! Même pas de quoi impressionner la petite amie…


L’autonomie annoncée de 250 Kms doit être comprise à puissance limitée évidemment, c’est-à-dire à vitesse réduite, le Lithium ne permet pas de miracles….


Le problème de la voiture électrique reste donc la batterie. Mais , contrairement aux tentatives précédentes avortées faute de technologie de batteries, il y a aujourd’hui des espoirs sérieux d’améliorer significativement la situation.


L’objectif les labos de recherche est d’atteindre une densité massique de 1 KWh/Kg.


La technique industrialisable aujourd’hui  permet le dixième de ce chiffre. On mesure l’ampleur de la tâche à accomplir.


Nous verrons dans un autre article qui fait quoi dans ce domaine .



 


 


 


 

Repost 0
13 décembre 2010 1 13 /12 /décembre /2010 11:44

13 Décembre 2010


Les deux entrées essentielles des nanoparticules dans le corps humain sont les voies aériennes et les voies digestives. L’entrée par la voie intradermique est théoriquement possible, bien que fortement contestée dans des conditions normales hors blessure. Nous nous intéressons ici à la voie aérienne.


L’air que nous respirons est « normalement » chargé de particules de toutes sortes. Chaque cm3 inspiré contient entre 10 000 et 100 000 particules dont la taille s’échelonne entre 1 nm et 100 µm, et dont la composition représente un échantillonnage à peu près complet de ce que notre civilisation est capable de produire, sans oublier les particules naturelles bien entendu.


Les voies aériennes bronchiques sont tapissées de muqueuses et de cils vibratiles qui participent à l’élimination de l’essentiel des particules grâce au mécanisme de clairance pulmonaire. Les déchets restants sont expectorés et le reste est éliminé par les macrophages.


La structure fractale de l’arbre bronchique est semblable à celle d’un filtre à particules, mais à l‘envers. Les fibres sont ici remplacées par des tubes recouverts de muqueuse qui « piège » les particules par les mêmes mécanismes d’impact, de gravité et de diffusion, que dans un filtre.  Des mécanismes électrostatiques ne sont pas exclus.


Seule une très petite fraction des  nanoparticules réussissent à se faufiler dans les alvéoles pulmonaires.


Notons qu’il a été signalé une possibilité d’entrée des nanoparticules par l’appareil olfactif, directement en liaison avec le cerveau par le nerf olfactif. Ceci sera évoqué ultérieurement.


Les échanges gazeux se font à travers la membrane alvéolaire, dont la surface totale est comparable à celle d’un cours de tennis.


Le lobule alvéolaire est enrobé de vaisseaux capillaires sanguins en sorte que la distance entre l’intérieur des alvéoles et l’intérieur des capillaires sanguins n’excède pas 200 nanomètres.


Les polluants du monde extérieur ne sont donc séparés de l’intérieur de l’organisme que par une mince et fragile barrière physiologique de 200 nanomètres ! De plus cette barrière est ouverte à de nombreux échanges comme nous allons le voir ci-après.


En toute rigueur l’intérieur de l’organisme commence lors du franchissement de la membrane apicale phospholipidique des cellules épithéliales alvéolaires (pneumocytes de type 1 ) . La barrière serait donc réellement de 7 nm au lieu de 200 !


Une fois franchie cette « barrière » de 7 nm, la particule possède une chance sur deux d’être éjectée de la membrane basale par exocytose et de se retrouver dans la circulation lymphatique. Ou pire encore, si la nanoparticule possède quelque affinité avec une protéine transmembranaire, ou si elle est très petite ( quelques nm ), elle peut passer tranquillement la barrière épithéliale sans avoir à montrer patte blanche.


Un peu comme les molécules de certains gaz ( alcool, anesthésiants, toxiques ) utilisent le même chemin que O2 et CO2 , même si les mécanismes ne sont pas exactement les mêmes ( Diffusion simple à travers la membrane phospholipidique dans un cas , protéines transmembranaires dans l’autre ).


Lorsqu’une particule se dépose sur la paroi d’une alvéole, il peut lui arriver plusieurs choses:


Dans la très grande majorité des cas , elle a affaire aux macrophages. Ce sont des cellules spécialisées dans l’élimination des déchets, il y en a toujours quelques-unes dans chaque alvéole. Le macrophage se déplace en glissant sur la paroi de l’alvéole grâce à des pseudopodes, un peu comme un poulpe. Il absorbe la particule et, selon sa composition, la digère ou la conserve dans son cytoplasme.


Un macrophage peut « s’occuper » de plusieurs parasites ( particules, bactéries, …) avant de mourir. Il est alors lui-même évacué , soit vers l’extérieur, soit à travers la membrane alvéolaire dans l’intersticium, d’où ses composantes rejoignent le réseau lymphatique et les ganglions.


La protection apportée par les macrophages est « saturable ». Au-delà d’un certain seuil de pollution le système est dépassé .


Les particules qui échappent aux macrophages peuvent soit se dissoudre dans le surfactant, soit traverser la barrière alvéolo-capillaire, soit s’amasser dans l’alvéole.


La membrane des cellules épithéliales alvéolaire peut être franchie selon plusieurs procédés selon les dimensions de la particule, sa composition, son état de surface, sa polarité, sa réactivité chimique, sa souplesse, sa surface active, son degré d‘opsonisation. Les voies de passage peuvent être la diffusion simple, la diffusion facilitée, les canaux ioniques, les mécanismes d’endocytose, les clathrines, les cavéoles.


Il apparaît ainsi que le mécanisme de filtrage pulmonaire ne possède pas une efficacité parfaite, et que la barrière alvéolo-capillaire n’est pas une protection infranchissable.


Bien entendu, en cas de lésion pulmonaire, le passage des particules est grandement facilité.


Il est donc inévitable de retrouver dans l’organisme une partie des particules inhalées.


Le problème n’est donc plus de savoir si les nanoparticules entrent dans l’organisme, mais plutôt de savoir ce qu’elles deviennent  dans cet organisme quand elles y sont entrées.



(Ceci est une version réduite , la seule compatible avec Internet Explorer 9 version Béta. Y manquent notamment les liens et les figures.)



 


 

Repost 0
9 décembre 2010 4 09 /12 /décembre /2010 11:45

9 Décembre 2010


Concernant le débit que l’usager peut espérer d’une liaison WiMax, on trouve des indications très variables. En fait, la seule réponse sensée serait «  çà dépend… » un peu comme le fût du canon de Fernand Raynaud.


En effet, la norme IEEE 802-16 permet une transmission dite « adaptative » , ce qui est une qualité incontestable, mais qui implique par ailleurs certaines contraintes.


Le procédé grâce auquel les informations numériques sont transmises est trop complexe pour être décrit ici. Il suffit de savoir que la station de base ( l’antenne ) sait identifier chacun des abonnés individuellement, en terme de distance, de type de matériel de réception, de qualité de son antenne réceptrice, de type de service qui est demandé. De plus, la base est capable de mesurer la qualité de la transmission avec cet abonné, et ceci en permanence.


Par ailleurs la base a la possibilité technique d’adapter en temps réel le débit numérique servi à cet abonné , et de choisir le débit pour lequel la qualité de transmission sera convenable en fonction de certains critères ( QoS, Quality of Service).


Chaque abonné se verra donc attribué un débit de transmission individuel, qui pourra être différent de celui des autres abonnés.


Par exemple, si un abonné est situé loin de l’antenne, ou masqué par un obstacle, la transmission sera difficile; dans ce cas la base choisit , pour lui, un type de modulation plus « robuste », qui lui assurera une bonne réception. Or si on augmente la « robustesse » de la transmission c’est au détriment du débit, qui va être plus faible.


Pour un autre abonné qui se trouve près de l’antenne , la base va pouvoir lui servir la modulation la plus performante , avec un débit très supérieur au cas précédent.


Donc, le même jour, à la même heure, deux abonnés du même secteur d’antenne pourront avoir des débits très différents.


En plus de cet ajustement technique du débit , il faut également compter avec le nombre d’abonnés connectés simultanément sur le réseau. Pour éviter la cacophonie digitale, la base doit procéder à une régulation des accès. Pour cela elle fait appel à un algorithme qui gère lui-même les « temps de parole » en tenant compte de l’harmonisation des délais, du type de service demandé, et bien sûr du contenu du contrat d’abonnement.


Pour toutes ces raisons il n’est pas possible de connaître à l’avance le débit sur lequel on va pouvoir compter.


Une seule certitude: plus on se rapproche de l’antenne et plus les performances s’améliorent.

Repost 0
7 décembre 2010 2 07 /12 /décembre /2010 11:41

7 Décembre 2010


Le Gouvernement a lancé en Décembre 2009 le label « Haut débit pour tous »


Il s’agit d’attribuer un label de qualité pour permettre à l’usager de voir clair dans la multiplicité des offres qui lui seront présentées.


Grâce aux média le WiMAX est perçu du grand public comme LA solution ADSL performante capable de pallier avantageusement les défaillances de la paire de cuivre dans les « zones blanches ».


Mais WiMAX est une norme adaptative qui permet de moduler les performances en fonction de la robustesse du canal utilisé ( distance, hauteur d’antenne, obstacles, interférences, etc…). D’autre part, comme dans toute liaison radio , la ressource disponible sur un canal donné doit être partagée entre les usagers de ce  canal.


WiMAX peut donc offrir le meilleur comme le pire selon les circonstances.


Il est donc intéressant de se pencher sur le cahier des charges que les FAI devront respecter pour avoir droit au fameux label.


Voici l’essentiel des performances exigées:



«Le service d’accès à Internet doit permettre d’échanger des courriels et des fichiers de taille raisonnable (de l’ordre de 1 Mo) et de consulter et d’utiliser la plupart des sites internet accessibles au public en bénéficiant en fonctionnement normal, avec un objectif de disponibilité du service permanente, du débit théorique suivant :





un débit descendant minimum de 512 kbit/s ;


un débit montant minimum de 96 kbit/s.





Au-delà de l’échange de 2 Go de données sur un mois (dont 300 Mo en émission), le débit maximum proposé est susceptible d’être limité et la connexion coupée.



L’usage intensif des téléchargements peer-to-peer et la visualisation prolongée de vidéos ne sont donc pas exigés des prestataires.



Il n’est pas exigé que le service proposé permette la réception de la télévision ou de la radio, l’utilisation des jeux vidéo en réseau, ou d’un service de téléphonie dont le flux serait différencié des autres flux de données ».


 

 

 

http://www.hautdebitpourtous.telecom.gouv.fr/cahier_des_charges.php  



Voici donc ce que pourra offrir un FAI détenteur du label « Haut débit pour tous » sans risquer de se voir poursuivi .


Pas de peer-to-peer, pas de jeux vidéo en ligne, pas de transferts d’images, et bien sûr pas de télévision ni de radio, et menace de coupure de connexion en cas de dépassement d’un quota.


Je conseille aux usagers intéressés par le WiMAX de bien lire le contrat et le cahier des charges avant de signer.



 


 


 


 


 


 


 


 


 

 
Repost 0
3 décembre 2010 5 03 /12 /décembre /2010 16:02

 

 

3 Décembre 2010

L’explosion du marché des nanomatériaux a bénéficié d’un vide règlementaire et donc d’une absence à peu près totale de contrôle, en particulier du point de vue sanitaire.

La règlementation existante concernant la dissémination des particules et des poussières et les précautions imposées pour leur manipulation ne convient pas aux nanoparticules. En effet, les propriétés d’un matériau sont complètement différentes selon qu’il est à l’état macroscopique ou à l’état nanoscopique; il s’agit pratiquement d’un nouveau produit , avec des capacités réactives particulières spécialement en raison de la taille des éléments.

Il est donc nécessaire de développer une approche spécifique de ce type de produits, en insistant particulièrement sur les risques sanitaires liés à la pénétration dans l’organisme humain.

La Communauté Européenne a initié un projet ( NANOSAFE 1 ) avec pour mission de faire un état des lieux aussi complet que possible sur les nanomatériaux. Ce projet de deux ans ( 2003- 2004 ) s’est déroulé avec la participation de neuf partenaires européens dans tous les domaines concernés: La fabrication des NP, leur utilisation, la recherche en pneumologie et épidémiologie, la médecine du travail.

L’objectif étant de rassembler l’information sur les risques potentiels des nanomatériaux, évaluer les risques pour les travailleurs et les consommateurs, recommander des mesures de règlementation et des règles d’usage pour préserver la santé des individus.

Le résultat de ces travaux est exposé dans le rapport final de 2004 disponible ici:

 

 

http://www.nanosafe.org/home/liblocal/docs/Nanosafe1_final_report.pdf 

Dans ce rapport le consortium prend acte de l’insuffisance ces connaissances et souligne la nécessité de travaux supplémentaires pour la caractérisation des nanoparticules et l’évaluation des risques potentiels.

Le programme NANOSAFE 1 a été suivi de NANOSAFE 2, toujours soutenu par la Communauté Européenne dans le cadre du 6è Programme Cadre. Sept pays européens y ont participé sous le leadership du CEA, 24 partenaires . Programme démarré en 2005 pour 48 mois.

Il s’agissait essentiellement de mettre en œuvre les recommandations exprimées dans NANOSAFE 1, déclinés en quatre sous-projets:

- Techniques de détection et de caractérisation des nanoparticules.

- Risques sanitaires et toxicologiques.

- Systèmes de production et d’application sécurisés.

- Impact sur la société et l’environnement, aspects légaux.

De nombreux résultats sont disponibles, l’ensemble du projet peut être consulté ici:

 

 

http://www.nanosafe.org/scripts/home/publigen/content/templates/show.asp?L=EN&P=55&vTicker=alleza 

Nous nous proposons d’analyser ces résultats dans de prochains articles.

 

 

 

 

 

 

 

 

 

Repost 0
2 décembre 2010 4 02 /12 /décembre /2010 19:01

2 Décembre 2010

Nous avons évoqué ( article du 30 Novembre ) le monde des nanoparticules naturelles, avec lesquelles l’Homme a appris à vivre en développant des protections physiologiques au fil de l’évolution.

Les progrès technologiques nous confrontent maintenant à un nouveau type de pollution constitué par des nanoparticules artificielles purement anthropiques.

Ces particules, qu’il faut plutôt appeler « nanomatériaux » ont été créées pour l’intérêt de leurs propriétés particulières liées à leur taille microscopique. Utilisées comme additifs à certains matériaux et produits manufacturés, elles leurs confèrent des qualités supplémentaires très appréciées.

Leur composition est très variable. Le tableau suivant résume l’essentiel des différents types proposés sur le marché par les entreprises spécialisées.

Nanomateriaux-primaires-copie-2.jpg

La législation sur les nanomatériaux est à peu près inexistante, en tous cas sommaire et un peu vague. Ces nouveaux venus se retrouvent donc dans la plupart des produits de grande consommation. Le tableau ci-dessous présente une liste non exhaustive des domaines dans lesquels on peut les trouver ( Trouver n’est le mot qui convient puisqu’ils sont invisibles et indétectables, sauf à utiliser des procédés de laboratoire).

Nanoparticules-artificielles_2-Dec-2010-copie-4.jpg

 

Des travaux sont en cours pour permettre aux industriels et aux consommateurs de s’y retrouver dans cette jungle. Nous tâcherons d’y voir plus clair dans un prochain article.

 

Repost 0
30 novembre 2010 2 30 /11 /novembre /2010 15:41

30 Novembre 2010

Depuis la nuit des temps l’Homme respire une atmosphère chargée de particules:

Suies de combustion, cendres volcaniques, produits d’érosion éolienne, poussières, microparticules végétales comme les pollens, sables désertiques, ont toujours été présents, et le système respiratoire des mammifères s’est adapté en développant des protections naturelles à base de sécrétions de mucus, de cils vibratiles, de poils filtrants, de macrophages dans les alvéoles pulmonaires, qui sont efficaces contre l’intrusion de ces particules avec l’aide du reflex de la toux, et constituent les mécanismes de clairance.

Les particules naturellement présentes dans l’atmosphère , de par leurs origines très diverses, se présentent sous des aspects variés. Leurs dimensions s’étendent de quelques microns pour les poussières d’érosion des sols, jusqu’à quelques nanomètres pour les suies et les fumées de combustion. On appelle nanoparticules les éléments inférieurs à 100 nanomètres.

Le tableau suivant montre l’échelle des dimensions de ces particules naturelles :

 

La-metrique-des-objets-1.jpg

 

Lorsque des particules atmosphériques naturelles pénètrent dans les voies respiratoires elles sont normalement rejetées par les mécanismes de clairance, si elles ne sont pas en nombre excessif. Mais les particules les plus fines ( nanoparticules ) pénètrent profondément dans les poumons jusqu’à l’intérieur des alvéoles pulmonaires. Si leur nombre est trop élevé, le mécanisme de clairance est saturé et les particules les plus fines peuvent s’amasser dans les alvéoles, voire même passer dans le circuit sanguin.

Le tableau ci-dessous montre que les nanoparticules sont du domaine des dimensions physiologiques les plus faibles, elles sont plus petites qu’un virus HIV, certaines sont d’une taille inférieure à celle d’un protéine, ce qui explique la vulnérabilité de l’organisme à des agresseurs aussi petits, dont certains peuvent franchir la membrane cellulaire.

 

La-metrique-des-objets-2.jpg

 

Le nombre des particules naturelles présentes dans l’atmosphère varie de quelques milliers par cm3 à quelques dizaines de milliers par cm3, voire beaucoup plus, selon l’endroit. Parmi les nanoparticules naturelles nous connaissons les pollens, générateurs de troubles respiratoires, et les suies et fumées de combustion, qui causent de graves troubles pulmonaires dans certaines régions du monde ( voir l‘article du 25 Novembre sur le nuage brun d‘Asie ).

Les programmes de réduction des émissions de nanoparticules de combustion de biomasse ne concernent pas seulement les régions défavorisées comme l’Asie ou l’Afrique, mais aussi les pays développés qui tendent , pour de mauvaises raisons écologiques, à remplacer les combustibles fossiles par le bois.

L’ADEME recommande d’encadrer le développement de la biomasse énergie et de se débarrasser des appareils de combustion anciens.

Aujourd'hui, les grosses chaudières font l'objet de réglementations sévères et du label "Flamme verte". En revanche, la réglementation sur les cheminées ou autres barbecues est inexistante.

Il ne serait pas pertinent de remplacer une pollution par une autre.

 

 

 

 

Repost 0