Overblog Suivre ce blog
Administration Créer mon blog
14 novembre 2012 3 14 /11 /novembre /2012 15:23

Les cuves de réacteurs nucléaires fissurées, une nouvelle histoire belge ?

Pas seulement…

14 Novembre 2012

La cuve d’une réacteur nucléaire en est le cœur. C’est l’athanor de nos modernes alchimistes, dans lequel s’effectue la transmutation de l’Uranium non pas en or, hélas, mais en énergie pour notre plus grand bénéfice ( ou notre plus grand malheur selon le point de vue adopté).

En son temps, Nicolas Flamel opérait sa « cuisine » dans un athanor de dimensions modestes, tout au plus une grosse marmite, ampoule de verre épais contenant les réactifs et chauffée au charbon de bois. Il convenait alors de surveiller attentivement la température du four et l’évolution de la préparation sous peine de voir l’ensemble athanor et opérateur pulvérisés dans une grosse explosion.

Plusieurs confrères de notre célèbre Nicolas y ont ainsi laissé la vie, mais sans trop de dégâts collatéraux, eu égard à la modestie des installations.

Pour un réacteur nucléaire, c’est exactement la même chose.

Sauf que dans ce cas l’athanor est énorme. C’est un chaudron en acier de plus de quatre mètres de diamètre et treize mètres de hauteur, avec des parois de vingt centimètres d’épaisseur pour un poids à vide de trois cent tonnes !

A l’intérieur, plusieurs dizaines de tonnes de matériau radioactif au sein duquel se déroulent des réactions de fission qui dégagent une chaleur colossale. Cette chaleur est évacuée par un circuit d’eau et transformée en vapeur pour faire tourner une turbine couplée à un alternateur.

Présenté ainsi cela paraît très simple, mais la réalité est évidemment plus complexe.

Tout l’art de l’opération consiste à maintenir l’intensité de la réaction de fission à un niveau suffisant pour produire de l’énergie, sans toutefois lui permettre de dépasser le point de divergence qui produirait un emballement du cœur. Il faut maintenir un équilibre subtil entre les paramètres qui accroissent la réaction, et ceux qui la freinent, et ceci avec une précision diabolique et une grande réactivité.

Si le contrôle de la réaction est perdu, il y a emballement et fusion du cœur, ce qui induit un accident nucléaire pouvant aller du cas de Three Mile Islands jusqu’à celui de Tchernobyl ou Fukushima.

Tout dépend de la résistance de la cuve et de la réactivité des dispositifs de secours.

Une cuve très solide peut résister à une fusion du cœur et donner le temps d’intervenir pour limiter les dégâts ( ce temps se mesure en minutes !).

Une cuve fragilisée a toutes « chances » de se briser, et de reproduire le scénario Tchernobyl.

C’est pourquoi il est extrêmement important de s’assurer de la parfaite solidité de la cuve.

Une cuve peut présenter des défauts d’origine.

Elle est constituée de plusieurs anneaux soudés entre eux, dans un acier dont les caractéristiques sont choisies pour l’usage futur, solidité et élasticité, pour résister aux contraintes thermiques et à la fluence ( flux de neutrons).

Elle est munie d’un couvercle démontable pour permettre le remplacement du combustible usagé. Ce couvercle comprend des orifices pour permettre le passage des barres de contrôle de la réaction et de diverses sondes.

Sur les côtés il existe des orifices qui recevront les tuyaux pour la circulation de l’eau de refroidissement, six gros tuyaux alimentant les trois générateurs de vapeur d’un réacteur REP.

A la fabrication de la cuve, et selon la présence d’impuretés dans le métal, il se produit des petits défauts localisés qui peuvent évoluer par la suite. La détection de ces défaut et leur caractérisation est évidemment très importante.

Le contrôle de la réaction de fission s’effectue à l’aide de « ralentisseurs » de neutrons constitués d’une part des barres de contrôle plus ou moins enfoncées dans la cuve, et d’autre part d’acide borique dilué dans l’eau de refroidissement. Tout ceci est réglé automatiquement en fonction notamment de l’usure du combustible.

Mais l’acide borique attaque l’acier de la cuve.

Il est donc nécessaire de protéger celle-ci par un revêtement en acier inoxydable d’une épaisseur de un cm environ, soudée à la paroi interne de la cuve.

Cette opération s’effectue à chaud évidemment, et elle est cause d’apparition de « fissures sous revêtement », difficiles à détecter.

Une cuve de réacteur, même de bon aloi, présente donc d’origine un taux de micro fissures non nul, qu’il est impossible d’éliminer totalement.

Il est donc nécessaire de contrôler l’état des cuves périodiquement pour surveiller l’évolution des ces fissures.

Au cours de la vie du réacteur, l’acier des cuves est soumis au flux de neutrons. Ce flux provoque une évolution des caractéristiques de l’acier qui devient plus « cassant » à froid ( conditions de refroidissement d’urgence). Cette évolution touche également les micro fissures.

Depuis les années soixante ( époque de fabrication des plus anciennes cuves) les méthodes de détection et d’analyse des aciers ont beaucoup évolué. Il est aujourd’hui possible de détecter des défauts qui passaient inaperçus autrefois.

Les fissures « découvertes » sur les réacteurs fabriqués par le Groupe RDM affectent probablement beaucoup d’autres cuves de par le monde, elles existent depuis des décennies et seuls les instruments modernes ont pu les révéler.

Le problème de vieillissement de l’acier des cuves n’est donc pas nouveau.

Par contre les nouveaux éléments recueillis avec les appareils de mesure modernes sont susceptibles de fournir des indications alarmantes concernant une fragilisation prématurée des cuves, qui n’aurait pas été découverte avec les méthodes d’inspection classiques.

Reste ensuite à décider si tel taux de micro fissures doit conduire à réformer la cuve, c’est-à-dire arrêter le réacteur définitivement.

Dans l’Industrie, pour déterminer les limites de résistance d’une structure, et valider les programmes de simulation, on procède à des crash-tests en sacrifiant quelques pièces, ce sont des essais destructifs.

De tels essais ne peuvent être réalisés en vraie grandeur sur la cuve d’un réacteur. Aussi, pour évaluer le degré de dégradation des qualités de l’acier de cuve, on a placé à l’intérieur des éprouvettes disposées aux endroits soumis à un flux élevé de neutrons. Lors des inspections décennales on prélèvent quelques-unes de ces éprouvettes sur lesquelles on effectue des mesures destructives.

D’autre part, lors des mêmes visites, on procède à une inspection détaillée de l’ensemble de la cuve par les méthodes radiographiques les plus perfectionnées du moment, afin de détecter et mesurer les micro fissures et autres défauts.

Cette inspection, et les essais d’éprouvettes sont utilisées par des programmes de simulation pour conclure sur la capacité de la cuve à poursuivre son travail pour encore dix ans, et de résister à des conditions extrêmes accidentelles définies préalablement.

Il y a d’une part des programmes de simulation qui indiquent la probabilité que tel accident se produise, et d’autre part d’autres programmes qui indiquent la probabilité que telle cuve résiste à tel accident.

Mais c’est l’Homme qui décide en fin de compte si telle probabilité est acceptable ou non…

Et comme chacun sait, les décisions humaines sont fortement influencées par toutes sortes de considérations, y compris de rentabilité financière…

Nous entendrons donc encore parler de micro fissures, et pas seulement en Belgique.

Repost 0
13 novembre 2012 2 13 /11 /novembre /2012 11:47

 

13 Novembre 2012

Les énergies fossiles étant condamnées à plus ou moins long terme et pour des raisons diverses ( coût, pollution, importations, épuisement des réserves), nous voici donc mis en demeure de réviser notre politique énergétique.

La perspective de raréfaction du trio charbon-pétrole-gaz naturel ne nous laisse que deux solutions: Le Nucléaire et/ou le couple Solaire/Eolien (l’éolien étant un sous-produit du solaire).

En attendant de connaître le sort que notre Société réservera au Nucléaire, il nous reste les deux autres, qui sont donc appelés dans l’avenir à fournir au moins 50% des besoins, voire beaucoup plus si le Nucléaire est écarté.

On sait que le Solaire et l’Eolien sont par nature des énergies intermittentes, soumises à l’ensoleillement et au vent.

Or notre société n’est pas actuellement en mesure de s’accommoder de cette intermittence.

On peut certes sur le papier imaginer un monde dans lequel l’activité serait modulée au rythme des vents et/ou des caprices de la météo et des heures de la marée. Quelques capacités de stockage d’énergie disposées ici ou là seraient censées suffire à pourvoir aux besoins impossibles à différer. Mais un tel monde est peu crédible et aucun prévisionniste ne l’envisage sérieusement.

Le renoncement aux énergies fossiles au profit des renouvelables propres suppose donc des capacités de stockage considérables capables d’assurer un minimum de continuité du service.

Aujourd’hui il existe en France une douzaine de stations de pompage/turbinage d’une puissance totale de 5 GW. Ces installations procurent une capacité de stockage mobilisable en quelques minutes.

Cette capacité devra être multipliée au moins par dix pour pouvoir soutenir efficacement une production intermittente solaire et éolienne.

Le développement actuel des énergies nouvelles est rendu possible par le maintien de capacités de productions classiques facilement mobilisables, qui sont constituées par des centrales thermiques à flamme fonctionnant au fuel ou au gaz, et permettant de se passer de moyens considérables de stockage d’énergie propre.

Mais ce mode de fonctionnement n’est viable que si la part des renouvelables reste faible dans le mix énergétique. On cite fréquemment la valeur de 30% comme limite acceptable au-delà de laquelle le recours à des solutions de stockage « propre » devient impératif.

De nombreuses solutions de stockage d’énergie ont été étudiées et certaines ont été développées industriellement:

- Pompage/Turbinage.

- Stockage chimique grâce à des matériaux à changement de phase.

- Stockage dans des volants à inertie.

- Stockage chimique dans des batteries.

- Stockage dans des supercondensateurs.

- Production d’Hydrogène et pile à combustible.

- Stockage sous forme de chaleur.

Chacune de ces solutions trouve son emploi dans des applications spécifiques.

Le pompage/Turbinage est particulièrement indiqué pour le stockage de très grosses quantités d’énergie. C’est un procédé qui a fait ses preuves et qui est déjà utilisé couramment, à petite échelle il est vrai.

Certains barrages hydroélectriques sont déjà utilisés à cette fin, et le procédé pourra être développé dans les régions montagneuses disposant à la fois du relief suffisant et de la ressource en eau.

Les STEP ( Station de Transfert d’Energie par Pompage) pourront également être installées en bord de mer en exploitant le relief littoral qui peut offrir des dénivelées de plusieurs dizaines de mètres, le point bas étant évidemment le niveau marin. Cette disposition conviendra pour stocker l’énergie des éoliennes off shore situées à proximité.

Les stations de pompage/turbinage littorales utiliseront des hauteurs de chute faibles ( quelques dizaines de mètres) et donc nécessiteront de très importants volumes d’eau qui ne passeront pas inaperçus dans le paysage.

On peut s’attendre à une très énergique opposition de la part des populations et des associations de protection de l’environnement.

Le basculement vers les énergies renouvelables ne sera possible que s’il est soutenu par un solide programme de gestion de l’intermittence.

Faute de quoi l’on risque de devoir s’accommoder encore longtemps des énergies fossiles et du nucléaire.

Repost 0
19 octobre 2012 5 19 /10 /octobre /2012 16:31

 

 

17 Octobre 2012

Il est question, dans les couloirs du château, d’instaurer un système de Bonus-Malus sur la consommation domestique d’énergie.

Une proposition de Loi a même été votée à la hussarde par les députés, mais son contenu et les circonstances du vote ont entraîné son retrait quasi immédiat pour un examen approfondi ultérieur, avant son éventuelle prise en compte par la deuxième Chambre.

Nous la reverrons prochainement sous une forme édulcorée.

L’intention de cette Loi, louable au demeurant, est d’accélérer la mutation vers l’efficacité énergétique dans le secteur domestique, donc essentiellement le chauffage et l’ECS ( Eau Chaude Sanitaire) réputés grands responsables des gaspillages.

La logique qui a conduit à légiférer sur cette affaire est des plus sommaires:

Puisque l’usager tarde à entreprendre de lui-même les travaux d’isolation de son logement, le Gouvernement va l’y contraindre par l’application de pénalités financières, étant entendu (du moins dans l’esprit du législateur) que seule la mauvaise volonté des usagers est à l’origine de ce retard.

Que le retard puisse être lié à des difficultés financières des ménages, déjà lourdement touchés par la crise, n’a pas effleuré un seul instant les décideurs du château.

Cette méthode ne laisse pas de surprendre car son résultat le plus évident sera de pénaliser d’abord les usagers aux revenus trop faibles pour leur permettre d’investir dans des travaux de rénovation, et les locataires, prisonniers des choix réalisés par les propriétaires.

Pour ces raisons, et pour quelques autres, mises en avant par des élus plus attentifs aux problèmes sociaux, ce projet de Loi a été mis de côté et ses géniteurs ont été priés de revoir leur copie.

Nous en reparlerons le moment venu.

Le contrôle des consommations suppose l’existence d’un moyen de comptage de l’énergie, donc seuls l’électricité et le gaz des réseaux publics sont concernés.

Le fuel domestique, le GPL, le bois, le charbon, ne sont pas touchés puisque leur consommation individuelle ne fait l’objet d’aucune comptabilité officielle ( pour le moment…).

Sans entrer dans les détails, rappelons qu’à chaque logement sera associée une quantité annuelle d’énergie (Volume de base, en MWh) fixée à partir de critères comme la surface habitable, le nombre de personnes dans le foyer fiscal, leurs revenus, le type d’énergie utilisée, la zone géographique, l’année de construction, le classement énergétique, etc…

Il n’y manque même pas l’âge du capitaine, dont la situation particulière (grand âge, handicap, maladie, etc…) pourra lui valoir un traitement de faveur.

Un Bonus Malus sera appliqué en fonction de la consommation effective par rapport à ce volume de base.

On imagine sans peine la lourdeur et la complication des dossiers à gérer et le poids du contentieux qui ne manquera pas d’apparaître.

Certains n’hésitent pas à parler de tringle à rideaux…D’autres redoutent la création d’une police de l’énergie.

Par ailleurs le fait que seuls l’électricité et le gaz soient touchés est susceptible de provoquer une ruée vers les énergies épargnées, éventuellement au détriment de la sécurité ou de l’environnement.

Il est une catégorie d’usagers qui commence à se poser des problèmes, ce sont les futurs utilisateurs de véhicules électriques.

L’obligation de recharger la batterie tous les soirs risque de les placer en demeure d’avoir à choisir entre la voiture ou le chauffage du logement.

Par exemple, selon les normes actuelles du bâtiment, un logement correctement isolé (Classe C) consomme annuellement entre 90 et 150 KWh/m2. Retenons une valeur de 100 KWh/m2.

Un logement de 80 m2 de classe C consommera donc environ 8 MWh par an.

Si les occupants de ce logement possèdent un véhicule électrique utilisé journellement, la recharge de la batterie pourra représenter une consommation supplémentaire de l’ordre de 7 MWh par an, soit un quasi doublement de la consommation énergétique par rapport au « volume de base » attribué.

Cette consommation supplémentaire devra être « hors Malus » sous peine de pénaliser l’usager à cause de sa conduite écologique qui l’amène à choisir un véhicule électrique plutôt qu’un engin polluant à moteur thermique.

Or le nouveau compteur électrique Linky ne permet pas de distinguer la consommation des différents appareils, il mesure seulement la consommation globale.

Deux solutions sont alors possibles:

- Soit accorder un abattement de consommation sur justificatif, par exemple sur présentation de la carte grise du véhicule électrique.

Le montant de cet abattement devra alors être fixé en fonction de la capacité de la batterie et de la fréquence estimée des recharges.

( en effet, la consommation électrique annuelle d’un hybride PHEV n’a rien à voir avec celle d’un EV équipé en 30 KW. ).

On imagine sans peine la complexité d’un tel montage.

Faute d’un tel arrangement, l’usager pourra être amené à payer très cher la recharge de sa batterie !

- L’autre solution consiste à installer un deuxième compteur dédié à la recharge de la batterie et faisant l’objet d’un compte séparé avec éventuellement une tarification spéciale. Encore faudra-t-il que l’usage exclusif en recharge soit garanti par un dispositif efficace, ce qui sera le cas des installations de chargement raccordées par une liaison interactive, que l’usager devra faire installer à ses frais.

La nouvelle Loi devra préciser ce genre de « détails » sous peine de porter atteinte au développement du véhicule électrique.

Le futur Bonus-Malus énergétique est en fait une nouvelle taxe qui frappera tout logement et viendra s’ajouter à la taxe foncière et à la taxe d’habitation.

Comme elles il comportera ses injustices, ses niches, ses effets pervers, ses exemptions, ses abattements, ses abus, et ses fraudes. Comme elles il induira des lourdeurs administratives, du contentieux, et beaucoup d’incompréhension.

Mais il n’est pas impossible que, eu égard à certains aspects discriminatoires du texte, le projet de Loi soit l’objet d’une Question Préliminaire de Constitutionnalité.

Affaire à suivre…

 

 

 

Repost 0
17 octobre 2012 3 17 /10 /octobre /2012 18:48

 

17 Octobre 2012

La norme Euro 5, qui s’applique actuellement, impose des limites d’émission de particules aux seuls moteurs Diesel.

Cette limite, de 5 mg/km, impose l’utilisation d’un filtre à particules (FAP).

Les FAP conçus pour satisfaire cette norme retiennent les particules les plus grosses ( les suies) mais laissent passer les particules ultrafines (nanoparticules), dont la masse est très faible mais le nombre très élevé.

Or, ces particules sont très nocives eu égard à leurs faibles dimensions (10 à 500 nanomètres) qui leur permet d’atteindre l’intérieur des organes.

Les moteurs « Euro 5 » ne fument plus mais continuent à émettre des polluants toxiques.

Cette situation n’est pas acceptable. Il est nécessaire de connaître le nombre de nanoparticules émises et d’en limiter le nombre.

Les constructeurs de moteurs du monde entier travaillent depuis plusieurs années sur le problème du contrôle d’émission des nanoparticules. Sont concernés d’abord les moteurs Diesel, mais aussi les moteurs à essence récents à injection directe.

En Europe ces travaux se sont déroulés dans le cadre du «  Particle Measurement Program » regroupant les professionnels européens du secteur, avec la participation des Etats-Unis, du Japon et de la Corée.

9 laboratoires ont travaillé sur quinze modèles de véhicules.

Notons au passage que le véhicule de référence a été la Peugeot 407 Hdi 2L, choisie en raison de l’avance de PSA dans le domaine du FAP, au démarrage du programme.

Ces travaux ont porté sur la recherche de méthodes fiables et reproductibles de caractérisation des nanoparticules émises, sur la mesure des émissions des moteurs de la technologie actuelle, sur l’efficacité des FAP, et sur la recommandation pour une limite acceptable du nombre des nanoparticules émises.

Le rapport final donne une valeur indicative de cette limite:

6 x 10 EXP(11) par kilomètre. ( 600 Milliards)

Cette valeur pourrait être retenue pour la norme Euro 6 qui doit entrer en vigueur en 2014 pour les nouveaux modèles.

Le rapport souligne également la difficulté d’obtenir des mesures fiables, ainsi que la variabilité des résultats en fonction des conditions d’essai et notamment de l’état du filtre à particules relativement à sa régénération.

Il faut noter que la valeur limite proposée correspond non pas à un quelconque seuil de toxicité, mais à ce que peut réaliser la technologie d’aujourd’hui ( ce que savent faire les constructeurs).

On peut légitimement se demander si des taux d’émission de 600 Milliards de nanoparticules par kilomètre et par véhicule ne poseraient pas quelques problèmes résiduels de santé publique !

Un véhicule diesel moyen rejette de l’ordre de 1 m3/km. S’il respecte la future norme Euro 6 il rejettera donc des gaz contenant 600 Milliards de nanoparticules par mètre cube, soit 600 000 par cm3.

C’est 40 fois plus que la concentration moyenne de nanoparticules mesurée par AIRPARIF dans l’air ambiant à la station de Gennevilliers.

Qu’en pense l’OMS ?

Repost 0
12 octobre 2012 5 12 /10 /octobre /2012 10:50

 

12 Octobre 2012

Les normes Euro établissant des limites de plus en plus sévères aux émissions polluantes des véhicules, il devient de plus en plus difficile d’effectuer des mesures sur le terrain ou même en atelier pour les contrôles techniques règlementaires.

Par exemple la norme actuelle euro 5 fixe à 5 mg/km la limite d’émission de particules pour les véhicules à moteur Diesel.

Ni les contrôles de Gendarmerie, ni les ateliers de contrôle technique règlementaire ne sont équipés pour effectuer cette mesure, qui ne peut être menée à bien qu’en laboratoire et n’est pratiquée qu’à l’occasion des processus de réception d’un nouveau modèle ( mesure compliquée et longue).

Pour la vérification du respect des normes lors d’un contrôle ( CT ou Gendarmerie) il a donc été nécessaire de définir un test qui soit à la fois à peu près représentatif des exigences de la norme, et réalisable sur le terrain et en atelier de CT à poste fixe sans mobiliser des moyens complexes.

Pour les moteurs Diesel le test consiste à mesurer l’opacité des gaz d’échappement lors d’une accélération effectuée véhicule arrêté et dans des conditions bien définies.

Pour cela le technicien (ou le gendarme !) branche à la sortie du tuyau d’échappement un opacimètre homologué, effectue le test selon la procédure définie, et lit le résultat. Le tout s’effectue en quelques minutes.

Le résultat est donné par la valeur du coefficient k exprimé en m-1.

Pour les moteurs atmosphériques ( sans turbo), k doit être < 2,5 m-1.

Pour les turbo, k doit être < 3 m-1.

(Pour les curieux, ce coefficient k est issu de la formule:

k = - 10 Logn ( I/Io)

I/Io est l’affaiblissement du faisceau lumineux qui traverse la chambre d’opacité remplie de gaz d’échappement, et Logn est le logarithme népérien. C’est une application de la Loi de Beer-Lambert-Sorensen.

La mesure est rapportée à un trajet optique normalisé de 1 m.

L’échelle va de 0 à 10.

0 correspond à la transparence totale.

10 correspond à l’opacité totale.

L’opacimère donne le résultat en % d’affaiblissement ou en valeur de k ).

Pour les turbos on admet une valeur de k supérieure à celle des atmosphériques pour tenir compte de l’inertie du turbo qui peine à suivre les coups d’accélérateurs !

Cette mesure ne renseigne absolument pas sur la concentration massique des particules en régime établi fixée par la norme ( < 5 mg/km). Elle est simplement une vérification de l’absence de panache de fumée à l’accélération.

Mais on mesure ce qu’on peut….Et puis les populations sont davantage sensibles aux bouffées de fumée noire émises par certains diesels en accélération.

Personne n’est sensible aux particules puisqu’elles sont invisibles ! C’est le problème de l’OMS.

( Toujours pour les curieux, signalons qu’il n’y a que de très lointains rapports entre l’opacité des fumées à l’accélération et la concentration massique des particules en régime établi.

De nombreux travaux portent encore sur la recherche d’une corrélation entre l’opacité des gaz d’échappement en régime établi et la concentration massique des particules. Les lois théoriques qui régissent les interactions entre les particules et la lumière sont très complexes, les effets dépendent de la longueur d’onde du faisceau, de la taille des particules, de leur composition, de leur forme, et de la distribution statistique des tailles.

On peut trouver un semblant de corrélation, mais qui ne sera valable que pour un type de moteur ).

En clair, le contrôle technique ne vérifie pas la conformité à la norme Euro5 ( ou bientôt Euro 6), cela est l’affaire du procès verbal de réception du modèle présenté par le constructeur au service des mines.

Lorsque l’usager présente son véhicule diesel au CT , il peut être refusé non pas à cause du non respect des 5 mg/km, que l’atelier est bien incapable de mesurer, mais simplement parce qu’il fume un peu trop en accélération.

Ceci est généralement dû à un encrassement du filtre à particules, à un problème de turbo, à un problème de gestion du FAP, à un carburant inapproprié, à un filtre à air encrassé, à un problème d’injecteurs ou de calculateur, ou à toute autre cause, qui sont hélas multiples sur les moteurs modernes.

Il est donc hautement recommandé avant un CT de passer chez le concessionnaire pour un check-up complet.

 

Repost 0
7 octobre 2012 7 07 /10 /octobre /2012 18:28

 

7 Octobre 2012

Le filtre à particules, dont sont équipés tous les moteurs diesel depuis 2011, est une petite usine à gaz qui cause beaucoup de soucis à certains usagers.

Rappelons que son rôle est de débarrasser les gaz d’échappement des particules de suie générées par les moteurs Diesel afin de respecter la norme Euro 5 qui fixe des limites aux émissions polluantes des moteurs thermiques.

Le principe de fonctionnement est extrêmement simple, c’est celui de l’aspirateur de la ménagère: on fait passer les gaz à travers un filtre, et on vide le sac de temps en temps.

Sauf que la mise en œuvre est un peu plus compliquée.

Le « sac » qui retient les particules de suie est ici constitué par une membrane poreuse en mousse de carbure de Silicium, matériau adéquat pour sa porosité, son élasticité, sa bonne tenue aux hautes températures (jusqu’à 1300 °C), son aptitude à se laisser extruder en modules nid d’abeilles qui offrent une très grande surface pour un minimum de volume. Cette structure est enfermée dans un pot , les gaz entrent d’un côté et sortent par l’autre.

Ce système arrête 95 à 99% des particules supérieures à quelques centaines de nanomètres. C’est suffisant pour satisfaire la norme Euro 5, mais cela laisse passer la majorité des nanoparticules.

Rappelons que ces nanoparticules, particulièrement nombreuses dans la gamme des 100 nanomètres, sont aussi les plus nocives pour la santé. Elles seront règlementées par la prochaine norme Euro 6, qui doit entrer en vigueur en 2015, et imposera une limite définie non plus en poids mais en nombre par unité de volume.

Les constructeurs travaillent bien sûr sur les FAP pour les rendre conformes à Euro 6, au prix d’une complexité encore plus grande, et donc d’un prix plus élevé.

Dans les filtres à particules actuels, la suie accumulée dans le pot filtrant obstrue les pores de la membrane et bouche le filtre. Il est donc impératif d’évacuer périodiquement cette suie sous peine de dégrader gravement le fonctionnement du moteur, de détruire le FAP, et éventuellement le turbo compresseur.

Pour évacuer cette suie, il n’y a qu’un seul moyen, la brûler à l’intérieur du filtre.

Cette opération s’appelle la régénération du FAP.

Sur les poids lourds ( Camions, Bus ) on monte un système à régénération continue, qui élimine les suies par un procédé complexe et onéreux.

Sur les véhicules légers, le procédé est, lui aussi, léger. Pour des raisons de coûts on installe une régénération « à la demande ».

Le calculateur de bord mesure en continu la différence de pression entre l’entrée du filtre et la sortie. Lorsque le filtre commence à se boucher, la différence de pression augmente et le calculateur sait qu’il doit enclencher rapidement une procédure de régénération.

Pour cela il faut enflammer les suies, ensuite la combustion se poursuit d’elle-même grâce à un excès d’oxygène présent dans les gaz d’échappement, et au flux de gaz dans le pot.

Mais les suies ne s’enflamment qu’à partir de 500 °C.

Or, dans une ligne d’échappement normalement constituée, il n’y a pas 500 °C. Il faut donc, d’une manière ou d’une autre, créer un point chaud pour amorcer la combustion.

Pour cela on utilise un artifice pour d’une part élever momentanément la température à l’entrée du FAP, et d’autre part abaisser le point d’allumage des suies. On trouve généralement une séquence de post injection faisant office de brûleur, et on couple le FAP avec un catalyseur d’oxydation qui permet de gagner encore en température.

Ce procédé assez scabreux fonctionne de manière satisfaisante dans les conditions normales. La régénération se déclenche automatiquement tous les 500 à 800 km selon les conditions de circulation.

Par conditions normales, on entend lorsque le moteur a atteint sa température de fonctionnement et lorsque le régime d’utilisation est suffisamment élevé pour obtenir une température correcte de la ligne d’échappement.

Par contre, si le véhicules Diesel est utilisé en circulation urbaine, les conditions « normales » ne sont jamais réunies.

Les trajets courts, les ralentissements fréquents, la vitesse réduite, les nombreux changements de régime moteur, sont très préjudiciables à un fonctionnement correct et il faut s’attendre à des problèmes du côté du filtre à particules, dont la régénération se fait mal.

Une régénération non satisfaisante conduit à une obstruction définitive du filtre nécessitant son remplacement, la régénération forcée en atelier n’étant pas toujours possible.

Cette génération de véhicules nécessite une attention particulière pour l’entretien et les conditions d’utilisation. L’usager doit impérativement effectuer à intervalles réguliers un trajet sur autoroute à allure soutenue pour « apurer » les cycles de régénération.

Ce problème technique conduit à un paradoxe:

Le filtre à particules, qui devait permettre aux véhicules Diesel de rouler en ville sans polluer, leur en interdit l’accès sous peine de risques de déboires mécaniques.

Qui veut faire l’ange fait la bête…

Notons que le FAP sera probablement nécessaire également sur les véhicules à essence pour satisfaire la norme Euro 6.

Un tapis rouge pour le véhicule électrique.

 

 

 

 

 

Repost 0
5 octobre 2012 5 05 /10 /octobre /2012 14:40

 

5 Octobre 2012

Les moteurs Diesel passent actuellement un mauvais quart d’heure.

Pourquoi un tel acharnement aujourd’hui, alors que ce type de motorisation a été très majoritairement choisi par les usagers, et encouragé par les pouvoirs publics depuis de nombreuses années ?

( Présentement, 72% des véhicules neufs commercialisés en France sont des diesels).

La faute en revient à une prise de conscience un peu tardive du problème de santé publique provoqué par les émissions polluantes dans l’atmosphère, et particulièrement dans les agglomérations.

Depuis plusieurs décennies, les pouvoirs publics sont censés se préoccuper de la pureté de l’air que nous respirons, lequel est particulièrement pollué dans les villes. Les sources de cette pollution sont diverses: Activités industrielles, chauffages des bâtiments avec des combustibles fossiles ou du bois, et transports.

Toutes ces sources de pollutions sont l’objet de mesures règlementaires limitant les rejets toxiques et incitant les industriels à améliorer sans cesse leurs technologies dans l’objectif de respecter des seuils globaux en accord avec les prescriptions des organismes de santé publique.

Les véhicules à moteur n’échappent pas à la règle. Ils doivent respecter des seuils de pollution définis par des normes européennes de plus en plus sévères.

Ces normes fixent des limites d’émissions polluantes en fonction des possibilités de la technologie du moment. Nous avons ainsi vu passer depuis 1993 les normes Euro 1, Euro 2, Euro 3, Euro 4.

Les constructeurs ont pu satisfaire à ces normes par des adaptations des technologies classiques, dans le cadre de l’amélioration des rendements et la réduction des consommations ( Injection directe, allumage cartographique, pot catalytique, diesel common rail, etc..).

Et puis est arrivée Euro 5, en application depuis 2011, qui impose des seuils d’oxydes d’Azote et de particules tellement bas qu’ils ne peuvent plus être respectés par les procédés classiques.

Pour satisfaire cette norme, les moteurs diesel doivent désormais être équipés d’un filtre à particule ( FAP), seul moyen de retenir la suie en dessous du seuil fixé de 5 mg par km.

(Les moteurs à essence sont plus à l’aise dans la mesure où ils n’émettent pas de particules, en tous cas jusqu’à aujourd’hui).

Ce paramètre est contrôlé lors d’un essai selon le cycle normalisé NEDC (New European Driving Cycle) sur un banc reproduisant les conditions réelles.

Que représente un rejet de 5 mg/km par rapport au seuil de pollution atmosphérique urbaine ?

Il faut rapporter ce rejet par km au seuil de pollution défini par la norme sur la pureté de l’air, qui est de l’ordre de 50 micro grammes/m3.

D’un côté des km, de l’autre des m3.

Il faut calculer la consommation d’air au km d’un véhicule diesel moyen, en circulation urbaine, afin de pouvoir la comparer au seuil de pollution atmosphérique fixé.

Un moteur diesel utilise en moyenne 20g d’air pour brûler 1g de gazole (on utilise un mélange pauvre afin de minimiser la formation de suie).

Pour une consommation urbaine de 8 litres/100 km le moteur « consomme » environ 1 m3 d’air au kilomètre.

Cet air est évidemment rejeté par le tuyau d’échappement après que le moteur lui aie prélevé la majorité de son oxygène, remplacé par du dioxyde de carbone et de la vapeur d’eau, plus quelques polluants comme des hydrocarbures, des oxydes d’Azote, des oxydes de soufre, du monoxyde de carbone, et de la suie ( particules PM, Particulate Matter) .

Le seuil de PM toléré pour un véhicule conforme à Euro 5 étant de 5 mg/km ( en PM10) , un moteur consommant 1 m3/km rejettera donc 5 mg/m3 en sortie d’échappement.

Ceci est bien sûr un ordre de grandeur.

Par ailleurs, la moyenne annuelle du taux de pollution urbaine par les PM10 est de 25 micro gramme/m3.

( Source base nationale de la qualité de l’air).

Donc notre moteur diesel conforme à Euro 5 est autorisé à rejeter

des particules PM10 au taux de 5 000 micro grammes/m3, dans une atmosphère urbaine dont le taux moyen annuel de ces PM10 est de 25 micro grammes/m3, soit 200 fois moins !!!

Il est difficile dans ces conditions de parler de moteur propre.

Certes, les gaz fortement dosés en particules se dissipent dans l’atmosphère. Mais d’une part le niveau important d’injection ( 200 fois plus que le taux ambiant) ne peut que contribuer à l’augmentation de ce taux , ce qui n’est pas le but recherché, et d’autre part le niveau de pollution au raz du sol reste très élevé, précisément au niveau des enfants qui devraient être les premiers à préserver. Des valeurs de plusieurs centaines de micro grammes/m3 ne sont pas exceptionnelles en bordure de voies urbaines à grande circulation.

Bien sûr, par rapport aux diesels antérieurs à Euro 5, cette pollution de 5000 microgrammes/m3 est très faible devant l’énorme pollution des « anciens » diesels qui représentent toujours 80% du parc, et que nous devrons supporter encore une dizaine d’années.

Sauf si le véhicule électrique (le vrai) réussit sa percée dans les agglomérations.

Encore faudra-t-il que les autres sources de pollution soient l’objet de la même attention de la part des pouvoirs publics…

 

 

 

 

Repost 0
2 octobre 2012 2 02 /10 /octobre /2012 16:07

 

2 Octobre 2012.

Ceci ne concerne pas (pour le moment) les 40% d’automobilistes qui roulent à l’essence et qui ont donc échappé à l’épidémie du diesel, qui sévit pourtant depuis plusieurs dizaines d’années en France.

Leur apparente immunité au gazole les place à l’abri des foudres de Bruxelles, qui met notre pays en demeure de prendre d’urgence des mesures efficaces de prophylaxie à l’encontre des germes diffusés par les orifices d’échappement des véhicules atteints de diéselite.

De même que, dans certains pays, les individus atteints par la grippe ou tout autre maladie respiratoire contagieuse, doivent porter un masque filtrant, les véhicules brûlant du gazole doivent être équipés d’un filtre à particule ( FAP).

Nous ne discuterons pas ici du bien fondé d’une telle mesure, mais seulement de son impact sur le marché automobile.

Rappelons que les constructeurs sont tenus de respecter les normes Européennes ( et même les autres s’ils veulent vendre leurs produits hors de l’Europe).

La norme Euro 5, appliquée à partir de Septembre 2009, ne peut être respectée que si les véhicules diesel sont équipés d’un FAP.

L’application de cette norme a été progressive:

- Les nouveaux modèles ont du être équipés dès Septembre 2009.

- Les véhicules neufs, même d’un modèle ancien, ont dus être équipés à partir du 1er janvier 2011.

Cette norme impose (entre autres) des limites aux émissions de particules. Ces limites sont fixées en masse de résidus à 5 mg/km, mesurés bien sûr selon le cycle normalisé.

La mesure normalisée ne s’intéresse qu’à la masse des particules. Or on sait que la nocivité des particules est liée à leur nombre, et que les particules les plus nocives sont les nanoparticules ( inférieures à 500 nm).

Les particules sont particulièrement nombreuses dans la gamme de 100 nm, et ce sont en même temps les plus nocives.

La norme Euro 5 ne résout donc absolument pas le problème de pollution par les particules ultrafines. Son but est d’éliminer les plus grosses particules, c’est-à-dire la suie.

La prochaine norme européenne, Euro 6, doit entrer en vigueur en 2014, c’est-à-dire demain matin. Elle imposera des seuils de pollution encore plus sévères et, peut-être, un contrôle des particules non plus seulement sur la masse totale, mais aussi sur le nombre (avant d’imposer une limite en nombre de particules il faut pouvoir disposer d’appareils de mesure de ce nombre, ce qui n’est pas évident aujourd’hui).

L’objectif de ces normes est de lutter contre la pollution urbaine qui, en France, dépasse les seuils fixés.

Le FAP est un premier moyen d’action.

Ce filtre ne peut être monté que sur les véhicules spécialement conçus pour en assurer la gestion. Il ne peut donc pas équiper les véhicules anciens.

En 2012, sur 32 millions de véhicules particuliers en France, 60% utilisent le gazole, soit environ 19 millions.

Sur ces 19 millions, seulement 4 millions sont équipés de FAP, soit 20%.

Un des objectifs des ZAPA étaient d’interdire les centres villes aux véhicules diesel non équipés de FAP. Les chiffres ci-dessus montrent que c’est impossible, on ne peut songer à frapper d’ostracisme 80% des possesseurs de véhicule diesel.

Il faut donc attendre que le temps aie fait son œuvre. La durée de vie moyenne d’une voiture est de huit ans. Au bout d’une douzaine d’années, en 2024, le parc de véhicules sans FAP sera réduit de 80%. Il sera alors possible de légiférer sans créer trop de désordre.

L’estimation de cette échéance ne tient évidemment pas compte des éventuelles péripéties qui pourront perturber le marché du diesel dans les prochaines années et accélérer le vieillissement du parc:

On peut penser par exemple à un rééquilibrage de la fiscalité des carburants mettant le gazole au prix de l’essence. On peut également assister à une percée du véhicule électrique donnant un « coup de vieux » au moteur thermique, avec l’aide de mesures fiscales incitatives. Il ne faut pas négliger également la possibilité de mesures fiscales de dissuasion comme une écotaxe appliquées aux véhicules sans FAP.

La Commission interministérielle créée par Delphine Batho sera précisément chargée d’étudier ce problème en l’élargissant à toutes les causes de pollutions urbaines sans s’arrêter à la seule automobile, et en intégrant le cas des nanoparticules qui, aujourd’hui, ne sont pas prises en considération.

Nous entendrons donc reparler des nanoparticules et des filtres chargés de les arrêter.

 

Repost 0
1 octobre 2012 1 01 /10 /octobre /2012 14:55

 

1er Septembre 2012.

Rappelons pour le lecteur distrait ce que devaient être les ZAPA:

Au départ se trouve le constat d’une super pollution de l’air de nos grandes villes, pollution attribuée en grande partie aux émissions de particules des véhicules, mais pas seulement.

Cette situation de dépassement des normes européennes est due pour partie à l’inertie des pouvoirs publics et pour partie à l’indifférence des collectivités locales.

Les premiers, par une politique fiscale discutable, ont largement incité les usagers à s’équiper en véhicules diesel, qui représentent 60% du parc.

Les seconds, en tolérant un déficit chronique de transports publics, ont encouragé l’envahissement des villes par l’automobile.

Pour tenter (!) d’intéresser les pouvoirs publics français à ce problème de santé publique, la Commission Européenne a engagé des poursuites devant la Cour de Justice de l’Union Européenne, pour non respect de la Directive Européenne sur la qualité de l’air 2008/50/CE.

Il devenait alors difficile à nos responsables de regarder ailleurs et d’ignorer le problème.

C’est ainsi que fut émise l’idée des ZAPA, Zones d’Actions Prioritaires pour l’Air, proposées dans la Loi de Grenelle sur l’environnement, durant le précédent quinquennat.

Dans un premier temps les villes candidates à la création d’une ZAPA devaient remettre un dossier précisant les mesures et les aménagements prévus pour atteindre des objectifs fixés, afin de pouvoir prétendre à des aides publiques.

Parmi les pollueurs visés se trouvaient les véhicules et en particuliers les diesels.

Il paraissait difficile d’échapper à une règle d’interdiction des véhicules les plus polluants. Seuls les véhicules « propres » , c’est-à-dire équipés de filtre à particules, c’est-à-dire les plus récents, seraient alors autorisés en ville.

Cette règle a été appliquée en Allemagne.

Mais la France n’est pas l’Allemagne, faut-il le rappeler ?

Une telle mesure discriminatoire est inacceptable en France, pays où l’égalité est inscrite au fronton des mairies. Pas question de stigmatiser certains usagers et de les chasser de nos villes sous prétexte qu’ils ne sont pas assez riches pour acheter une voiture neuve non polluante.

Le changement de majorité présidentielle, élue sur un socle égalitaire, a fait le reste.

La Ministre Delphine Batho a donc signé le certificat de décès des ZAPA le 20 Septembre 2012, à l’issu de la réunion avec les villes candidates, le dispositif étant jugé trop injuste et peu efficace (AFP).

C’est donc reparti pour un tour.

On attribue à Clémenceau cet aphorisme:

«  Quand on veut enterrer un problème, on crée une commission »

La Ministre a annoncé la création d’une commission interministérielle pour bâtir des solutions concrètes d’ici janvier prochain….

 

 

 

 

 

 

Repost 0
30 septembre 2012 7 30 /09 /septembre /2012 18:03

 

30 Septembre 2012

Après avoir connu quasiment un siècle de prospérité sans remise en question, l’Automobile est rattrapée par la crise.

Cette crise revêt plusieurs aspects:

- Crise pétrolière.

La pénurie de carburant classique se profile à l’horizon. Le peak-oil, longtemps galvaudé, commence à être pris au sérieux. Plus personne ne doute que nous allons devoir faire face à un renchérissement insupportable des carburants pétroliers, la seule inconnue étant la date de l’échéance.

- Crise du Nucléaire.

Cette énergie de substitution aux sources fossiles est de plus en plus contestée par les populations, qui voient leurs craintes confirmées par les catastrophes survenues récemment. La probabilité d’un abandon de cette filière est importante, un retrait progressif est envisageable.

- Crise énergétique.

Les sources d’énergie pétrolières faisant défaut, et le Nucléaire étant menacé, il faudra recourir aux énergies nouvelles propres et renouvelables, qui devront être utilisées avec parcimonie pour limiter l’emprise foncière.

L’énergie cessera d’être disponible sans limitation de quantité et à bas prix, elle deviendra une denrée rare à partager équitablement.

Ne parle-t-on pas déjà d’instaurer un tarif progressif de l’électricité et du gaz ?

- Crise écologique.

Inutile d’en rajouter, tout le monde connaît l’impact des transports routiers sur l’environnement: Emissions de CO2 et de gaz polluants.

La lutte contre ces nuisances se traduit par l’obligation de respecter des normes de plus en plus sévères, ce qui exige des constructeurs des prouesses technologiques à la limite de la faisabilité.

- Crise conceptuelle.

Pendant un siècle, l’automobile, en plus de son rôle utilitaire, a été investie de la mission d’exprimer le statut social de son propriétaire.

Ce rôle, qui aurait pu rester accessoire, est devenu essentiel dans une société où l’argent doit se montrer et où l’égo est en recherche de puissance.

C’est ainsi que, alors que le réseau routier n’autorise pas des vitesses supérieures à 130 kmh ( et peut-être moins bientôt), les constructeurs continuent de proposer des véhicules capables de rouler jusqu’à 170 kmh, voire plus, uniquement pour satisfaire l’égo des clients, ce qui exige des technologies et des solutions mécaniques très onéreuses.

- Crise économique.

Inutile également de s’y étendre, chacun ressent cette crise à son échelle, et l’investissement dans une voiture-plaisir n’est plus la première urgence.

De conjoncturelle, il faut bien admettre que la crise devient structurelle et que la hiérarchie des dépenses devra être durablement revue pour la prochaine décennie.

- Crise technologique.

Pendant un siècle la structure d’une automobile est restée immuable. L’introduction de l’électronique dans les années soixante-dix a permis d’améliorer l’efficacité des différentes composantes mécaniques, qui sont restées inchangées dans leur structure, et surtout d’introduire des gadgets dont l’utilité n’est pas toujours évidente, sauf à augmenter le prix de vente.

La nécessité de préparer l’après pétrole induit l’obligation de remettre l’automobile sur la planche à dessin.

Il faut la redéfinir dans ses fonctions et dans son rôle dans la cité.

Il faut la redéfinir en fonction des sources d’énergie disponibles.

Il faut la redéfinir en fonction des nouvelles données économiques.

Il faut la redéfinir en fonction des impératifs environnementaux.

Les constructeurs et les usagers n’échapperont pas à ce nécessaire aggiornamento qui doit nous conduire à une autre conception du transport individuel, dont la part pourrait se réduire en faveur des transports collectifs et/ou partagés.

Cette mutation aura un impact sur la plupart des aspects de l’organisation économique et sociale: L’habitat, l’urbanisme, la construction, les infrastructures de communication, la distribution des bassins d’emploi, l’organisation du travail, les échanges de marchandises, les loisirs, les déplacements, les relations familiales, les échanges de proximité, etc, etc…

Jusqu’à présent, l’Automobile et ses commodités ont grandement influencé l’organisation du territoire, comme les transports routiers ont influencé la vie économique, et que dire du transport aérien ?

Cette époque est révolue, l’Auto deviendra un service à la personne, et devra s’insérer dans un tissu économique et social au sein duquel l’énergie sera utilisée avec modération et sera devenue une denrée rare et chère.

Quel type d’automobile conviendra à cette nouvelle manière de vivre ?

Plusieurs décennies seront nécessaires pour mettre en œuvre un nouvel art de rouler en voiture.

Nous vivons aujourd’hui les prémisses de cette transition. Les constructeurs proposent diverses solutions, qui sont censées préfigurer l’avenir tout en se pliant aux infrastructures d’aujourd’hui. Ce grand écart n’est pas de nature à éclairer le futur pour l’usager, qui ne comprend pas très bien de quoi on lui parle.

Il a le choix entre un véhicule électrique et un véhicule classique essence ou diesel à basse consommation.

En électrique, il doit choisir entre:

- Un EV, voiture tout électrique, à utiliser sur des voies dépourvues de bornes de rechargement !

- Un HEV, voiture hybride dont l’autonomie électrique est limitée à deux kilomètres !

- Un PHEV, voiture hybride rechargeable à autonomie électrique améliorée, équipée d’une batterie de 300 kilogrammes, le poids de quatre personnes !

A ces choix, illisibles pour un non ingénieur, s’ajoutent d’autres offres comme un véhicule hybride à moteur diesel, au moment où certains pays font la chasse au diesel à cause des particules fines !

D’autres annonces, comme la pile à combustible, peuvent retarder les choix.

A ce tableau technique assez incompréhensible s’ajoute l’incertitude sur le coût du futur carburant électrique et notamment sur le montant de la TICPE qui ne manquera pas d’être appliquée.

En motorisation essence ou diesel basse consommation, les constructeurs ont en préparation des solutions économiques qui auront bien du mal à séduire des usagers, qui n’ont pas encore accepté d’abandonner le concept de voiture-plaisir ni de renoncer au symboles vitesse et puissance, tant reste forte l’identification de l’homme à sa voiture !

Dans la transition énergétique automobile qui nous sera imposée, le plus gros effort incombera à l’usager, qui devra remettre en question ses relations à la bagnole, et trouver un succédané pour flatter son égo.

Gros travail, qui demandera plusieurs décennies…

 

 

 

 

Repost 0