Overblog Suivre ce blog
Administration Créer mon blog
2 novembre 2015 1 02 /11 /novembre /2015 18:55

2 Novembre 2015

La boule lancée par les américains dans le jeu de quilles automobile européen a réalisé un strike dont notre industrie ne sortira pas indemne. Au-delà des conséquences commerciales et financières de ce qu’il faut bien appeler une escroquerie, les dégâts causés à la confiance des citoyens auront une portée difficilement mesurable.

Faire appel à leur sensibilité aux problèmes écologiques pour les convaincre de renouveler leur voiture au profit d’un nouveau modèle soi-disant conforme aux exigences de la protection de l’environnement et de la lutte contre le réchauffement climatique, et leur vendre sciemment un produit incapable de satisfaire la norme revendiquée, est une démarche susceptible d’entamer fortement le capital confiance des usagers, qui sont également des citoyens.

Dans cette fraude l’affaire Volkswagen n’est que la partie émergée de l’iceberg. L’incapacité des tests actuels NEDC à refléter les performances réelles d’une voiture est de notoriété publique depuis des décennies, au moins dans le milieu des initiés et de quelques curieux. De plus les constructeurs préparent spécialement les modèles devant subir le test, c’est le fameux « cycle beating ». Le modèle testé n’est alors plus représentatif du véhicule moyen de série dans les conditions de circulation normale. Les valeurs issues du test relèvent du conte de fées.

En Europe on parle alors volontiers de « tests bidon », mais sans en faire un fromage tant il est vrai que cette pratique est courante de nos jours dans de nombreux domaines.

Ces « petits arrangements » entre constructeurs européens étaient (Sont toujours) à la limite de l’illégalité mais n’ont jamais été sanctionnés. Volkswagen a simplement poussé le bouchon un petit peu trop loin. En matière de tromperie commerciale il est bon de savoir jusqu’où l’on peut aller avec le client. Une cuisine mitonnée entre « amis » n’est pas forcément du goût d’étrangers surtout si ce sont des concurrents.

Avoir sciemment dissimulé cette « petite magouille » à la clientèle ne peut que porter un coup à la crédibilité des pouvoirs publics en matière de lutte contre la pollution et le réchauffement climatique car, faut-il le rappeler, les émissions de CO2 sont également en cause.

Certes, cette tromperie institutionnalisée avait été dénoncée par Bruxelles dès 2011, mais sans être suivie d’effet tant est grande l’influence des lobbies automobiles auprès des décideurs. (Au point que l’on peut se demander si les vrais décideurs ne sont pas les lobbies eux-mêmes…).

Depuis le lancement du branle-bas climatique, à la charnière des années 80/90, les constructeurs d’automobiles sont censés avoir fait de gros efforts non seulement en matière de réduction d’émissions de CO2 mais aussi de réduction de la pollution.

Selon l’ADEME, les moteurs à essence ont respecté les normes et même au-delà, plus pour des raisons liées à la chimie de la combustion que par vertu particulière.

Par contre les diesels ont ignoré les normes Euro 3, 4 et 5, les taux réels de NOx restant inchangés de 2 000 à 2 009. Les contraintes particulières de la version Euro 6b ont entraîné une amélioration sensible, mais les taux de NOx en utilisation normale sont encore très supérieurs aux limites imposées, 180 mg/km au lieu des 80 mg/km requis .

Tant que les tests continuent d’être effectués selon le cycle NEDC, la vie est belle. Les conditions d’essai sont si laxistes que tout est bon chez dupont. Le client est grugé mais le sait-il vraiment ?

( Il faut être américain pour avoir l’idée saugrenue d’aller vérifier si la voiture annoncée pour 5 litres aux cent n’en consommerait pas par hasard le double sur la route, et si les 80 mg de NOx n’en seraient pas plutôt 200).

Tout aurait pu continuer à aller pour le mieux dans le meilleur des mondes frelatés possibles si ne se profilait à l’horizon la menace d’une nouvelle norme mondiale de test d’homologation, la procédure WLTC, destinée à unifier mondialement les procédures de qualification des véhicules. Cette nouvelle procédure doit prendre effet en 2017 avec la norme Euro 6c. Elle est basée sur un cycle de test beaucoup plus proche de l’usage normal que le NEDC.

Les moteurs diesel, tout juste acceptés avec le cycle NEDC, seront rejetés avec le nouveau cycle pour leur taux de NOx trop élevé.

Des procédés de réduction des NOx existent déjà et sont implantés sur la plupart des poids lourds. Le plus répandu est la catalyse sélective avec injection d’Urée. Sur ces véhicules le surcoût de la dépollution est acceptable, et l’efficacité est bonne grâce à une régularité des régimes de fonctionnement du moteur. Le transfert sur les véhicules légers pose des problèmes de coût, proportionnellement important, et d’efficacité à cause de la très grande variabilité de régime et de charge des moteurs.

Pour laisser aux constructeurs le temps de développer des procédés de réduction des NOx qui soient à la fois efficaces et d’un coût compatible avec le marché auto y compris moyen de gamme, une dérogation a été négociée avec Bruxelles sur le taux limite des NOx. La dernière mouture fait état d’un niveau de tolérance de + 110% de 2017 à 2019, qui passerait à +50% ensuite.

Cette dérogation, survenant à quelques semaines de l’ouverture de la COP21, fait grincer quelques dents, à juste titre diront les pourfendeurs du diesel. Il s’agit des premières escarmouches d’une bataille dont nous entendrons reparler dans les mois qui viennent.

Repost 0
28 octobre 2015 3 28 /10 /octobre /2015 11:17

28 Octobre 2015

Dans les sociétés développées le secteur de la consommation d’énergie était jusqu’à présent structuré sur la base d’une disponibilité permanente de la ressource. Les quotas, les restrictions, les bons, appartiennent à un passé que l’on a ( peut-être un peu vite) rangés au magasin des souvenirs.

L’économie, les activités commerciales et industrielles, la vie domestique, les loisirs, seraient complètement désorganisés sans une disponibilité permanente de l’énergie sous une forme ou sous une autre.

Dans ce contexte l’assurance d’une fourniture disponible à la demande est obtenue grâce d’une part à l’utilisation de moyens de production eux-mêmes disponibles en permanence, et d’autre part à des sources d’énergie elles-mêmes pérennes et diversifiées. De plus, pour assurer la disponibilité en cas de problèmes d’approvisionnement, les Etats imposent des capacités de stockage « stratégiques » représentant plusieurs mois de consommation ( en général trois mois).

Lorsque l’énergie provient majoritairement des sources fossiles, la continuité des approvisionnements repose sur l’existence d’un marché international à sources multiples, et/ou sur l’existence de ressources fossiles sur le territoire national. Les stocks stratégiques sont physiquement constitués des quantités correspondantes de pétrole, de Gaz naturel et de Charbon. L’électricité nécessaire est alors produite à la demande par des centrales à flamme, avec un apport variable d’hydroélectrique et de renouvelables .

Dans les centrales nucléaires l’électricité est également produite en continu, et le stockage est constitué par le combustible en cours puisque le renouvellement intervient tous les dix-huit mois seulement.

Dans cet environnement il n’est donc pas nécessaire de stocker de l’électricité puisqu’elle est produite à la demande à partir de sources d’énergie elles-mêmes pérennes et s’appuyant sur des stocks stratégiques.

Il existe quand même quelques moyens de stockage d’électricité qui sont les STEP ( Station de Transfert d’Energie par Pompage) mais dont le rôle est de servir de tampon pour soutenir la demande aux heures de pointe.

En France il existe ainsi un parc de six STEP exploitées par EDF, d’une puissance globale de 5 GW. Ces installations ont été construites entre 1970 et 1990 dans le but premier de stocker la nuit la production excédentaire des centrales nucléaires pour la restituer le jour, particulièrement aux heures de pointe.

La STEP la plus importante est celle de Grand’Maison , dont la retenue est de 15,4 millions de m3 pour une hauteur moyenne de chute de 920m, représentant une capacité énergétique de 35 GWh.

Une STEP est caractérisée par sa puissance et sa constante de temps, qui est le rapport de l’Energie stockable sur la puissance.

La capacité énergétique stockable de l’ensemble des STEP françaises est d’environ 100 GWh, correspondant à 20 heures de production à la puissance de 5 GW ( Constante de temps moyenne de 20 heures).

La gestion des moyens de production d’électricité a pour but de répondre à la demande, éviter surtout l’effondrement du réseau, stocker l’énergie excédentaire, et la restituer en période de pointe.

En effet, la puissance disponible du parc électronucléaire est de 63 GW environ, alors que la demande aux heures de pointe peut atteindre 80, voire 100 GW. Il faut alors trouver ailleurs la puissance manquante. On fait pour cela appel aux STEP, aux centrales hydrauliques, aux centrales thermiques et, si nécessaire, on achète de l’électricité sur le marché européen, à un prix évidemment très élevé.

Entre temps, et avant de tomber en panne, EDF a sollicité certains gros consommateurs avec lesquels ont été signés des contrats d’effacement.

Le management des installations de production est effectué pour le compte de EDF grâce au « step » , Simulation et Traitement de l’information pour l’Exploitation des systèmes de Production, à ne pas confondre avec les stations de pompage STEP !

Cette belle mécanique est remise en question par la montée en puissance des énergies solaire et éolienne qui créent un nouveau problème. Ces énergies sont intermittentes par nature et, sans précaution particulière, la continuité des fournitures ne pourra pas être assurée si leur part dans le mix énergétique est trop importante.

Dans le futur mix énergétique, dont les sources fossiles seront en principe exclues ( c’est la base même de la transition énergétique) et la part du nucléaire fortement réduite, le solaire et l’éolien occuperont une place très importante, logiquement prépondérante.

Pour maintenir la disponibilité de l’électricité sur les réseaux il sera donc nécessaire de stocker des quantités très importantes d’énergie soit directement sous forme électrique, soit indirectement sous une forme rapidement transformable en électricité.

Comme le montrent les chiffres précisés plus haut, l’énergie stockable par les STEP existantes ne peut en aucun cas suppléer l’intermittence des renouvelables, pour deux raisons :

D’une part la puissance cumulée de 5 GW ne représente que moins de 8% de la puissance électrique moyenne demandée, environ 60 GW.

D’autre part cette puissance n’est disponible que pendant une vingtaine d’heures, alors qu’il faudrait plusieurs semaines, voire davantage, et sans parler des stocks stratégiques.

Il semble alors logique de se tourner vers les barrages et les centrales hydroélectriques associées. En France le parc actuel de ces installations représente une puissance de 24 GW ( puissance cumulée des turbines). Elles fournissent annuellement en moyenne 45 TWh soit environ 10% de la demande.

Des centrales thermiques à flamme ou nucléaires de puissances équivalentes pourraient produire annuellement beaucoup plus d’énergie, environ 170 TWh au lieu de 45 TWh. Les centrales hydroélectriques doivent en fait limiter leur production pour conserver un niveau d’eau convenable dans le réservoir, compatible avec le débit de remplissage par l’apport naturel d’eau des cours d’eau alimentaire.

On pourrait décider de consacrer la production hydroélectrique actuelle à la compensation de l’intermittence des productions éolienne et solaire. Il y aurait alors plusieurs problèmes à résoudre :

Les installations hydroélectriques de production ne sont pas des STEP. Leur constante de temps est non pas de 20 heures, mais de plusieurs mois. Une fois vidé le réservoir, il faudra attendre la saison prochaine pour en disposer à nouveau. Ceci est incompatible avec les constantes de temps de l’intermittence des renouvelables, qui sont essentiellement journalières, avec des composantes horaires, hebdomadaires et mensuelles.

Qu’à cela ne tienne, il suffit de transformer les centrales hydroélectriques de production en autant de STEP.

Mais la chose n’est pas aussi simple qu’il y paraît :

En effet, une STEP nécessite non pas un mais deux réservoirs d’eau, avec une différence d’altitude dont dépendra l’énergie potentielle récupérable. On imagine sans peine les difficultés liées à l’aménagement des sites pas forcément compatibles avec un tel projet, à l’emprise foncière, à l’acceptabilité dans des régions déjà aménagées à d’autres fins, aux conflits environnementaux ( souvenons-nous du barrage de Sivens) et bien entendu aux investissements considérables qui devront être consentis .

Aucun projet de cette sorte n’est actuellement prévu en France. Il est peut-être urgent d’y penser.

Quels que soient les procédés utilisés, les installations de stockage d’énergie électrique nécessiteront des investissement très importants, auxquels les fournisseurs d’électricité ne sont pas prêts à consentir sans y être contraints.

Une chose est de planter une éolienne et de la raccorder au réseau pour toucher le pactole du tarif de rachat, une autre est de garantir à des clients sous contrat une fourniture régulière même en l’absence de vent et/ou de Soleil.

Les prix de revient des énergies éolienne et solaire sont actuellement annoncés sons tenir compte du coût des installations de stockage, qui sont inexistantes, comme nous venons de le voir. Il est facile dans ces conditions de démontrer que l’éolien ou le solaire sont moins coûteux que les moyens de production traditionnels.

La vérité des prix de revient dépendra de qui va financer les installations de stockage d’électricité. La logique voudrait que cette charge incombe aux producteurs d’électricité intermittente.

Un parc de STEP qui serait capable d’assurer la relève de l’intermittence du solaire et de l’éolien serait considérablement plus important, sans commune mesure avec le parc existant.

Jusqu’à présent le déploiement des énergies éolienne et solaire s’est appuyé sur les capacités du réseau à compenser leur intermittence grâce aux centrales thermiques. Ceci est évidemment un artifice qui ne saurait perdurer dans la perspective de réduction des émissions de CO2 par ces mêmes centrales thermiques !!!

La transition énergétique est donc tout simplement impossible sans la prise en compte de ce problème de stockage.

Actuellement ce problème est traité sur l’air du « c’est pas moi c’est l’autre… », qui conduit à investir des sommes énormes pour construire des installations éoliennes et solaires censées combattre le CO2, tout en s’appuyant sur des centrales thermiques pour compenser l’intermittence !

Une telle absurdité ne peut conduire qu’à une situation de blocage.

Les autorités de régulation sont évidemment conscientes du problème et ont décidé de le traiter travers une réglementation liant les fournisseurs d’énergie électrique à une obligation de garantie de capacité qui les place d’emblée devant l’obligation de disposer de moyens de stockage d’énergie.

L’idée générale est que le fournisseur d’énergie électrique qui a conclu un contrat de fourniture avec un client ne doit pas mettre ce client en panne sous prétexte d’un manque de Soleil ou de vent sous peine de pénalités financières importantes.

Le fournisseur doit donc s’assurer d’une capacité énergétique lui permettant de garantir au client la fourniture pour laquelle il a souscrit un contrat. Il peut acheter cette capacité ou la produire lui-même.

L’Arrêté du 22 Janvier 2015 porte création d’un mécanisme d’obligation de capacité dans le secteur de l’électricité.

« Le Code de l’Energie instaure l’obligation pour les fournisseurs d’électricité ainsi que pour les consommateurs finals et les gestionnaires de réseau d’électricité qui ne s’approvisionnent pas auprès d’un fournisseur, de contribuer à la sécurité d’approvisionnement en électricité »

« Ce dispositif fait reposer sur les acteurs obligés l’obligation de prouver leur capacité à alimenter en électricité leurs clients afin d’atteindre l’objectif de sécurité d’approvisionnement »

« Les exploitants de capacités de production et les exploitants de capacités d’effacement doivent, quant à eux, faire certifier leurs capacités. »

Ce dispositif législatif met fin à une situation anarchique et établit des règles saines permettant le déploiement des énergies éolienne et solaire en évitant des situations extrêmes obligeant à construire de nouvelles centrales thermiques pour compenser l’intermittence des renouvelables !

Cette réglementation, applicable à un horizon assez vague, s’insère dans une démarche européenne de régulation de la production et de la distribution de l’électricité.

Il serait souhaitable qu’elle soit au centre des débats de la COP 21.

Repost 0
22 octobre 2015 4 22 /10 /octobre /2015 17:57

22 Octobre 2015

L’automobile est devenue une indispensable prothèse pour l’être humain qui a le bonheur ( ou pas selon le point de vue ) d’appartenir à une société dite évoluée, c’est-à-dire hautement technologique et de consommation.

En tant que complément mécanique de base, l’objet automobile reflète la société humaine et évolue au même rythme.

Cette promiscuité engendre une convergence dans l’image voulue par l’un et délivrée par l’autre. L’engin mécanique est devenu le reflet de l’égo de l’organique, l’un et l’autre réunis en une expression globale d’un statut social convoité.

Même s’ils s’en défendent, beaucoup d’automobilistes cèdent encore à ce schéma irrationnel, tant il est vrai que nous y incitent à chaque instant les sirènes de la publicité qui, comme chacun sait, n’est regardée par personne…

Voici dans quels termes l’on parle des voitures en 2015:

Elle a un design sportif…Avec elle la vie est un jeu…Elle est unique…Sans concession… Elle est un brin élitiste…Tout va changer…Elle a plus de sex-appeal… Elle joue des biscoteaux… Ostentatoire, et alors ?.. Elle a plus de personnalité…Emancipation assumée… Un peu plus de style…Un bouille joviale…

( in « l’automobile » N° 824 Janvier 2015)

Ce n’est manifestement pas d’un engin de transport que l’on parle, mais d’une éventuelle compagne valorisante susceptible d’exhiber la personnalité virtuelle que son acquéreur voudrait exprimer.

Inutile donc de chercher une quelconque adéquation entre ce qu’est la bagnole aujourd’hui et ce qu’elle devrait être pour remplir son rôle de moyen de transport en harmonie avec l’environnement et les besoins réels de la société.

Autrefois engin familier, sans secret pour son moderne automédon pourvu qu’il accepte de s’initier à une mécanique simple, la bagnole est progressivement devenue une « automobile » qui a pris ses distances avec l’Homme au point que celui-ci est désormais parfaitement incapable de remédier lui-même au plus léger toussotement de sa machine.

Là où un tournevis et un jeu de clés pouvaient autrefois remédier à la plupart des troubles de fonctionnement de la chose mécanique, il faut aujourd'hui l'intervention d'un ingénieur informaticien pour s'y retrouver dans les arcanes du CAN , du VAN , et des nombreux calculateurs "embarqués" dans on ne sait quelle galère.

L'usager qui pense avoir acquis une voiture se retrouve propriétaire d'un ordinateur mobile conçu davantage pour servir une image de marque que pour conduire les enfants à l'école.

C’est ainsi que s’est produit un télescopage entre d’une part les impératifs de régulation du trafic et de réduction du nombre de victimes d’accidents, et d’autre part les performances réelles des voitures modernes.

Plusieurs conséquences résultent de cette malencontreuse situation:

La régulation du trafic, traduite dans une législation appropriée, impose une limitation absolue de vitesse à 130 km/h sur autoroutes. Il en résulte qu’aucune voiture, à quelque moment que ce soit et en quelque lieu du réseau ouvert à la circulation publique, ne pourra légalement dépasser cette vitesse.

Or les modèles proposés à la vente et dûment homologués sont TOUS capables de dépasser cette vitesse, et parfois très largement. Des vitesses max de plus de 200 km/h ne sont pas exceptionnelles, 180 km/h étant la « norme » pour une voiture moyenne.

Sachant que de nombreux véhicules utilisent majoritairement des voies limitées à 90 km/h, voire beaucoup moins, avec des vitesses moyennes inférieures à 50 km/h, il en résulte une inadéquation totale entre les possibilités des véhicules et les limitations réglementaires du réseau.

Nos voitures sont conçues pour un réseau routier qui n’existe tout simplement pas.

Le modèle économique qui sous-tend la conception de ces engins est totalement inadapté aux besoins réels. Il en résulte que les coûts sont exorbitants car les cahiers des charges sont sans rapport avec les réalités d’usage.

D'autre part, il est évident qu’un parc de véhicules dont les performances surpassent de 50% les limitations légales suscite de nombreuses infractions sur lesquelles se focalisent les moyens de répression au lieu de s’occuper des autres infractions beaucoup plus accidentogènes que la vitesse pure.

Par ailleurs, la conception d’un véhicule optimisé pour des performances extravagantes ( Puissance, couple max, boîte de vitesses ) ne convient plus pour des conditions réelles d’utilisation.

Il est impossible d’optimiser le rendement et les émissions de CO2 et de polluants à la fois pour des vitesse élevées sur autoroute et pour la circulation urbaine.

Cette quadrature du cercle, vainement tentée par les constructeurs, conduit à une impasse face à la sévérisation des normes.

La complexité croissante des mesures mises en œuvre pour tenter de satisfaire ces normes conduit à des usines à gaz dont la maintenance sera problématique.

Le pot catalytique et le filtre à particules ne suffisant pas, on doit aujourd'hui injecter le l'Urée pour satisfaire les normes !

Ce dernier point aurait réjoui l'empereur Vespasien qui, en son temps, imposa une taxe sur l'urine. L'Urée étant de nos jour fabriquée industriellement, il n'est plus besoin de recourir à ce procédé.

( Mais l'urine est toujours taxée, comme le rappelle le poète rappelant les méfaits du colonialisme:

" Maintenant faut qu'il donne deux sous pour pisser

Dans un p'tit chalet en bambou tressé"… ).

La guerre contre le CO2 et la pollution automobile est déclarée depuis déjà vingt ans.

Nous avons eu d'abord la croisade contre le CO2, encore loin d'être gagnée, tant il est vrai que ce gaz est indissociable du pétrole, du Gaz naturel et du Charbon, lesquels voient leur consommation croître inexorablement. Puis est venue s'ajouter l'offensive contre les oxydes d'Azote, que le pot catalytique tente d'endiguer tant bien que mal. Enfin le FAP, présenté comme l'ultime rempart contre les particules.

Malgré le recours à la vanne EGR miracle et à la post-combustion salvatrice, il a fallu recourir à l'injection d'Urée pour obtenir l'Homologation malgré une norme dont les exigences sont pourtant plus que modestes.

Le prochain barrage de ce qu'il faut bien appeler une course d'obstacles sera la limitation drastique des émissions de nanoparticules.

Ces particules sont les plus nombreuses et les plus nocives car leurs très faibles dimensions leur permettent de s'insinuer profondément à l'intérieur des organismes et d'y exercer leurs ravages. Leur nocivité est connue depuis bien longtemps mais aucune réglementation n'impose leur élimination.

Pourquoi ? Tout simplement parce qu'on ne sait pas les éliminer…

Cette étrange logique sévit également dans bien d'autres domaines hélas.

Cette course à l'échalotte ne peut être gagnée que par l'élimination des combustibles fossiles, vaste problème comme aurait dit qui vous savez.

Peut-être assistons-nous aux derniers soubresauts d’un concept automobile dépassé, condamné par la nécessité d’accomplir la transition énergétique, laquelle est peu compatible avec le gaspillage et la pollution débridée acceptés au nom de la vitesse et de la puissance flatteuses pour l’égo.

Entre les performances requises pour passer les tests d’homologation et les 100 km/h départ arrêtés en trois secondes, saint graal des fondus de bagnole, il y a certainement un juste milieu convenant à un usage de transport plus qu’à l’exacerbation de l’égo.

Il nous faudra hélas vivre encore longtemps avec du carburant liquide. Les biocarburants remplaceront éventuellement les carburants fossiles, mais les problèmes de pollution subsisteront.

Si les normes antipollution sont appliquées avec sérieux et dans des configurations d'usage normal, incluant la lutte contre les nanoparticules, il est probable que les moteurs thermiques devront être profondément remaniés pour être acceptés sur nos routes.

Il serait en effet incohérent de traiter sur le même pied des véhicules électriques dénués de toute émission polluante, et des véhicules à moteurs thermiques qui continueraient d'émettre Oxydes d'Azote et nanoparticules.

Mais hélas les incohérences n'effraient pas nos décideurs, il n'est que de voir avec quel enthousiasme ils ont décidé de jeter sur nos routes des milliers d'autocars diesel pour concurrencer le train électrique non polluant par nature!

Nous devons souhaiter que le pas de clerc de Volkswagen aux Etats-Unis, révélateur d'une imposture généralisée, soit l'occasion d'une prise de conscience et le départ d'une réflexion de fond sur la mobilité dans un monde plus écologique.

Il a fallu que ce soit le pays le plus pollueur de la planète qui nous mette le nez dans notre caca, quelle ironie après l'épisode de l'Urée !

La COP 21 est censée mettre de l'ordre dans ce qu'il faut bien appeler une pétaudière.

La boîte de Pandore ouverte à deux mois de la réunion de la "dernière" chance réveillera-t-elle les consciences endormies ?

Repost 0
20 octobre 2015 2 20 /10 /octobre /2015 09:40

20 Octobre 2015

Le grand battage médiatique organisé autour du réchauffement du climat ressemble Le réchauffement climatique, et maintenant qui fait quoi ?

de plus en plus à un carrousel tournant à vide, ou plus exactement à une noria de véhicules tournant autour d’un giratoire sans arriver à trouver la sortie.

L’étude approfondie des causes de ce phénomène a mis en évidence l’implication de la presque totalité des activités humaines, à commencer par la démographie. Derrière ce qui semblait un problème strictement climatologique se cachait en fait un problème de civilisation, que de « simples » mesures technologiques ne sauraient à elles seules résoudre.

Les climatologues du GIEC ont posé leur diagnostic. D’autres doivent maintenant se charger de trouver des solutions et surtout de les faire appliquer.

La nécessité d’une gestion planétaire est vite apparue comme une évidence ; un tel programme ne peut être mené à bien sans une structure permanente compétente et investie de pouvoirs permettant un minimum de cohérence et de continuité des actions.

Une telle structure n’existe pas aujourd’hui.

Cette absence a comme corollaire l’impuissance des organismes existants à obtenir autre chose que des résolutions informelles sur des projets génériques dépourvus de bases concrètes et bien souvent aussitôt rendues caduques par les politiques conservatrices des Etats.

Pourtant beaucoup de travail a été accompli pour donner du corps à ce problème à première vue peu urgent, et dont l’importance n’était pas évidente pour le citoyen davantage préoccupé par les affaires courantes.

La problématique comporte trois volets :

D’abord caractériser la menace et provoquer une prise de conscience.

Quelles sont les preuves, quelle sera l’ampleur du changement, quelles en sont les causes et les conséquences prévisibles, quelles sont les échéances et éventuellement qui sont les coupables ?

Cette première approche a mobilisé tout ce que le monde comporte de scientifiques spécialistes de l’un ou l’autre aspect du climat sous la bannière du GIEC.

Malgré quelques escarmouches engagées par les « climatosceptiques », un consensus a émergé autour d’un corpus de déclarations officielles ayant désormais valeur de feuille de route.

Les contestataires, qui persistent à mettre en doute la responsabilité de l’Homme dans le réchauffement, ne sont plus entendus, du moins officiellement.

Aujourd’hui le réchauffement du climat ne fait plus débat, la courbe des variations futures de la température moyenne de l’Atmosphère a été établie avec diverses hypothèses pour le présent siècle.

Si nous décidons très vite d’être vertueux le réchauffement sera limité à deux degrés et sera gérable. Dans le cas contraire, nous devons nous attendre à une catastrophe aux conséquences imprévisibles.

Les causes de ce réchauffement sont identifiées et classées en deux grands groupes : les causes perturbant l’effet de serre, et celles perturbant l’albédo du Globe, le tout résultant en un déséquilibre du bilan radiatif.

Les détails figurent dans toutes les bonnes publications, et en particulier dans le dernier rapport du GIEC.

La recherche de ces causes a conduit à l’identification du principal coupable, l’Homme et sa civilisation dite évoluée.

L’enquête a révélé que ses méfaits sont nombreux, mais l’accent a été mis sur les émissions anthropiques de CO2, directement liées à la consommation des énergies fossiles.

On a pu croire un moment que l’épuisement des énergies fossiles, annoncé comme imminent par les prophètes du « peak oil », résoudrait le problème naturellement. Hélas les prophètes se trompent parfois ; en l’occurrence ils ont sous-estimé la malice des ingénieurs qui ont su dénicher des réserves insoupçonnées et ont même ajouté de nouvelles sources comme les gaz de schistes, sans parler du pétrole abiotique.

Le problème du CO2 demeurait donc entier.

Il existe évidemment d’autres activités humaines coupables d’atteintes au climat, comme la pollution atmosphérique, la déforestation, l’empreinte anthropique sur les océans, et tout autre activité susceptible de modifier l’albédo du Globe et/ou l’importance de l’effet de serre.

Mais ces causes « annexes » n’ont pas l’aura médiatique du CO2 qui a le mérite de la simplicité et qui de ce fait demeure l’ennemi à abattre, même si d’autres sont encore peut-être plus sournois.

Quant aux conséquences du réchauffement, leur chiffrage reste du domaine de la science-fiction. Certains événements météorologiques récents laissent penser que ces conséquences seront considérables et hors de tout chiffrage raisonnable.

On peut, sans jouer madame Irma, prédire que les évènements actuels à caractère centennal deviendront décennaux puis annuels avant de balayer les régions les plus exposées, que ce soit par la sécheresse, les inondations ou les tempêtes, avec les problèmes géopolitiques associés.

L’état des lieux étant ainsi à peu près réalisé, il s’agit ensuite de décider ce qu’il y a lieu de faire pour tenter de parer la catastrophe ou au moins d’en limiter les conséquences.

Ce second volet comporte deux aspects :

D’une part tenter de réduire l’ampleur du gradient de réchauffement, en postulant que c’est possible, ce qui n’est pas démontré.

En effet, une fois émis, le CO2 subsiste dans l’Atmosphère pendant plusieurs dizaines d’années, et un arrêt drastique des émissions ne produirait des résultats que bien plus tard.

Néanmoins la stratégie principale reste la réduction des émissions de CO2.

Hélas le prix du pétrole n’en finit pas de baisser, ce qui rend illusoires des incitations aux économies qui ne seraient pas contraignantes.

La croisade contre le CO2 n’étant pas assurée d’un succès total, il est nécessaire de la compléter d’une stratégie de lutte contre les conséquences du réchauffement, fut-il limité aux deux degrés fatidiques, auxquels personne ne croit plus guère.

Cette stratégie doit être à la mesure des risques encourus. Telle région devra se prémunir contre la submersion, telle autre contre la désertification et la pénurie d’eau, ailleurs il faudra revoir les méthodes de culture, et globalement il faudra gérer des déplacements importants de populations.

A ces mesures de mitigations il faudra bien sûr ajouter le développement de nouvelles sources d’énergie à caractère renouvelable et non émettrices de CO2.

L’énergie solaire étant inépuisable et largement supérieure à nos besoins, sous forme de solaire thermique, solaire photovoltaïque, éolien, hydraulique, auxquels on peut ajouter la géothermie, et l’exploitation de la biomasse.

Cet aspect du problème n’est pas le plus difficile à résoudre. Les outils existent déjà, la technologie est prête et ne demande qu’à remplacer les vieilles méthodes.

Même les technologies de stockage d’électricité pour compenser l’intermittence des moyens de production éolien et solaire existent, certains déjà opérationnels comme les STEP ( Stations de Transfert d’Energie par Pompage), les batteries, d’autres au stade pré-industriel comme les matériaux à changement de phase, la filière Electrolyse- Hydrogène- Pile à combustible, le stockage inertiel, le stockage à énergie potentielle.

Reste le troisième volet, de loin le plus difficile à gérer.

Qui fait quoi, quand, et avec quel argent ?

C’est, en gros, le programme de travail de la COP 21.

En effet, une chose est de développer une ou deux technologies d’énergie renouvelable dans les pays développés qui disposent des moyens financiers, une autre chose est de promouvoir ces technologies à travers le monde et particulièrement dans les pays en voie de développement, où les Milliards coulent plus facilement dans les poches des potentats que dans des programmes utiles au peuple.

Or la lutte contre le réchauffement doit être mondiale sous peine d’être évidemment inefficace.

Le développement des énergies renouvelables requiert d’énormes capitaux, et les mesures pour palier les conséquences du réchauffement coûteront encore plus, et les deux devront être menées de front.

Les détenteurs de cette substance financière n’investissent que dans la perspective d’un retour sur investissement, l’exception est extrêmement rare.

Le retour sur investissement dans un pays en voie de développement reste une éventualité hasardeuse pour ne pas dire une illusion.

Le problème du financement des investissements pour les énergies renouvelables dans ces contrées demeure donc entier.

Le temps est maintenant passé des discussions sans fin sur les mérites comparés de telle technologie par rapport à telle autre, il faut maintenant avancer et inventer un modèle économique susceptible de porter la transition énergétique et la gestion du réchauffement climatique partout sur la planète et non pas seulement dans les pays développés.

C’est ce que l’on attend de la COP 21 sur laquelle repose une lourde responsabilité.

Décider de consacrer cent Milliards par an à cette cause est certes louable, mais comment répartir cette manne ? Quels projets ? Quels pays ? Quels suivis ?

Les pays développés sont censés pouvoir assumer la transition par leur propres moyens.

On peut constater effectivement une croissance des énergies vertes, plus ou moins vivace selon les volontés politiques nationales, mais le déploiement à grande échelle est contrarié par deux types de difficultés :

D’une part le caractère intermittent des énergies éolienne et solaire pose un réel problème lié au déphasage entre la production et la demande, et un problème d’absence de garantie de capacité de production sur le moyen terme à cause de l’incertitude sur les conditions météorologiques.

Il en résulte l’absolue nécessité de développer en parallèle des moyens de stockage d’énergie, lesquels requièrent des investissements considérables à porter sur les prix de revient de production des renouvelables, donc impactant leur rentabilité.

Par exemple, en Californie, les cahiers des charges des nouveaux projets de production d’énergie intermittente comportent une obligation de stockage.

En France, la Loi NOME comporte des dispositions similaires mais beaucoup moins contraignantes.

D’autre part, le déploiement à grande échelle de l’éolien et du solaire et de leurs moyens de stockage et de transport d’électricité implique une très importante emprise foncière très mal acceptée par les populations dans les régions très peuplées et/ou à vocation touristique, surtout après des années d’incitations à la protection de l’environnement et des sites remarquables.

Par ailleurs, les transports restent tributaires du pétrole malgré l’existence des véhicules électriques malheureusement incapables de rouler faute d’un réseau de rechargement des batteries.

Tout ces problèmes constituent des freins « naturels » à la transition énergétique.

Les freins les plus efficaces restant le pétrole, le gaz naturel et le charbon, qui demeurent disponibles en quantités illimitées et pour un prix « dérisoire ».

Face à ce tableau peu enthousiasmant, le Nucléaire retrouve de l’intérêt en mettant en avant son caractère de production de masse continue et son absence d’émission de CO2.

( Son caractère renouvelable demeure un sujet de discorde).

Les problèmes rencontrés dans les pays développés pour le déploiement des énergies renouvelables se retrouvent évidemment pour les pays émergents ou en voie de développement, aggravés des difficultés propres à ces régions.

Accompagner leur développement en les incitant à choisir les énergies renouvelables plutôt que les fossiles ne sera pas une mince affaire, eu égard à nos propres difficultés à donner l’exemple.

Toute politique d’aide contraignante serait ressentie comme une tentative de néocolonialisme. Un financement à guichet ouvert n’aurait pas plus de succès.

Les participants à la COP21 auront à résoudre une équation comportant de nombreuses inconnues et des relations non linéaires.

N’est-ce pas la situation qui a conduit à la Théorie du Chaos ?

Il leur faudra donc abandonner l’utopie laplacienne d’une prédictibilité déterministe, c’est-à-dire faire de la Politique.

Mais çà ils ont l’habitude…

Repost 0
5 octobre 2015 1 05 /10 /octobre /2015 10:53

5 Octobre 2015

Que nos voitures consomment 10 ou 20% de plus que les valeurs « catalogue », et donc polluent en conséquence, tout le monde le savait pour en avoir fait l’expérience quotidienne depuis longtemps.

Curieusement personne ne s’en offusquait.

Ni les pouvoirs publics, dont c’est pourtant la responsabilité de s’assurer de la pertinence des normes d’homologation et de leur respect par les constructeurs.

Ni les clients, tant est grande la force de l’habitude qui nous fait tolérer des nuisances dès lors qu’elles sont partagées par nos confrères.

Il a fallu qu’une ONG américaine ouvre la boîte de Pandore et s’avise que le roi était nu et le clame haut et fort.

Avant même de savoir s’il s’agit d’une sincère réaction écologique ou d’une manœuvre déloyale contre un concurrent devenu encombrant, il est urgent de prendre des contre-mesures.

Il va donc falloir sortir la poussière de dessous le tapis et faire semblant de découvrir la chose afin d’éteindre cet incendie avant qu’il ne s’étende à toute la forêt.

En Europe, le consommateur éclairé sait que les chiffres catalogue de consommation et d’émissions ne sont que de la pub. Il y a bien longtemps qu’il a viré sa cuti et prend la publicité pour ce qu’elle est: un conte pour enfants destiné à flatter son égo. il suffit de décrypter les photos sur papier glacé pour comprendre que le constructeur ne cherche pas à nous vendre un moyen de transport écologique mais à nous convaincre qu’en achetant tel modèle nous gagnons le droit de nous identifier à un statut et un mode de vie nous sortant d’un ordinaire jugé un peu fade. Autrefois le modèle était le cow-boy à la cigarette, aujourd’hui c’est le père de famille soucieux de l’avenir de la planète.

On sait par ailleurs que le transport écologique c’est la bicyclette pour les petits parcours à condition d’avoir la forme physique et aucune charge à transporter, et le train (électrique) à condition de considérer l’électricité nucléaire comme une source propre et renouvelable. A défaut il faudra attendre l’électricité éolienne ou solaire, et pourquoi pas la voiture électrique .

La bagnole, homologuée ou pas euro 6 ou WLTP, est devenue hélas indispensable. Sans voitures l’économie s’effondre, c’est une évidence.

Alors le citoyen se débrouille avec les autos qu’on lui vend et surtout celles que sa bourse lui permet d’acquérir, c’est-à-dire deux fois sur trois une bagnole d’occasion ( deux transactions sur trois portent sur des modèles d’occasion). Lesquelles ont, par définition, souvent plus de dix ans d’âge et parfois bien davantage.

Ce qui fait de la norme Euro 6 un document exotique qui ne concerne que les « happy few » assez riches pour acheter les ordinateurs à roulettes proposés en concessions. Et si en plus cette fameuse norme est bidonnée, on n’est pas sortis de l’auberge…

Le consommateur a depuis longtemps renoncé à croire à la vertu des industriels, plus prompts à pratiquer l’obsolescence programmée qu’à lutter réellement contre la pollution. Comment veut-on que le citoyen prenne au sérieux les prêches médiatiques contre le gaspillage et la pollution quand on voit avec quelle légèreté sont traités ces problèmes ( légèreté est bien sûr un euphémisme).

Que peut penser l’usager d’un diesel à qui l’Etat reproche de polluer la planète, en constatant que ce même Etat vient de décider d’autoriser sur nos routes plusieurs milliers d’autocars ( Diesel bien entendu) pour concurrencer le train électrique proclamé par ailleurs « transport le plus écologique » ?

Cette schizophrénie officielle n’est pas de nature à encourager le citoyen à adopter un comportement vertueux.

Le piège dans lequel Volkswagen s’est maladroitement fait prendre risque de causer quelques dégâts collatéraux. Mais, de même que les procès contre les fabricants de cigarettes n’ont pas réussi à faire disparaître le tabac, on peut penser que cette histoire de test bidonné se terminera non pas par des chansons comme dans l’opérette, mais par la distribution de quelques milliards pour calmer les esprits.

Au fait, le bénéfice 2014 du groupe Volkswagen s’est élevé à 10,8 Milliards d’euros, pour un chiffre d’affaires de 202 Milliards correspondant à la vente de 10 millions de véhicules. Au bilan 2014 apparaissent 49 Milliards de provisions pour risques et charges non courantes, et 19 Milliards de trésorerie et équivalent trésorerie. De quoi permettre à la firme de traverser la tempête sans trop de dommages. Les dividendes ont augmenté de 20%…en 2014.

Au sein de ce carnaval seuls seront à juste titre scandalisés les rares clients ayant acquis tel véhicule, convaincus de faire un geste écologique. Ils auront le droit de se sentir trahis et de demander des comptes. Les autres leur emboîteront le pas, ravis de l’opportunité de récolter au passage une coquette indemnité.

La morale de cette histoire c’est que les autorités responsables ont, une fois de plus, fait la démonstration de leur incapacité à faire appliquer et respecter des règles qu’eux-mêmes ont établies. Mais, est-ce vraiment une surprise ?

Allez, bonne route… Et surtout gardez le moral car, avec la COP21, vous n’avez pas fini d’en entendre, des salades.

Repost 0
27 septembre 2015 7 27 /09 /septembre /2015 13:39

27 Septembre 2015

Dans les temps orageux qui s’annoncent pour la noblesse mécanique, il va beaucoup être question des particules, comme au bon vieux temps de la Terreur. Des têtes commencent même à tomber, certes sans faire couler le sang et avec moult compensations financières, mais certains barons, même chevronnés, ne se sentent plus à l’abri et craignent de voir leurs blasons quelque peu ternis par leurs propres miasmes.

Il semble qu’un grand aggiornamento soit de mise, tant s’est enflée la méfiance du public à l’occasion de ce qu’il faut bien appeler le « scandale Volkswagen ». Scandale susceptible d’éclabousser toute la profession si des mesures conservatoires ne sont pas rapidement prises.

Cette histoire de pollution requiert quelques explications.

La Chimie nous enseigne les grands principes de la combustion: Le moteur reçoit d’une part de l’Air ( de l’Oxygène et de l’Azote qui, en théorie, ne sert à rien ) et d’autre part du combustible composé de Carbone et d’Hydrogène combinés de diverses façons ( Hydrocarbures). Grâce à une étincelle ( moteurs à allumage commandé) ou une élévation de température ( compression dans les moteurs diesel ), le mélange s’enflamme. Les composants cités se recombinent et le résultat est de l’énergie et d’autres composants qui sont du dioxyde de Carbone et de l’eau. L’Azote est neutre et se retrouve en sortie.

CO2 et H2O ne sont ni des fumées, ni des polluants, où donc est le problème ?

Il paraît que le diable se cache dans les détails.

La combustion idéale n’existe que dans les livres de chimie. Le fameux principe de réalité reste incontournable et conduit à regarder de plus près le déroulement de la réaction.

L’air fourni au moteur est en général de bonne qualité, mais il est affecté d’un certain taux de pollution par une multitude de produits en faibles quantités.

Le carburant ne contient pas que du Carbone et de l’Hydrogène; il contient également en faibles quantités une bonne douzaine d’éléments à l’état de traces ( Soufre, Cadmium, Zinc, Arsenic, Nickel, Manganèse,….) présents dans le pétrole et/ou ajoutés pour améliorer le carburant ( indice d’octane, résistance au froid, etc…).

La combustion elle-même n’élimine évidemment pas ces oligo-éléments qui se retrouvent donc dans le tuyau d’échappement.

Par ailleurs le temps imparti au cycle de remplissage/combustion/détente est très faible; par exemple pour un régime de 4000 tr/mn ( modeste) il est inférieur à 1/100 ème de seconde, la combustion est alors incomplète et s’accompagne de formation de suies et d’imbrûlés.

La température à l’intérieur de la chambre dépasse 800 °C en charge, permettant des combinaisons chimiques non souhaitables, voire inavouables: Oxydes d’Azote, Oxydes de Soufre, et autres selon les composants traces présents.

D’autres éléments métalliques sont apportés par le lubrifiant et par l’usure du moteur.

En plus du CO2 et de l’eau ( vapeur) on trouve alors en sortie toutes sortes de molécules indésirables. En effet, aucun système de purification, aussi perfectionné soit-il, n’est capable de transformer un élément dans un autre moins gênant, il faudrait pour cela réaliser des transmutations. Or les constructeurs automobiles n’en sont pas encore capables, ni d’ailleurs personne en ce bas monde en dehors des réacteurs nucléaires.

( Il n’y a pas encore d’alchimistes dans les bureaux d’études…)

Les éléments tels que Soufre, manganèse, Arsenic, et autres métaux se retrouvent donc en sortie du tuyau d’échappement, où ils s’empressent de s’unir à d’autres pour reconstituer des nanoparticules.

Selon l’ADEME ( in « Les particules de combustion automobile et leurs dispositifs d’élimination » ) douze métaux ( éléments) ont été détectés en quantités non négligeable dans l’échappement : Soufre, Chlore, Potassium, Calcium, Chrome, Manganèse, Fer, Nickel, Cuivre, Zinc, Antimoine, Argent.

Ces éléments se combinent et s’agglomèrent avec le Carbone pour former des particules de tailles très variables qui viennent s’ajouter aux polluants gazeux en sortie.

Ces particules peuvent être en partie retenues par un système de filtrage.

Les filtres à particules actuels ( FAP ) arrêtent momentanément les particules dont les dimensions sont supérieures à quelques centaines de nanomètres, les particules plus petites (nanoparticules) ne sont pas arrêtées. Or ce sont les plus nombreuses et les plus nocives puisque leur faible taille leur permet de s’insinuer profondément dans l’organisme. Un FAP doit être régénéré périodiquement sous peine d’encrassement préjudiciable au bon fonctionnement.

Cette régénération consiste essentiellement à brûler les suies accumulées et à ne rejeter en principe que du CO2 et de l’eau. Mais les éléments traces, toujours présents, ne sont pas éliminés et sont rejetés dehors où ils s’ajoutent à la pollution de l’air sous forme de particules reconstituées.

La norme Euro 6b définit une limite absolue d’émission de particules par km. La masse et le nombre des particules émises sont proportionnels à la puissance du moteur, pour une même technologie de moteur et de filtrage d’échappement.

La norme contient donc en elle-même une limitation de cette puissance.

Aujourd’hui sévit encore la course à la puissance, bien qu’elle soit devenue dépourvue de sens dans un environnement règlementaire qui limite la vitesse absolue à 130 km/h, et peut-être 120 km/h bientôt, et 90 km/h hors des autoroutes, sans parler des agglomérations.

En matière d’émissions de polluants les constructeurs semblent avoir atteint les limites du possible avec la technologie d’aujourd’hui et pour un coût acceptable. Pour que les véhicules puissants puissent être homologués, il faut désormais tricher, même avec une norme pourtant bonne fille…

C’est vrai pour le diesel comme pour l’essence, avec des nuances.

Les Constructeurs sont maintenant au pied du mur. Il leur sera difficile de rejeter la nouvelle norme WLTC encore plus contraignante que la norme actuelle.

La médiatisation du problème, sa mondialisation, et l’implication des instances gouvernementales rendent quasiment impossible une quelconque et discrète entente « cordiale » sur un arrangement entre gens de « bonne » compagnie.

La boîte de pandore a été ouverte…

Nous pouvons donc espérer que de ce mal sortira un bien. Voilà en tous cas qui réjouira les partisans de la voiture électrique, et qui donnera un peu de tonus au programme de mise en service des stations de recharge des batteries.

L’imminence de la COP 21 ne peut que « booster » cette activité qui n’en finit pas de « démarrer ».

Peut-être sommes-nous en voie d’assister à un accouchement aux forceps d’une transition énergétique qui semble avoir beaucoup de mal à venir au monde.

PS. La firme BOSCH aurait fourni à VW les logiciel truqueur. Cette firme fournit un nombre considérable de constructeurs auto en gadgets électroniques divers et variés, dont des calculateurs de gestion moteur.

Repost 0
24 septembre 2015 4 24 /09 /septembre /2015 10:37

24 Septembre 2015

La chasse au CO2 bat son plein.

Les transports sont pointés du doigt parmi les principaux émetteurs, et la stratégie de transition énergétique promeut l’abandon des carburants fossiles au profit de l’électricité.

Le citoyen est par ailleurs fortement incité à délaisser la route au profit du train, cité comme modèle de rationalité énergétique. Le réseau ferroviaire est ( à peu près) entièrement électrifié et de plus cette électricité est à 85% exempte d’émission de CO2.

Ce comportement vertueux est imité, ou en voie de l’être, par le secteur des transports collectifs urbains et périurbains. Des tramways remplacent progressivement les autobus puants dans la plupart de nos villes.

Jusque là tout va bien et nous ne pouvons qu’applaudir à deux mains .

Et voilà qu’on me dit, je n’ose y croire, que vient d’être votée une loi ouvrant le « marché » du transport routier de passagers par autocars. Il s’agirait dit-on de concurrencer le train pour susciter des baisses de tarif.

Un rapide calcul m’a conforté dans ma conviction qu’il s’agit d’une plaisanterie de potache désireux d’animer la COP 21 qui s’annonce un tantinet morose.

Voyons la chose plus précisément:

En 2012 le trafic voyageurs SNCF s’est élevé à 89 Milliards de kilomètres-voyageurs. Supposons que 30% de ce trafic soit « détourné » sur des autocars de tourisme, soit 27 milliards de voyageurs-km.

Un autocar de tourisme transporte environ 60 pèlerins. Le trafic correspondant sera donc de 450 millions d’ autocars-km.

Un autocar consomme 20 L de gasoil aux cent km. Soit un total de 90 millions de litres par an.

La combustion de 1 L de gasoil libère 2,6 kg de CO2.

Au total ce seront donc 234 000 tonnes de CO2 qui seront libérés dans l’Atmosphère chaque année et viendront s’ajouter aux émissions actuelles.

Il est évidemment inconcevable qu’à la veille de la COP 21 l’Etat invitant et organisateur de cet évènement ose annoncer qu’il décide de s’asseoir sur ses engagements de transition énergétique en ouvrant une application qui génèrera des émissions annuelles de plusieurs centaines de milliers de tonnes de CO2.

Il s’agissait donc bien d’une plaisanterie.

Ouf, nous avons eu chaud…

Repost 0
23 septembre 2015 3 23 /09 /septembre /2015 15:15

23 Septembre 2015

En Europe et probablement ailleurs, pour ceux qui vivent les yeux ouverts, les tests d’homologation des nouveaux modèles d’automobiles produisent des résultats fantaisistes pour ce qui concerne les consommations et la pollution.

Tout le monde s’en accommode.

Les constructeurs, parce qu’ils sont eux-mêmes à l’origine du subterfuge qui leur permet d’afficher des performances flatteuses en rapport avec les exigences des normes de plus en plus sévères. Les clients, qui se sont laissés convaincre que si leur voiture consomme beaucoup c’est parce qu’ils conduisent mal. Et personne n’aimerait reconnaître une telle faiblesse, n’est-ce pas ?

Ce sont les procédures officielles elles-mêmes qui prêtent le flanc à la critique, les conditions de mesures imposées par la norme n’ayant que de lointains rapports avec la réalité de la conduite de tous les jours.

Mais les normes étant de plus en plus sévères, EURO 6 en particulier qui préfigure un futur normatif d’enfer concernant la pollution, « certains » constructeurs ont cru pouvoir utiliser les grandes facilités offertes par l’électronique et la microprogrammation pour « bidouiller » le programme de gestion moteur lors d’une session d’homologation afin d’optimiser les résultats, pour ensuite revenir à une gestion moteur plus « brillante » sans trop se préoccuper de la conso ou de la pollution en usage « normal ».

Si la mentalité européenne s’accommode assez facilement de ce genre d’arrangement entre amis, une approche différente s’appuyant sur une autre interprétation du droit international pourrait y voir une fraude justifiant une action en justice.

Les américains, volontiers procéduriers et toujours friands de ce genre de démarches pouvant rapporter gros grâce aux « class actions », se sont engouffrés dans la brèche. Cette « bombe à retardement » n’a pas manqué d’éclater et le pot-aux-roses fait maintenant la une des médias.

Aujourd’hui Volkswagen, et demain ?

Les tartuffes font semblant de découvrir la chose alors qu’elle était de notoriété publique.

Concernant la qualification du délit, si délit il y a, les choses ne sont pas aussi simples qu’il y paraît. Il y a matière à plaidoirie.

Aux temps anciens de la pince et du tournevis, modifier subrepticement les performances d’une voiture nécessitait d’intervenir physiquement sur l’une ou l’autre pièce mécanique. Changer un gicleur, modifier l’avance, à cela se bornait la panoplie du « petit bricoleur ». Une telle manœuvre effectuée avant l’homologation aurait nécessité une nouvelle intervention du mécanicien pour retrouver les réglages d’origine après les tests, à condition qu’il y eut une homologation.

La fraude eut été évidente et incontestable.

Mais, sur les voitures actuelles ont peut modifier de nombreux paramètres grâce à des actionneurs électriques commandés par un ou plusieurs ordinateurs embarqués: Dosage du carburant au niveau de chaque injecteur, ajustement du diagramme de distribution, optimisation de la cartographie pour tel type d’utilisation, pilotage de la richesse à partir de la température d’échappement, etc, etc…

Nos voitures sont dotées d’une forme « d’intelligence » qui leur permet, toutes seules, de choisir tel réglage plutôt que tel autre dans une circonstance donnée, et ceci sans l’intervention ni du mécanicien, ni du conducteur.

La voiture choisira le mode « éco », le mode « sport », le mode « peine charge », le mode « électrique », le mode « thermique », etc…, et/ou modifiera les réglages moteur selon le type de carburant qu’elle aura reçu, selon les changements de température ou de pression atmosphérique, et même selon le profil du trajet.

Les réglages, modifiés automatiquement par l’ordinateur de bord, sont définis soit pour des performances maximales ( mode « sport » ), soit pour une faible consommation et une pollution réduite ( mode « éco » ). Tout cela étant parfaitement licite, et même recommandé au nom du progrès et de la recherche de l’efficacité énergétique.

Il est donc parfaitement légal qu’une voiture modifie d’elle-même sa configuration à sa guise, ce point ne saurait être contesté juridiquement.

De son côté, la norme définit une procédure de tests d’homologation très précise. Lors de ces tests la voiture est soumise à cette procédure, et seulement à cette procédure.

Or cette procédure constitue un mode d’utilisation parmi d’autres, et ce mode ne diffère pas dans son principe des autres modes comme « sport », « éco », ou autres, qui sont licites. Si l’ordinateur de bord estime que le mode type « NEDC » est le plus approprié pour telle circonstance, personne ne peut trouver à y redire.

On remarquera que, dans leur publicité, les constructeurs précisent que les performances de consommation et de pollution sont mesurées selon la procédure NEDC ( Si, si, c’est écrit en tout petit). Tout ce qu’on pourrait reprocher au constructeur qui choisirait ce mode pour le test d’homologation, c’est de ne pas disposer dans l’habitacle un bouton ad-hoc permettant au conducteur de le sélectionner à sa guise, retrouvant ainsi les performances du test.

Pas de quoi fouetter un chat…

Les grognons pourront alors se retourner contre les auteurs de la norme, qui ont été trop laxistes et qui auraient dû imposer une procédure plus proche de l’usage « normal ».

Mais au-delà de ce mini-scandale ( nous en avons vu bien d’autres, restés impunis) il demeure le problème de la norme EURO 6 et des suivantes. Car, hélas pour les constructeurs, ce Buzz arrive au mauvais moment. En effet, la norme actuelle NEDC qui définit la procédure de mesure de consommation et de pollution pour les nouveaux modèles, est devenue inacceptable car beaucoup trop laxiste. Depuis plusieurs années déjà son remplacement est programmé en faveur d’une nouvelle norme, à caractère mondial, la WLTP. Cette nouvelle norme fournira des résultats plus proches de la réalité d’usage.

Dès son entrée en vigueur les valeurs officielles de consommation et de pollution des nouveaux modèles se trouveront majorées par rapport aux « anciens », parfois lourdement, à la grande surprise des futur clients qui ne comprendront rien à cette dégradation subite de la technologie.

Et surtout le respect de la norme Euro 6 deviendra plus difficile puisque les conditions de mesures seront durcies.

Les constructeurs, peu soucieux de devoir présenter des nouveaux modèles affichant des consommations et des taux de pollution en hausse par rapport aux anciens modèles, mènent un combat d’arrière garde pour retarder l’introduction de cette norme qui portera un coup à leur réputation. Aux dernière nouvelles, il faudra attendre 2018 pour y être confrontés.

Bien sûr, le fait que cette affaire sorte dans la période de pré-négociations pour la COP 21 ne saurait être dû qu’à une malheureuse coïncidence de calendrier…

Repost 0
20 septembre 2015 7 20 /09 /septembre /2015 16:14

20 Septembre 2015.

Comme prévu, la désormais imminente COP 21 n'a pas manqué de déclencher un branle-bas au sein des équipes gouvernementales intéressées de près ou de loin à la lutte contre le CO2 et la pollution, et/ou impliquées dans la définition et la mise en œuvre de la transition énergétique.

Sa qualité de puissance invitante fait à la France obligation de donner l'exemple et donc de présenter un état des lieux et un plan d'action crédible et à la hauteur de l'enjeu, il s'agit tout de même de sauver la Planète.

L'exercice sera délicat, eu égard à notre retard dans la mise en œuvre des énergies renouvelables.

Une électricité nucléarisée à 75% n'est pas précisément une réalisation aisément vendable comme un progrès vertueux, sauf à glisser Tchernobyl et Fukushima sous le tapis et regarder ailleurs quand on parle de stockage des déchets et de risques de dissémination…

Ce n'est pas non plus une hydraulique performante mais vieillissante et dont la production plafonne faute d'espace disponible, qui peut faire de nous des champions de l'énergie propre.

Le Solaire peine à faire son trou, englué dans une règlementation absconse et pris dans un modèle économique basé sur l'effet d'aubaine et de plus offrant une grande vulnérabilité à la concurrence asiatique.

Quant à l'exploitation de notre littoral, vanté comme privilégié pour l'éolien, on n'y trouve encore pas une seule éolienne offshore opérationnelle.

Difficile donc, avec un tel bilan, de faire une forte impression sur des participants à qui l'on pense demander des engagements concrets éventuellement contraignants sur des projets que nous-mêmes ne sommes pas capables de soutenir.

Le fer de lance de notre transition énergétique reste alors pour le moment l’engagement de réduire à 50% la part de l'électronucléaire dans notre production nationale d'électricité ( in « Loi sur la transition énergétique et pour la croissance verte » signée le 18 Août 2015).

Mais dans le même temps ce même Gouvernement décide de maintenir la puissance électronucléaire à sa valeur actuelle de 63,2 GW.

Je ne voudrais pas être à la place du porte-parole chargé de démontrer à l’assemblée de la COP21 que ces deux propositions, à l’évidence parfaitement contradictoires, sont en fait cohérentes et témoignent de la volonté de la France d’aller vers les énergies renouvelables décarbonées.

Certes, du strict point de vue du réchauffement climatique, donc des émissions de CO2, l’électronucléaire se présente comme monsieur propre. Quant à son caractère renouvelable, il est soutenu par les tenants de la surgénération. Reste à considérer les points de vue de la sécurité et de la protection de l’environnement et de la biodiversité, domaines qu’il sera très difficile de glisser sous le tapis. Le stockage long terme des déchets HALV et les risques de dissémination sont des pierres d’achoppement qui seront difficiles à contourner.

Le programme électronucléaire de la France, que l’on peut résumer par la formule lapidaire « Business as usual », ne soulèvera peut-être pas l’enthousiasme espéré.

Nous avons hâte de connaître la méthode qui sera employée par nos représentants pour convaincre l’assemblée de la pureté de nos mœurs énergétiques…

Repost 0
11 août 2015 2 11 /08 /août /2015 19:06

11 Août 2015

La prochaine COP 21 revêt l'aspect d'un coup de pied dans la fourmilière de la transition énergétique.

Sous peine de perdre la face, chaque Etat participant se voit contraint de se présenter propre sur lui et habillé de neuf, du moins énergétiquement parlant.

En tant que pays invitant, la France n'échappe pas à ce nécessaire aggiornamento et se doit même de montrer l'exemple.

L'essentiel de notre argumentation en matière de preuve de notre approche vertueuse du problème du CO2, puisque c'est de lui qu'il s'agit, c'est notre puissance électronucléaire, exempte d'émissions de ce dioxyde qui nous pourrit la vie.

Ce choix, qui remonte aux années cinquante, ne doit évidemment rien à une quelconque prescience du futur réchauffement climatique, mais plutôt à la recherche d'une indépendance énergétique voulue par un certain général, préoccupation louable en soi.

Tout a été dit sur les nuisances du nucléaire, qu'il soit civil ou militaire, les nuisances en question concernant les mêmes destinataires dans les deux cas.

Parmi celles-ci la gestion des déchets radioactifs n'a jamais reçu de solution satisfaisante, nous pourrions même dire pas de solution du tout.

Or, parmi les objectifs de la COP21, la protection de l'environnement et de la biodiversité sont des critères de base.

Autrement dit, en matière de lutte contre le réchauffement climatique, le remède ne doit pas tuer le malade.

C'est pourquoi cette histoire de déchets nucléaires, mise en veilleuse en période favorable, refait surface aujourd'hui à la veille de la COP21, car il serait malséant de ne pas arriver les cuisses propres devant des nations auxquelles on prétendrait donner des leçons d'hygiène énergétique.

Le problème concerne l'ensemble des déchets radioactifs, mais plus particulièrement les déchets de très haute activité à vie longue (HALV).

Par vie longue il faut comprendre non pas quelques dizaines d'années, non pas quelque siècles, non pas quelques milliers d'années, mais bien des centaines de milliers d'années.

L'Homme est arrivé très tardivement sur cette planète. Il l'a colonisée à son profit et compte bien y rester, c'est du moins le souhait de la plupart d'entre nous.

Pour assurer cette suprématie et pour alimenter sa soif de progrès technologique, l'Homme n'a pas hésité à piller les ressources de la planète et à mettre en danger de disparition certaines autres espèces.

Aujourd'hui, avec le nucléaire, c'est de la disparition de l'Homme lui-même qu'il s'agit. Les effets des radiations sur le long terme, nous parlons de milliers d'années, sont désormais connus comme susceptibles de changer la nature même des espèces vivantes, dans un sens qui nous échappe complètement.

Les "travaux pratiques" réalisés, volontairement ou non, à Hiroshima, Nagasaki, Tchernobyl et Fukushima, offrent suffisamment de preuves de la nocivité des rayonnements émis et des désordres organiques engendrés.

Nous ne pouvons plus prétendre ignorer ce danger que nous risquons de faire courir aux générations futures.

Nous ne pouvons pas davantage prétendre ignorer que la dissémination des déchets radioactifs transformera ce risque en certitude à plus ou moins long terme.

C'est pourquoi le cadavre doit être sorti de son placard et la gestion de ces déchets doit devenir un problème central dans une stratégie de préservation du climat, de l'environnement, et de la biodiversité.

L'enfouissement définitif est inacceptable à une époque où l'on exige des emballages biodégradables pour nos aliments. Quel retour en arrière !

L'enfouissement soi-disant réversible n'est pas davantage acceptable.

La sécurité d'un site ne peut être assurée que par une présence permanente assistée de moyens d'intervention.

On imagine l'usage qui pourrait être fait de produits hautement radioactifs qui seraient "récupérables" par des groupes terroristes ou des Etats voyous, à l'occasion de conflits régionaux comme nous en connaissons et en avons connu et en connaîtrons encore tout au long de notre Histoire.

Qui peut dire quelle sera la situation géopolitique de telle région de la Planète en l'an 4015 ? Ou 8 600 ?

Il y a aujourd'hui près de 400 réacteurs nucléaires dans le monde, dont 330 en fonctionnement, les autres arrêtés (provisoirement) ou en attente de démantèlement.

18 Pays sont ainsi "nucléarisés" à des degrés divers, et certains comptent bien ne pas en rester là, surtout si le nucléaire reçoit un accueil favorable de la COP 21.

Qui peut prétendre alors garantir la transmission des informations et les conditions de sécurité sur des dizaines de milliers d'années, connaissant l'instabilité intrinsèque de nos sociétés et de nos systèmes politiques ?

Oublions donc l'enfouissement ( l'enterrement) géologique, qui n'est que le transfert du problème sur les générations futures, sans aucune visibilité sur le maintien des conditions de sureté.

Oublions aussi bien entendu l'immersion dans des fosses océaniques, projet encore plus inconscient s'il en est.

Une éventuelle décision planétaire d'arrêt du nucléaire ne mettrait pas un terme au problème de la gestion des déchets produits par les 400 réacteurs existants, au contraire, elle l'accentuera puisque ces réacteurs devront alors être démantelés à court terme.

Mais alors, que faire ?

Heureusement il existe une autre voie, qui est la transmutation des déchets HAVL en produits à durée de vie courte plus facilement gérables.

Mais cette voie, qui fait l'objet d'importants travaux depuis plusieurs années, présente l'inconvénient de faire appel à une technologie de réacteurs "incinérateurs" de quatrième génération à neutrons rapides, ceux-là même qui sont violemment combattus par les anti-nucléaires.

Encourager cette voie revient à soutenir le programme de développement des réacteurs de quatrième génération, et donc la politique nucléaire en général.

Dans la vie il faut parfois manger son chapeau…

Repost 0

Présentation

  • : Le blog de doc zaius
  • : Suivi des problèmes environnementaux du moment. Analyses techniques . Comptes rendus avancements projets.
  • Contact

Recherche

Liens