Overblog Suivre ce blog
Administration Créer mon blog
2 août 2015 7 02 /08 /août /2015 19:39

2 Août 2015

La vie d'une INB ( Installation Nucléaire de Base) n'est pas un long fleuve tranquille. La gestation d'une nouvelle série en particulier est semée d'embûches et beaucoup de plâtres sont à essuyer.

Si l'on tolère à la rigueur les défauts de jeunesse d'un nouveau modèle d'automobile, défauts se traduisant par un rappel en concession sans conséquence dramatique, il n'en est pas de même pour une installation nucléaire.

Le public n'accepte pas l'idée d'une centrale nucléaire dont certains composants présenteraient des défauts de fiabilité connus. L'ampleur des conséquences d'un accident lié à un mauvais fonctionnement et/ou à une erreur d'exploitation est telle qu'on ne saurait tolérer le moindre doute sur la qualité du matériel et des hommes chargés de la conception et de la conduite des installations.

Pour le public un composant est bon ou mauvais.

Hélas l'industrie ne peut se satisfaire de ce manichéisme simpliste car le monde réel n'est jamais blanc ou noir. Il n'existe pas de composant, ou de machine, qui ne tomberait jamais en panne. L'ingénieur doit s'efforcer d'atteindre la meilleure qualité possible afin d'obtenir une probabilité de panne la plus faible possible, sachant qu'elle ne sera jamais nulle.

Un composant, ou un système, est alors caractérisé par son aptitude à remplir sa fonction, avec tel degré de confiance, dans tel environnement et pendant telle durée.

Cela s'appelle la fiabilité prévisionnelle.

Et la fiabilité doit se mesurer et s'exprimer avec des chiffres.

Elle s'exprime par l'indication d'un taux prévisionnel maximum de défaillance par unité de temps.

La conception d'un composant ou d'un système s'effectue en fonction d'un cahier des charges qui inclut la ou les fonctions à remplir, mais aussi l'environnement, les contraintes, les tolérances, la durée de vie souhaitée, etc…Et souvent le prix.

Le design intègre alors toute l'expérience accumulée par le constructeur dans le domaine d'application du composant, et son savoir faire en matière de connaissance des matériaux et de maîtrise des innovations technologiques.

Malgré cela il n'est jamais possible de garantir l'absence totale de risque de dysfonctionnement au cours de la vie d'un composant en particulier.

( Le fournisseur qui prendrait un tel engagement ne serait simplement pas pris au sérieux).

L'industriel utilisateur a donc besoin de connaître le nombre d'heures de fonctionnement au-delà duquel la probabilité de dysfonctionnement dépasse un seuil d'acceptabilité.

La fiabilité se mesure sur une collection de composants identiques, elle est une approche statistique de la qualité qui s'exprime alors en probabilité de dysfonctionnement par unité de temps.

Cette connaissance n'est possible que grâce à l'accumulation de données d'expérience sur une fabrication bien maîtrisée.

Le REX ( Retour d'Expérience) est constitué des données relevées in situ sur une longue série de pièces et permettant d'établir une statistique des incidents ayant affecté cette série en cours d'exploitation.

Dans cet esprit, les soupapes de sécurité des réacteurs nucléaires ( entre autres composants) sont l'objet d'un suivi permanent sur plusieurs décennies et sur l'ensemble du parc. Ce suivi permet d'alimenter le REX afin d'une part de disposer d'éléments chiffrés sur la fiabilité in situ, et d'autre part d'améliorer les designs et donc la qualité globale.

Faute de disposer des données du parc nucléaire français (toujours la culture du secret), nous nous sommes tournés vers les Etats Unis dont la technologie électronucléaire est voisine de la notre.

La NRC ( Nuclear Regulatory Commission) est chargée d'établir et de suivre le SPAR ( Standardized Plant Analysis Risk ) applicable à chacune des 104 installations nucléaires du territoire.

Les données sont fournies par l'EPIX ( Equipement Performance and Information eXchange ) et par les LER ( Licensees Events Reports).

Le rapport NUREG/ CR - 7037 étudie le comportement des soupapes de sureté dans les centrales nucléaires, sur une période qui s'étend de 1987 à 2007 ( Rapport publié en 2010).

Tout les dysfonctionnements y sont analysés avec leurs causes et la façon dont les automatismes et/ou l'opérateur ont réagi pour éviter des conséquences fâcheuses. Car il y a bien entendu des moyens et des procédures prévus pour pallier ce genre d'incidents.

Les dysfonctionnements d'une soupape de sureté relevés en opération sont divers:

- Dérive du point de déclenchement.

- Variation de l'hystérésis ( Ecart entre seuil d'ouverture et seuil de fermeture).

- Point d'ouverture hors spécifications .

- Point de fermeture hors spécifications .

- Retard à l'ouverture ou à la fermeture.

- Fuites.

- Corps étranger.

- Etc…

Les résultats permettent de chiffrer statistiquement le niveau de fiabilité de la fonction et donc d'une part d'améliorer la qualité du matériel et d'autre part d'adapter les processus de contrôle en opération.

Le rapport cité porte sur les 104 réacteurs du parc et concerne environ 1800 soupapes utilisées dans la fonction de sureté.

( Chaque réacteur contient de nombreuses soupapes).

Sur la période 1988 à 2006 il a été relevé 402 cas de dysfonctionnement d'une soupape, soit 0,5 par année réacteur.

Dans l'histoire du parc US un seul dysfonctionnement a eu des suites accidentelles, à la centrale de Tree miles Island. Les conséquences de la fusion partielle du cœur ont été limitées à l'enceinte de confinement, du moins officiellement.

Le rapport NUREG montre que les dysfonctionnements de soupapes de sureté ne sont pas exceptionnels, et qu'ils n'entraînent pas nécessairement une catastrophe nucléaire. Leur possibilité est prise en compte dans l'établissement des procédures d'intervention des opérateurs, et des dispositifs redondants pallient les conséquences de ces troubles.

Ces considérations permettent de nuancer le battage médiatique autour du problème relevé sur les soupapes de l'EPR de Flamanville.

Si toutefois il se révélait un problème de design, il vaut mieux l'avoir découvert avant la mise en service de l'installation.

Il n'en demeure pas moins que cette accumulation de problèmes sur un seul réacteur justifie l'inquiétude du public, en général peu enclin à juger de la qualité d'un produit sur des statistiques de production mais plutôt sur l'exemplaire qu'il vient d'acquérir.

Surtout quand l'exemplaire en question lui a déjà coûté huit milliards…

Repost 0
31 juillet 2015 5 31 /07 /juillet /2015 19:04

31 Juillet 2015

Nos trente millions d'automobiles rejettent en pure perte chaque année dans l'atmosphère l'équivalent de 230 TWh sous forme de chaleur.

C'est l'équivalent de la production de 30 réacteurs nucléaires.

Pour ceux que l'énormité du chiffre pourraient faire douter, rappelons que la combustion d'un litre de carburant libère 10 kWh d'énergie, que nous consommons chaque année dans nos autos 29 Milliards de litres* et que le rendement moyen de nos moteurs ne dépasse que péniblement 20%.

* 30 millions de voitures consommant en moyenne 7,5 L/100 pour une distance annuelle moyenne de 12 500 km, sources ADEME et CCFA.

Cette chaleur intégralement perdue, outre qu'elle contribue significativement et directement au réchauffement climatique* ( en plus du CO2 qui agit sur l'effet de serre ), est un gaspillage désormais intolérable en ces temps de disette énergétique et de catastrophe climatique annoncées.

* La chaleur perdue lors de la combustion des carburants fossiles représente à l'échelle mondiale un flux énergétique régulier qui contribue d'une manière non négligeable au réchauffement de l'Atmosphère en s'ajoutant au flux énergétique interne "naturel" du globe et donc en modifiant son bilan énergétique.

230 TWh, cela fait environ 8 MWh par foyer, et davantage pour ceux qui possèdent plusieurs voitures.

8 MWh, c'est largement suffisant pour alimenter en énergie un logement "normal", chauffage et eau chaude compris.

Il est donc légitime de s'interroger sur l'opportunité de mettre fin à cette gabegie.

Dans un moteur thermique, environ 66% de l'énergie de combustion est dissipée sous forme de chaleur .

45% sont évacués par l'échappement, 20% par le radiateur et le bloc moteur.

De nombreuses tentatives de récupération de cette chaleur perdue sont décrites dans la littérature.

On y trouve le moteur Stirling, mais aussi le "TurboSteamer" de BMW et de Robert Bosch, et plus récemment le dispositif à effet Seebeck de la firme Gentherm développé avec l'équipementier Tenneco et les constructeurs BMW et Ford. Des premières applications sont prévues pour avant 2020.

Tout bouleversement technologique comporte un coût. En matière de motorisation automobile, rien de significatif ne pourra être réalisé tant que les carburants fossiles resteront disponibles en quantités illimitées et pour un coût encore gérable.

Par "coût" nous entendons le prix du produit lui-même auquel viennent s'ajouter des taxes diverses dont le montant est modulé par le Gouvernement selon sa politique énergétique. En France ces taxes sont regroupées sous l'appellation CSPE ( ex TIPP), qui s'ajoute à la TVA.

A ces taxes "génériques" peuvent venir s'ajouter des taxes spéciales, par exemple sur les émissions de CO2 ou d'autres à inventer, notamment sur la pollution ( le CO2 n'étant pas lui-même un gaz polluant).

En période de stabilité des prix du pétrole, ce qui est le cas aujourd'hui, le Gouvernement peut augmenter les taxes sur les produits pétroliers pour leur faire supporter une partie de la charge du développement des énergies renouvelables. Ce qui doit être fait prochainement si nos informations sont exactes.

Par ailleurs, grâce aux normes Européennes, les performances des moteurs thermiques sont améliorées, conduisant en théorie à une baisse des consommations et donc également des pertes thermiques associées, à puissance mécanique égale. Malheureusement les tests de qualification des nouveaux modèles de voitures sont peu représentatifs des résultats obtenus sur le terrain, et les consommations réelles ne reflètent pas les progrès que l'on pourrait espérer à la lecture des résultats officiels.

Nous avons déjà évoqué ce problème dans un précédent article. Il pourrait être en partie résolu avec la mise en application de la nouvelle norme de mesure des consommations homologuées, à condition que les constructeurs ne trouvent pas un nouveau moyen de biaiser les résultats…

De plus, la taxation des émissions de CO2 tente de dissuader les achats de véhicules trop gourmands et d’accélérer le renouvellement du parc vers des modèles plus vertueux, le tout sans grand succès hélas.

Beaucoup d'espoirs ont été placés dans la voiture électrique, qui résout élégamment le problème des pertes thermiques, du moins sur le papier.

En effet encore faut-il que l'électricité utilisée soit produite, transportée, stockée, puis mise en œuvre par des procédés dont le rendement de chaîne soit supérieur à celui du moteur thermique, ce qui n'est pas évident à priori. Et il va de soi que la production de cette électricité doit être renouvelable.

De plus le passage massif à la motorisation électrique se heurte aux problèmes d'autonomie des batteries et d'absence de réseau de rechargement. Problèmes qui ne semblent pas pouvoir être résolus avant une ou deux décennies, s'ils le sont un jour...

Le moteur thermique a donc encore de "beaux" jours devant lui, soit comme motorisation unique, soit dans une motorisation hybride.

La récupération d'une partie au moins de la chaleur perdue n'est donc pas un objectif utopique.

On parle alors de "cogénération".

La cogénération est déjà mise en œuvre dans certaines centrales électriques, et même quelques chaudières domestiques.

Son extension aux automobiles se heurte au problèmes de coût et d'encombrement.

Une des applications les plus simples consiste à d'utiliser les gaz d'échappement comme source de chaleur pour obtenir de la vapeur sous pression susceptible d'actionner une turbine couplée à un générateur électrique. Schéma que l'on retrouve dans toutes les centrales électriques y compris nucléaires.

Un tel système ne peut être efficace que dans une voiture hybride, seule à même d'utiliser l'électricité ainsi produite. On arrive alors à une architecture complexe et coûteuse qui ne peut être justifiée que dans un contexte de coût de carburant élevé, qu'il soit d'origine fossile ou renouvelable ( Biocarburant).

Quoi qu'il en soit, ces architectures complexes seront imposées par les normes européennes qui exigent toujours plus de sobriété énergétique pour moins d'émissions de CO2.

La voiture tout électrique ( plus simple et moins coûteuse ?) ne remplacera l'hybride qu'à deux conditions: obtenir une meilleure autonomie et disposer d'un réseau de bornes de rechargement rapide. Conditions que la technologie ne permet pas de remplir aujourd'hui.

La voiture à Hydrogène et pile à combustible semble satisfaire plus facilement ces deux conditions, du moins sur le papier…

Nous devrons probablement vivre encore longtemps avec le moteur thermique, même après la fin du pétrole, qui sera facilement remplacé par des biocarburants.

La récupération de la chaleur gaspillée par nos voitures sera donc le prochain challenge de l'industrie automobile.

Repost 0
28 juillet 2015 2 28 /07 /juillet /2015 18:58

28 Juillet 2015

La France accueillera la COP 21 en Décembre. Cette échéance est importante car il s'agit cette fois non plus de parlotes mais bien de décisions sur lesquelles les 196 Etats participants devront s'engager.

C'est du moins l'esprit de ce meeting.

L'objectif est d'obtenir un accord juridiquement contraignant pour tenter de maintenir le réchauffement climatique en dessous de 2 °C.

25 000 délégués officiels seront réunis à Paris dans ce but.

Bien sûr les sceptiques ne manqueront pas de rappeler que moult réunions du même genre se sont déjà tenues dans un passé récent ( 20 depuis 1995, sans compter les conférences périphériques) dont il n'est jamais rien sorti de consistant, ou si peu...

Par le nombre extravagant des participants ( On parle de 40 000, plus 3000 journalistes) cette 21è conférence s'apparente plus à un jamboree qu'à un groupe de travail.

Le peu de résultats acquis précédemment ne doit cependant pas inciter à jeter le bébé avec l'eau du bain. Peut-être suffit-il de changer l'eau ou d'y ajouter quelque ingrédient régénérateur, il semble que telle est la démarche entreprise.

Chaque Etat participant est donc prié d'arriver avec des propositions d'engagements concrètes et si possible des preuves de réalisations déjà obtenues ou d'actions entreprises.

En tant que puissance invitante, la France se doit de donner l'exemple et de présenter un dossier solide et crédible. Nos représentants, et le chef de l'Etat en particulier, en sont pleinement conscients, du moins on l'espère.

L'époque est donc révolue des programmes mirifiques dont la réalisation est reportée aux calendes grecques. L'horizon 2030, voire même 2050, ne fait plus rêver personne, il faut maintenant présenter des décisions arrêtées, des programmes en cours, des financements clairement identifiés, des modèles économiques solidement construits.

Logiquement le sujet central sera la transition énergétique, puisque le réchauffement du climat est attribué pour l'essentiel à la consommation frénétique des énergies fossiles.

Or en ce domaine la France présente un tableau peu glorieux qu'il sera difficile de valoriser et de présenter comme un exemple à suivre.

Notre Président devra faire appel à toutes ses ressources diplomatiques, qui sont certes grandes, pour réussir à vendre la peau d'un ours dont jusqu'à présent personne n'a encore vu une oreille.

A des projets papier nous promettant pour 2050 un monde décarboné, dépollué, désintoxiqué du pétrole, il serait facile d'opposer des constats d'actualité prouvant le peu de crédibilité dans la volonté réelle de faire changer les choses.

Comment justifier des situations comme celles-ci :

- Disposer du plus vaste littoral maritime, sans une seule éolienne offshore, alors que notre voisin allemand, peu gâté en matière de littoral, en possède déjà des centaines.

- Annoncer une baisse de la part de l'électronucléaire à 50% de la production électrique, sans pouvoir annoncer l'objectif de cette production.

- Se poser en champion des énergies renouvelables et dans le même temps développer une filière électronucléaire nouvelle.

- Annoncer un programme de rénovation thermique des bâtiments à hauteur de 500 000 logements par an sans avoir identifié le modèle économique de financement.

- Combattre le diesel au nom de la lutte contre le CO2 alors que les véhicules diesel n'émettent pas plus de CO2 que les véhicules à essence, voire moins ( 10% de moins en général ).

- Prôner l'usage du véhicule électrique et n'offrir encore que 600 prises de recharge rapide pour un parc de 30 millions de voitures.

- Promouvoir des transports propres et dans le même temps annoncer le remplacement de certaines liaisons ferroviaires par des autocars, diesel bien entendu.

- Promettre des "ZAPA" sans se donner les moyens de les mettre en service.

- Etc…

Il faudra l'adresse d'un prestidigitateur pour transformer ces vessies en lanternes et obtenir les applaudissements du public.

A l'échelon planétaire la lutte contre le réchauffement est un challenge de très haut niveau.

Si l'on accepte la relation de cause à effet entre la consommation d'énergies fossiles et le réchauffement, la solution évidente réside dans une décroissance de cette consommation, avec un objectif de réduction drastique impliquant même le renoncement à court terme aux réserves existantes.

Hors de ce douloureux choix il n'y a point de salut.

Il semble que notre ministre ait eu la même idée puisqu'il court des rumeurs de surtaxation prochaine des carburants routiers. Il serait effectivement de la première logique de faire supporter le financement des énergies nouvelles par les énergies fossiles que l'on prétend combattre, et non pas par l'électricité qui est le carburant de l'avenir. La CSPE n'est-elle pas faite pour cela ?

Le renoncement aux énergies fossiles doit intervenir alors que, par ailleurs, les besoins énergétiques des pays émergents sont croissants.

Si les pays développés peuvent, à la rigueur, supporter le coût d'une transition énergétique, fut-ce au prix de quelques "sacrifices" consentis grâce à la perspective de beaux retours sur investissements, les autres pays, qui peinent déjà à garder la tête hors de l'eau, ne pourront accéder au monde décarboné qu'avec des aides financières plus que substantielles.

Ils ont d'ailleurs déjà annoncé la couleur…

Le principal challenge de la COP21 sera d'obtenir et de gérer ce financement, qui s'annonce colossal.

Le second volet de la COP21 est l'engagement des Etats sur un programme de mitigation des effets du réchauffement.

Ces effets, déjà largement identifiés et médiatisés pour l'édification des foules, sont annoncés par le GIEC comme ceux d'une catastrophe cosmique dont l'ampleur sera à la mesure de l'importance du réchauffement. Deux degrés seront paraît-il gérables, cinq degrés et nous n'y réchapperont pas, du moins en tant que civilisation.

Le laisser-aller n'est donc plus de mise.

Sur le front de la lutte contre les énergies fossiles la situation actuelle est peu encourageante:

Selon les prévisions de l'EIA International Energy Outlook 2013, la consommation mondiale du trio pétrole-charbon-Gaz naturel aura augmenté de 30% en 2030 par rapport à 2010, et ceci malgré une augmentation concomitante de 66% des énergies renouvelables et de 100% de l'électronucléaire.

On mesure à ces chiffres l'ampleur de la tâche qui attend les "régulateurs" de la COP21 face à cet appétit vorace de peuples qui veulent désormais obtenir des standards de vie décents comparables à ceux des pays de l'OCDE, et qui les en blâmerait ?

Les pays de l'OCDE ne représentent aujourd'hui que 18% de la population mondiale, et 13% en 2050 lorsque nous serons 9 Milliards sur la planète.

Il ne suffira pas que ces 13% là adoptent un comportement énergétique vertueux, la face du climat n'en serait pas significativement changée. Ce sont bien les autres 87% qui devront être tenus à bout de bras pour les dissuader de suivre le même chemin qui nous a conduit à cette impasse.

Tel est le défi qui attend les participants à la COP 21.

Repost 0
22 juin 2015 1 22 /06 /juin /2015 17:23

22 Juin 2015

L’ire des antinucléaires se focalise sur l’EPR de Flamanville qui, il faut bien le reconnaître, y met beaucoup du sien.

Il y a peu c’était la cuve elle-même et son couvercle qui faisaient la une des gazettes.

Louons au passage cette transparence nouvelle qui permet au grand public d’être informé quasiment en temps réel des aléas du chantier, il n’en fut pas toujours ainsi dans le passé. Faut-il en remercier Internet ou bien faut-il saluer une réelle volonté de communication sur la chose nucléaire?

Probablement un peu les deux.

Aujourd’hui les annonces alarmistes concernent certaine soupape de sureté du pressuriseur qui manifesterait une volonté d’indépendance de très mauvais aloi dans un milieu où tout doit être sous contrôle et se comporter selon un cahier des charges rigoureux.

Lancer une alerte, c’est bien. Mais condamner avant d’avoir instruit le dossier, c’est de la justice expéditive.

Il paraît qu’il y aurait beaucoup à dire sur les fameuses soupapes, mais assez curieusement les média n’en disent rien et se bornent à proférer une condamnation de l'ensemble de la filière nucléaire.

Il est vrai que la suppression des juges d’instruction est dans l’air du temps, du moins chez certains…

Il nous a paru nécessaire de rectifier cette négligence en tentant d’apporter quelques éclaircissements sur ces fameuse soupapes dont les soubresauts sont pain béni pour les antinucléaires, et certains autres qui ne sont pas mécontents d’avoir du grain à moudre pour régler quelques comptes entre gentlemen ( et gentlewoman) de l’énergie en général et du nucléaire en particulier. De quoi également fournir quelque arguments supplémentaires au dossier de passation de pouvoir de AREVA à EDF, s’il en était besoin.

Il faut dire que ces soupapes, ou leurs sœurs, sont à l'origine de l'accident de three mile Island qui a marqué les esprits et a été à l'origine d'une prise de conscience du milieu du nucléaire civil qui, jusque là, baignait dans la tranquille certitude de maîtriser tous les risques possibles.

Tchernobyl et Fukushima ont achevé le travail de prise de conscience entamé par Three Mile Island (TMI) ; aujourd'hui la communication autour de la sécurité nucléaire se fait sur un mode plus modeste, chat échaudé craint l'eau froide.

Certains accidents, autrefois considérés impossibles, sont maintenant pris en compte dans la conception des installations électronucléaires.

Par son statut exemplaire, l'affaire de TMI vaut d'être contée.

A la suite d'un banal incident de conduite d'un réacteur, une soupape de dépressurisation fut ouverte, opération conforme à la procédure et qui permet de gérer une surpression passagère en évacuant un peu de fluide primaire dans un réservoir ad-hoc, le tout à l'intérieur de l'enceinte de confinement. A la suite de quoi la soupape reçoit un ordre de fermeture auquel elle est censée obéir.

En l'occurrence, le voyant de confirmation de l'ordre de fermeture s'est bien allumé, mais la soupape est restée ouverte, entraînant la vidange du circuit primaire ! Le responsable de la conduite du réacteur, persuadé que la soupape était bien refermée, a été induit en erreur pour la suite des procédures, ce qui à conduit à une perte de réfrigérant primaire suivi de la fusion partielle du cœur, le pire qui puisse arriver.

Il faut dire qu'en plus le système de vérification du niveau de réfrigérant primaire dans le pressuriseur laissait à désirer, accentuant la confusion du contrôleur impuissant à éviter la catastrophe.

Cet accident, le premier du genre, a eu l'effet d'un électrochoc. Des dizaines de milliers de personnes ont été évacuées, heureusement pour rien puisque les dégâts sont restés à l'intérieur de l'enceinte de confinement.

On a du déplorer tout de même quelques dizaines de fausses couches déclenchées par la panique.

Cette affaire a permis de prendre conscience du rôle clé de ces fameuses soupapes dans la chaîne de sureté du fonctionnement d'un réacteur.

La façon de penser la sécurité a été remise en question et les procédures actuelles et l'architecture des composants sont censés garantir un niveau de sureté accru.

Par exemple il n'est plus acceptable de se contenter de vérifier qu'un ordre a bien été transmis, mais on exige de recevoir un signal confirmant que l'ordre a bien été physiquement exécuté ( Ces deux conditions n'étaient pas remplies à Three Mile Island).

Il ne suffit pas de savoir que l'ordre de fermer une soupape a bien été envoyé, il faut pouvoir constater que la soupape s'est effectivement mécaniquement fermée.

Il est assez curieux que cette règle, bien connue et appliquée depuis des lustres dans l'industrie, n'ait pas été intégrée par principe au sein de certains matériels nucléaires.

N’ayant pas la science infuse, nous puiseront les éléments du dossier à la source, c’est-à-dire dans le rapport de réunion du 13 Février 2015 à laquelle participait ASN/DEP - ASN/DCN -IRSN sur le sujet des soupapes de sureté du pressuriseur équipant le réacteur EPR-FA3, celui de Flamanville précisément.

Rapport accessible ici:

http://sciences.blogs.liberation.fr/files/soupapes-pr%C3%A9sentation-irsn.pdf

Voir également:

http://www.edf.com/html/epr/rps/chap05/chap05.pdf

Sans entrer dans des détails qui nous entraîneraient trop loin, il est bon de décrire brièvement les circonstances de l’affaire:

La chaleur dégagée par la réaction nucléaire dans la chaudière du réacteur (La cuve) est évacuée par un fluide caloporteur qui est de l’eau en phase liquide. Cette eau est à une pression de # 150 kg et une température de # 300 °C pour un débit équivalent à celui d’un petit cours d’eau, débit entretenu par d’énormes pompes.

Cette chaleur est transmise aux générateurs de vapeur grâce à des échangeurs, puis ladite vapeur actionne une turbine couplée à un alternateur qui fournit de l’électricité.

L’énergie transmise par le fluide caloporteur est proportionnelle au produit du débit par la température du fluide ( pour faire simple). Pour cela il faut conjuguer un débit très élevé, équivalent à celui d’un petit fleuve, et une température élevée, ici # 300 °C.

La pression doit être maintenue au-dessus de la valeur de transition de phase car il est essentiel que l’eau reste en phase liquide en toutes circonstances, sinon l’apparition de bulles nuirait au refroidissement du combustible et conduirait à un accident majeur par surchauffe et fusion du cœur.

C’est le rôle d’un organe appelé pressuriseur, que l’on pourrait assimiler vaguement au vase d’expansion d’une automobile, mais en beaucoup plus sophistiqué comme on peut s’en douter.

Ce « vase d’expansion » est un énorme réservoir de 75 m3 en acier, pour une longueur de 14m, un diamètre de 2,80 m, et un poids de 225 tonnes en charge.

Il joue un rôle majeur dans le bon fonctionnement de l’ensemble. Il remplit plusieurs fonctions:

- Il assure la protection du circuit primaire contre les surpressions grâce à des soupapes de sureté.

- Il absorbe les variation de volume liées aux variations de température du fluide.

- Il assure le maintien du fluide en phase liquide grâce au contrôle de l’équilibre entre phase liquide et phase gazeuse réalisé à l’intérieur du pressuriseur. Pour cela le liquide peut être chauffé par des résistances, comme un cumulus, et la phase gazeuse peut recevoir des pulvérisations d’eau « froide » pour l’effet contraire.

Sur les réacteurs REP du parc existant (58 réacteurs) La sécurité du système comporte trois lignes de protection contre les surpressions et une ligne pour les vannes de dépressurisation en cas d’accident grave, chaque dispositif étant raccordé au pressuriseur par une tubulure propre.

Les trois soupapes de sécurité ont une capacité de décharge de 300 Tonnes/h de vapeur saturée à 176 bar.

Elles sont tarées à des valeurs de seuils différentes, correspondant à des incidents de surpression de gravités différentes.

Les vannes de dépressurisation en cas d’accident grave ont une capacité de 900 Tonnes/h de vapeur saturée à 176 bar.

Sur le parc actuel de réacteurs REP ces soupapes sont fournies par la société WEIR Power & Industrials ( Robinetterie SEBIM) avec des résultats satisfaisants et un retour sur expérience (REX) très important.

Le réacteur EPR ( European Pressurized water Reactor) est comme son nom l'indique une collaboration européenne, essentiellement franco-allemande. Il était donc logique d'utiliser des composants européens dans la mesure du possible.

SEMPELL AG ( Société allemande) a donc été retenue pour la fourniture des soupapes de sécurité. Cette société a fourni les soupapes des réacteurs du parc allemand et possède donc la compétence et l'expérience requise.

Par contre, AREVA ayant imposé une modification du design de la soupape, le retour d'expérience acquis sur le modèle initial n'est pas utilisable. Une requalification est donc requise.

C'est pourquoi l'ASN s'est penchée avec attention sur ce composant dont dépend la sécurité du réacteur.

Le compte rendu de la réunion citée ci-dessus contient essentiellement une comparaison des deux concepts de soupape, celui de SEBIM et celui de SEMPELL.

Les différences y sont détaillées et le spécialiste pourra se faire son opinion.

Les principales observations de l'IRSN relativement au concept SEMPELL sont les suivantes:

"

- Suite à la modification technologique demandée par AREVA, le retour d'expérience (REX) allemand n'est pas applicable.

- AREVA ne possède pas d'expertise dans ce domaine.

- Le concept SEMPELL est complexe et comporte un grand nombre de joints et de liaisons vissées.

- Le système de ressort à rondelles Belleville provoque un fonctionnement saccadé.

- La fenêtre d'ouverture de la soupape SEMPELL est très large ( 33 bar) contre 6 bar pour la soupape SEBIM.

Les essais de qualification et de robustesse ont conduit aux conclusions suivante de l'IRSN:

- Risques de fuites de fluide primaire.

- Risques d'échec à l'ouverture et/ou à la refermeture ( observés au cours des essais).

- Risques d'ouverture intempestive.

- Risques d'ouverture prématurée.

- Risques d'ouverture retardée avec risque de dépassement de la pression de seuil.

- Modes de défaillance multiples.

- Il existe des états possibles du pilote qui génèrent un dysfonctionnement de la soupape principale.

Les essais de qualification sont non probants à l'heure actuelle.

"

Il apparaît donc que le concept SEMPELL modifié est pour le moins suspecté de fonctionnement peu sur, en tous cas pas assez sur pour recevoir une qualification sur l'EPR.

Les "anomalies" notées par l'IRSN révèlent des lacunes dans la conception du produit et dans les procédures de qualification usine.

Il paraît difficile, à partir d'un tel constat de l'IRSN, de trouver une argumentation justifiant de passer outre et de déclarer le produit "bon pour le service" .

A tout le moins un longue phase de mise au point technologique s'impose pour améliorer le fonctionnement du système et le qualifier.

L'autre solution pourrait être le retour au concept classique éprouvé sur le parc actuel…

Repost 0
12 juin 2015 5 12 /06 /juin /2015 11:56

12 Juin 2015

Les panneaux photovoltaïques intégrés aux toitures constituent une solution technique déplorable pour les raisons suivantes:

La production maximale d’un panneau est obtenue lorsque les rayons solaire sont perpendiculaires au plan du panneau, ce qui ne peut être réalisé qu’en orientant automatiquement le panneau en fonction de la course du Soleil ( Tracking solaire à deux axes, genre héliostat). Le toit d’un bâtiment étant évidemment fixe, la condition optimale ne sera jamais réalisée, sinon par hasard une fois par an ! Or dans nos régions tempérées la perte de production par rapport à l’optimal peut atteindre 45% voire plus.

Le photovoltaïque intégré au toit est ainsi la seule technologie dans laquelle un tel gâchis est toléré, et qui plus est financé par l’Etat qui achète l’électricité ainsi produite !

Mais ce n’est pas tout. Le matériau photovoltaïque est conçu pour absorber le maximum d’énergie solaire afin de délivrer le maximum de courant; il y a donc très peu d’énergie réfléchie. La transformation de l’énergie solaire en électricité s’effectue avec un rendement très faible, de l’ordre de 15% à 25 °C jonction pour les meilleurs panneaux. Le reste de l’énergie reçue est dissipé en chaleur dans le matériau et la température de jonction augmente considérablement si le panneau est mal refroidi, ce qui est le cas d’une installation intégrée au toit car la ventilation est très mauvaise, voire inexistante. Le rendement R du matériau photovoltaïque décroît quand la température augmente, réduisant ainsi les performances. La perte de rendement est en moyenne de 0,4 % par °C :

R = Ro x 0,996 Exp ( dT)

Un rendement de 15% à 25°C se trouve réduit à 12,5% à 70°C jonction, et 11% à 90 °C, ce qui n’est pas rare en été. Avec un panneau mal ventilé la température de jonction peut atteindre 100°C, et la limite opérationnelle de 90°C est dépassée. ( Ces conditions sont courantes en été dans le Sud de la France en absence de vent).

Par ailleurs la durée de vie des panneaux est raccourcie pour ces températures élevées, ce que prouvent les essais de vieillissement accéléré.

Enfin les panneaux sur toitures sont en permanence exposées aux intempéries, et ne disposent d’aucun dispositif de protection.

Ajoutons l’inconvénient supplémentaire d’une installation qui nécessite des modifications de charpente et de couverture avec les problèmes d’étanchéité associés, et la complexité ( et le coût) des interventions en hauteur pour l’entretien et la maintenance.

Ce système est cependant largement répandu car il a la réputation ( jamais démontrée) d’être un placement financier sûr en raison du tarif de rachat garanti par le fournisseur d’énergie. Il s’agit alors d’exploiter un effet d’aubaine financière plutôt que de faire œuvre écologique.

La manière écologique de construire une installation solaire est celle qui vise à obtenir la production maximale de la surface consacrée au captage de l’énergie, tout en préservant la durée de vie du matériau. L’énergie solaire reçue sur une surface donnée doit être entièrement convertie en électricité et/ou en chaleur « noble ».

Les installations solaires « sérieuses » mettent en œuvre des procédés qui minimisent les inconvénients cités plus haut. Le minimum est de ménager la possibilité d’une bonne ventilation naturelle ou artificielle par circulation de fluide ( panneaux hybrides). La production est grandement améliorée par l’adjonction d’un système de tracking solaire.

Aujourd’hui les installations photovoltaïques domestiques sont conçues dans un but de profit financier, l’efficacité énergétique passant au second plan. Peut importe le rendement pourvu que le bilan financier global soit positif grâce au prix de rachat avantageux.

Demain l’autosuffisance énergétique sera recherchée, il faudra justifier d’un minimum d’efficacité énergétique en affichant une production d’électricité et/ou de chaleur respectant un seuil d’équivalent kWh annuels par m2 de sol occupé. Vis-à-vis de l’énergie solaire la ressource est constituée par des m2 disponibles. Leur nombre étant limité, leur utilisation devra être optimale.

Aujourd’hui le prix de l’électricité de réseau au tarif réglementé est l’un des plus bas d’Europe. Demain cette énergie devra être vendue à son prix réel, c’est-à-dire pour l’électricité deux ou trois fois le prix actuel. Rechercher l’autosuffisance énergétique ne sera alors plus seulement un acte écologique mais une démarche de saine gestion, car le prix des installations photovoltaïques ne peut que baisser dans l’avenir. Il sera alors important de tirer le maximum de cette technologie car les mètres carrés disponibles sont limités.

Une alternative aux classiques panneaux intégrés aux toitures est proposée par une start-up Autrichienne ( Encolution) dont les produits sont distribués en exclusivité par EDF-ENR, il s’agit du concept Smart-Flower.

Le « Smart Flower » est un dispositif autonome plug and play qui comporte 12 panneaux en forme de pétales de fleur disposés autour d’un axe qui leur permet de se déplier à la façon d’un éventail. Une fois déplié l’ensemble présente une surface circulaire de 4,80 m de diamètre pour une surface active de 18 m2 environ pour une puissance de 2,7 kWc. L’axe de la « fleur » est fixé au sommet d’un pilier de 3,40 m de hauteur et peut être orienté ( motorisé) pour maintenir la surface des « pétales » perpendiculaire aux rayons solaires. En cas de nécessité les pétales se replient et se placent automatiquement dans un coffre abri.

Cette disposition supprime donc tous les inconvénients des panneaux fixes sur toitures et présente une esthétique plus acceptable. De plus l’entretien et la maintenance sont facilités par un dispositif automatique de nettoyage. La pose est simplifiée puisque la machine est livrée complète incluant l’onduleur et qu’il suffit de la fixer au sol ( Un petit socle en béton et quatre boulons) et de la raccorder à l’installation domestique. En cas de déménagement l’appareil se transporte aisément.

Pour une puissance crête comparable à celle d’une installation intégrée en toiture, la production est supérieure de 40% grâce au tracking solaire et à un meilleur refroidissement des panneaux. Il s’agit d’un exemple intéressant de ce qu’il est possible de proposer en relève ou en complément des solutions classiques intégrées aux toitures.

Une autre solution permettant d’améliorer significativement le rendement énergétique consiste à utiliser des panneaux hybrides. Ces panneaux intègrent une surface photovoltaïque refroidie par la circulation d’un fluide caloporteur qui recueille la chaleur normalement perdue dans l’Atmosphère. Cette chaleur est transférée à un ballon pour usages ECS ou chauffage. De plus la production des panneaux PV est améliorée grâce au contrôle de la température des cellules par le fluide de refroidissement. Le rendement énergétique global de cette cogénération atteint plus de 60% contre 12 à 13% pour un panneau classique bien souvent surchauffé.

Nul doute que ces solutions, et d’autres, remplaceront dans l’avenir les solutions actuelles peu efficaces énergétiquement.

Repost 0
12 juin 2015 5 12 /06 /juin /2015 11:48

12 Juin 2015

Les panneaux photovoltaïques intégrés aux toitures constituent une solution technique déplorable pour les raisons suivantes:

La production maximale d’un panneau est obtenue lorsque les rayons solaires sont perpendiculaires au plan du panneau, ce qui ne peut être réalisé qu’en orientant automatiquement le panneau en fonction de la course du Soleil ( Tracking solaire à deux axes, genre héliostat). Le toit d’un bâtiment étant évidemment fixe, la condition optimale ne sera jamais réalisée, sinon par hasard une fois par an ! Or dans nos régions tempérées la perte de production par rapport à l’optimal peut atteindre 45% voire plus.

Le photovoltaïque intégré au toit est ainsi la seule technologie dans laquelle un tel gâchis est toléré, et qui plus est financé par l’Etat qui achète l’électricité ainsi produite !

Mais ce n’est pas tout. Le matériau photovoltaïque est conçu pour absorber le maximum d’énergie solaire afin de délivrer le maximum de courant; il y a donc très peu d’énergie réfléchie. La transformation de l’énergie solaire en électricité s’effectue avec un rendement très faible, de l’ordre de 15% à 25 °C jonction pour les meilleurs panneaux. Le reste de l’énergie reçue est dissipée en chaleur dans le matériau et la température de jonction augmente considérablement si le panneau est mal refroidi, ce qui est le cas d’une installation intégrée au toit car la ventilation est très mauvaise, voire inexistante.

Le rendement R du matériau photovoltaïque décroît quand la température augmente, réduisant ainsi les performances. La perte de rendement est en moyenne de 0,4 % par °C :

R = Ro x 0,996 Exp ( dT)

Un rendement de 15% à 25°C se trouve réduit à 12,5% à 70°C jonction, et 11% à 90 °C, ce qui n’est pas rare en été.

Avec un panneau mal ventilé la température de jonction peut atteindre 100°C, et la limite opérationnelle de 90°C est dépassée. ( Ces conditions sont courantes en été dans le Sud de la France en absence de vent). Par ailleurs la durée de vie des panneaux est raccourcie pour ces températures élevées, ce que prouvent les essais de vieillissement accéléré.

Enfin les panneaux sur toitures sont en permanence exposées aux intempéries, et ne disposent d’aucun dispositif de protection.

Ajoutons l’inconvénient supplémentaire d’une installation qui nécessite des modifications de charpente et de couverture avec les problèmes d’étanchéité associés, et la complexité ( et le coût) des interventions en hauteur pour l’entretien et la maintenance.

Ce système est cependant largement répandu car il a la réputation ( jamais démontrée) d’être un placement financier sûr en raison du tarif de rachat garanti par le fournisseur d’énergie. Il s’agit alors d’exploiter un effet d’aubaine financière plutôt que de faire œuvre écologique.

La manière écologique de construire une installation solaire est celle qui vise à obtenir la production maximale de la surface consacrée au captage de l’énergie, tout en préservant la durée de vie du matériau. L’énergie solaire reçue sur une surface donnée doit être entièrement convertie en électricité et/ou en chaleur « noble ».

Les installations solaires « sérieuses » mettent en œuvre des procédés qui minimisent les inconvénients cités plus haut. Le minimum est de ménager la possibilité d’une bonne ventilation naturelle ou artificielle par circulation de fluide ( panneaux hybrides). La production est grandement améliorée par l’adjonction d’un système de tracking solaire.

Aujourd’hui les installations photovoltaïques domestiques sont conçues dans un but de profit financier, l’efficacité énergétique passant au second plan. Peut importe le rendement pourvu que le bilan financier global soit positif grâce au prix de rachat avantageux.

Demain l’autosuffisance énergétique sera recherchée, il faudra justifier d’un minimum d’efficacité énergétique en affichant une production d’électricité et/ou de chaleur respectant un seuil d’équivalent kWh annuels par m2 de sol occupé. Vis-à-vis de l’énergie solaire la ressource est constituée par des m2 disponibles. Leur nombre étant limité, leur utilisation devra être optimale.

Aujourd’hui le prix de l’électricité de réseau au tarif réglementé est l’un des plus bas d’Europe. Demain cette énergie devra être vendue à son prix réel, c’est-à-dire pour l’électricité deux ou trois fois le prix actuel. Rechercher l’autosuffisance énergétique ne sera alors plus seulement un acte écologique mais une démarche de saine gestion, car le prix des installations photovoltaïques ne peut que baisser dans l’avenir. Il sera alors important de tirer le maximum de cette technologie car les mètres carrés disponibles sont limités.

Une alternative aux classiques panneaux intégrés aux toitures est proposée par une société Autrichienne ( Encolution) dont les produits sont distribués en exclusivité par EDF-ENR, il s’agit du concept Smart-Flower.

Le « Smart Flower » est un dispositif autonome plug and play qui comporte 12 panneaux en forme de pétales de fleur disposés autour d’un axe qui leur permet de se déplier à la façon d’un éventail. Une fois déplié l’ensemble présente une surface circulaire de 4,80 m de diamètre pour une surface active de 18 m2 environ pour une puissance de 2,7 kWc. L’axe de la « fleur » est fixé au sommet d’un pilier de 3,40 m de hauteur et peut être orienté ( motorisé) pour maintenir la surface des « pétales » perpendiculaire aux rayons solaires. En cas de nécessité les pétales se replient et se placent automatiquement dans un coffre abri.

Cette disposition supprime donc tous les inconvénients des panneaux fixes sur toitures et présente une esthétique plus acceptable. De plus l’entretien et la maintenance sont facilités par un dispositif automatique de nettoyage. La pose est simplifiée puisque la machine est livrée complète incluant l’onduleur et qu’il suffit de la fixer au sol ( Un petit socle en béton et quatre boulons) et de la raccorder à l’installation domestique.

En cas de déménagement l’appareil se transporte aisément.

Pour une puissance crête comparable à celle d’une installation intégrée en toiture, la production est supérieure de 40% grâce au tracking solaire et à un meilleur refroidissement des panneaux.

Il s’agit d’un exemple intéressant de ce qu’il est possible de proposer en relève ou en complément des solutions classiques intégrées aux toitures.

Une autre solution permettant d’améliorer significativement le rendement énergétique consiste à utiliser des panneaux hybrides. Ces panneaux intègrent une surface photovoltaïque refroidie par la circulation d’un fluide caloporteur qui recueille la chaleur normalement perdue dans l’Atmosphère. Cette chaleur est transférée à un ballon pour usages ECS ou chauffage.

De plus la production des panneaux PV est améliorée grâce au contrôle de la température des cellules par le fluide de refroidissement. Le rendement énergétique global de cette cogénération atteint plus de 60% contre 12 à 13% pour un panneau classique bien souvent surchauffé.

Nul doute que ces solutions, et d’autres, remplaceront dans l’avenir les solutions actuelles peu efficaces énergétiquement.

Repost 0
9 juin 2015 2 09 /06 /juin /2015 15:38

9 Juin 2015

La France émet bon an mal an 500 millions de tonnes eq CO2.

Ces émissions sont dues pour la plupart (95%) à l’exploitation des énergies fossiles, Pétrole, Charbon, Gaz naturel. Les données suivantes sont extraites des statistiques du Ministère de l’Ecologie, du Développement durable et de l’Energie, et concernent l’année 2012.

Emissions de GES en Mt eq CO2 :

- Transports: 136,4 Mt 26,6 %

- Résidentiel/Tertiaire: 115 Mt 22,4 %

- Industries manufacturières: 86,2 Mt 16,8 %

- Industries de l’Energie: 57,5 M t 11,2 %

- Agriculture: 105 Mt 20,5 %

- Traitement des déchets: 12,6 Mt 2,5 %

Pour un total de 512,7 Mt.

Les émissions dues aux transports sont à 90% imputables au trafic routier, le reste au trafic aérien, maritime et fluvial. Dans le trafic routier, la part des voitures particulières est de 57%, soit 70 Mt eq CO2, ou encore 13,6 % du total des émissions de GES.

Voici le détail reconstitué:

Le parc automobile français compte 32 millions de véhicules particuliers, qui consomment annuellement 29 Milliards de litres de carburant ( 64% gazole et 36% essence), soit environ 875 litres par voiture. La consommation moyenne du parc est de 7 L/100 km, pour une distance moyenne parcourue de 12 500 km/an.

La combustion d’un litre d’essence dégage 2,28 kg de CO2, celle d’un litre de gazole en dégage 2,6 . L’émission moyenne de nos voitures est donc de 168 g/km, soit 70,2 millions de tonnes de CO2 par an.

Grâce aux normes européennes, de plus en plus sévères, la consommation des voitures neuves se réduit d’année en année, et donc aussi leurs émissions. Un gain de 1 L/100 km se traduit par une baisse des émissions de 22,8 g CO2/km ( ou 26 g s’il s’agit de gazole).

L’âge moyen de nos voitures est de 8,5 ans. Le renouvellement du parc s’effectue en 15 ans approximativement. En quinze ans, grâce à l’application des normes européennes et à un réajustement des gammes vers des véhicules mieux adaptés à l’usage réel, la consommation moyenne devrait normalement descendre à 5 L/100, et les émissions moyennes passer de 168 g à 114 g CO2/km ( 50 Mt au lieu de 70 Mt).

Dans cette période on peut attendre une amélioration supplémentaire substantielle grâce à deux phénomènes:

Le développement de la voiture électrique d’une part, sous ses différentes formes (Tout électrique, hybride rechargeable, pile à Hydrogène), à condition que l’électricité et/ou l’Hydrogène soit produits à partir de sources renouvelables et/ou décarbonées.

Rappelons ici que l’on peut déjà acheter de l’électricité verte certifiée auprès de fournisseurs qui approvisionnent des quantités équivalentes auprès de producteurs d’énergies renouvelables.

Pour l’Hydrogène il faudra attendre encore un peu, mais çà vient puisque ce gaz servira de véhicule de stockage d’énergie électrique grâce à l’électrolyse. Il sera alors utilisé dans le réseau domestique en mélange, ou distribué pur pour les transports. Des véhicules alimentés en Hydrogène circulent déjà.

En quinze ans le parc automobile pourrait être électrifié à 20% à condition que les pouvoirs publics encouragent concrètement l’installation des bornes de rechargement rapide des batteries, et définissent une politique de tarification claire et pérenne pour l’électricité de recharge, notamment l’éventuelle taxation. Faute de quoi l’absence de visibilité à long terme dissuadera l’usager d’abandonner un système qui marche pour une solution incertaine.

La deuxième source d’optimisme est la perspective de croissance de la part des biocarburants de troisième génération, émettant du CO2 recyclable et évitant les changement d’affectation des sols. Là aussi la balle est dans le camp des pouvoirs publics auxquels il appartient de promouvoir la production de ce nouveau type de carburants.

On peut donc considérer que, dès à présent, l’Automobile est un secteur qui représente moins de 14% des émissions de GES, et que grâce aux normes européennes et à l’effort engagé par les constructeurs, les mesures sont d’ores et déjà prises pour réduire de 50% au moins ces émissions à l’échéance de 2030 par le mécanisme du renouvellement naturel du parc.

Au-delà de 2030 la généralisation des biocarburants et de la voiture électrique conduira à l’élimination du problème du CO2, au moins dans ce secteur d’activité et à condition que les pouvoirs publics prennent les choses en mains. Ainsi, du point de vue des émissions de CO2, l’Automobile sera le premier secteur d’activité ayant satisfait aux exigences de la transition énergétique.

Repost 0
4 juin 2015 4 04 /06 /juin /2015 11:54

4 Juin 2015

La chasse au CO2 bat son plein; désormais la moindre de nos actions est jugée non pas en termes de services rendus mais en fonction de son empreinte Carbone.

Parmi les objets de la civilisation qui sont visés, l’Automobile constitue un gibier de choix. Il faut dire que l’homme moderne a fait de la bagnole une prothèse désormais indispensable, ou du moins ressentie comme telle. C’est ainsi que chaque année en France 29 Milliards de litres de carburants sont brûlés sur l’Autel du progrès ( essence + diesel). Les lois de la combustion étant non négociables, chaque litre de carburant correctement brûlé émet une quantité de CO2 qui ne dépend que de la composition dudit carburant. La seule échappatoire est la réduction de la consommation.

La combustion complète d’un litre de supercarburant produit, entre autres, 2,28 kg de CO2. Un litre de gazole en fournit davantage, 2,6 kg; mais comme la consommation d’un diesel est environ les 2/3 de celle d’un essence, le bilan global est meilleur. Du strict point de vue des émissions de CO2, il vaut donc mieux rouler au diesel.

Ce constat est à nuancer car la nouvelle génération de moteurs à essence affiche une efficacité énergétique très nettement améliorée et l’écart avec le diesel se réduit fortement. La question de savoir si ces nouveaux moteurs polluent davantage que les anciens et seraient aussi nocifs voire plus que les diesels reste ouverte. On en parlera encore longtemps, notamment pour savoir à qui attribuer la fameuse pastille verte sur laquelle le Gouvernement compte pour afficher sa position écologique lors de la conférence de Décembre sur le climat.

De belles joutes en perspective…

Bon an mal an environ 70 millions de tonnes de CO2 sont émises par nos voitures (Essence + Diesel) . Il est donc raisonnable de chercher à réduire ce montant. Le CO2 n’étant pas un gaz polluant, il n’est donc pas sanctionné par la norme Euro anti pollution, qui se contente de le mesurer. Par contre il entre dans le cadre du programme européen de réduction globale des émissions de CO2.

Pour faire simple, les Gouvernements et les constructeurs sont convenus d’un objectif de limite des émissions moyennes de CO2 par kilomètre pour les véhicules neufs, aujourd’hui c’est 100 g . La performance actuelle du parc européen est de 127 g CO2/ km ( Sur les véhicules neufs). Il s’agit d’une moyenne dans laquelle les performances des petites voitures compensent les gaspillages des gros 4x4.

( Pas très moral, mais statistiquement efficace).

La tendance est d’abaisser l’objectif limite à 95g, voire même 90 g dans le futur, si Angela Merkel ne proteste pas trop fort car les grosses bagnoles d’outre-Rhin sont défavorisées. En effet, la quantité de CO2 émise étant peu ou prou proportionnelle à la consommation, et celle-ci étant corrélée à la grosseur du bahut et à la puissance de son moteur, les constructeurs de grosses berlines sont à la peine.

De plus le prochain remplacement de la norme antipollution NEDC par la norme WLTP moins laxiste rendra le challenge encore plus difficile.

La course aux 100 g CO2/km, saint graal de la transition énergétique, impose aux constructeurs des efforts de recherche et une remise en question sur d’une part la technologie ( Moteurs, réduction des frottements, pneumatiques, aérodynamique, etc…) et d’autre part sur le positionnent des gammes sur le marché ( Moins de gros bahuts, pour davantage de petits et moyens modèles).

Les lois de la thermodynamiques étant elles aussi non négociables, il sera extrêmement difficile de descendre en dessous de 80 g CO2/km avec un moteur thermique, puisque cela suppose une consommation inférieure à 3,5 L/100, possible seulement si le véhicule est très allégé et les performances très dégradées, ce qui ne correspond pas au marché (Qui achèterait aujourd’hui une voiture ayant les performances d’une 2 CV ?)

Bien sûr le passage à l’électrique est la solution idéale, mais encore inaccessible sauf dans certaines niches très minoritaires, à cause de l’autonomie encore très insuffisante.

Remarquons au passage que le problème des émissions de CO2 disparaîtra avec l’utilisation des biocarburants puisque le CO2 émis sera recyclable. Il restera le problème de la pollution, que les solutions actuelles pourront résoudre.

Il n’en demeure pas moins que l’objectif de réduction des consommations restera d’actualité, cette fois pour une question de coût les carburants bio.

Pour que les émissions de CO2 d’une voiture à essence soient inférieures à 100 g par km, il faut donc que sa consommation soit inférieure à 4,4 L/100 km. ( Petite règle de trois valable aussi pour le diesel avec des nuances). Et bien entendu il faut également que la combustion soit aussi complète que possible pour éviter l’émission d’hydrocarbures imbrûlés, vivement déconseillée, cette fois par la norme sur la pollution automobile ( Euro 6).

Les émissions de CO2 des véhicules neufs, même si elles ne sont pas sanctionnées par la norme Euro antipollution, sont mesurées au cours du test d’homologation, qui mesure également la consommation et les polluants. Les résultats figurent au catalogue des constructeurs et donc sont portés à la connaissance des futurs acheteurs pour lesquels ils constituent un argument en faveur ou en défaveur du modèle convoité. Une lettre est attribuée au modèle, le A étant bien sûr le top du top, du moins pour le CO2 car pour les performances c’est une autre histoire…On ne peut pas avoir le beurre et l’argent du beurre.

Même si ce test n’est pas représentatif des performances réelles du véhicule, il est donc primordial pour un constructeur d’y obtenir de bons résultats, peu importe ce qui se passera ensuite en utilisation réelle.

Oui c’est idiot, mais c’est ainsi.

( On n’a encore jamais vu, du moins en France, des groupes d’usagers entamer un action en justice contre un constructeur au motif que ses voitures consomment 20% de plus que les valeurs indiquées dans les prospectus).

Une autre norme, WLTP, plus réaliste, est en cours de préparation. Elle devrait être applicable à partir de 2017 . Elle sera moins laxiste et donnera une meilleure image du comportement réel du véhicule, du moins on peut l’espérer.

On peut atteindre le seuil de 100 g CO2/100 km( et même descendre en-dessous) en conservant une technologie classique à laquelle on applique le « downsizing », Par exemple en réduisant la cylindrée du moteur et le poids de la voiture. Mais sans précautions particulières la puissance obtenue sera faible et le véhicule peu attractif.

Pour être efficace, le downsizing doit être accompagné d’un travail sur l’alimentation du moteur (Injection directe, turbo), sur les chambres et la distribution, et sur la gestion (cartographie), sur les frottements, sur le graissage, éventuellement utiliser trois cylindres au lieu de quatre.

L’équation est simple: il s’agit d’obtenir de bons résultats en consommation et émissions de CO2 durant les tests d’homologation, et un comportement brillant en utilisation réelle, là où personne ne viendra mesurer la consommation ni les émissions.

La solution idéale dépourvue d’émission de CO2 est le tout électrique, hélas réservé aujourd’hui à des utilisations spécifiques en raison de son autonomie insuffisante. Et encore faut-il que l’électricité soit produite à partir de sources renouvelables et/ou à carbone recyclable.

Mais l’électricité a un rôle à jouer dans la voiture à moteur thermique pour réduire significativement les émissions de CO2 dans le cadre du test d’homologation, et pour satisfaire à l’obligation du « zéro émission » qui menace de s’installer dans certaines agglomérations.

On entre alors dans le domaine de l’hybride, domaine mystérieux par sa complexité qui cache parfois des pièges.

Les voitures hybrides utilisent une technologie relativement complexe, en sorte que l’usager moyen, déjà peu familier des arcanes de la motorisation thermique classique, se trouve démuni d’éléments de jugement sur la cuisine électrico-thermo-mécanique mijotée sous les capots des modèles hybrides proposés sur le marché.

Le terme même d’hybride est utilisé pour désigner toutes sortes de véhicules très différents combinant un moteur thermique et un ou plusieurs moteurs électriques avec une batterie Li-Ion ou NiMH de capacité variable donnant à l’ensemble des performances elles-mêmes très différentes.

Les moteurs peuvent être couplés, ou non, pour augmenter momentanément la puissance. La présence ou non d’un prolongateur d’autonomie, d’un récupérateur d’énergie au freinage, d’une prise de rechargement de la batterie, sont des éléments importants .

Les constructeurs, profitant d’une part de cette complexité technologique impénétrable par le client moyen, et d’autre part du laxisme des normes officielles de mesure, affichent des performances de consommation susceptibles de séduire un client non prévenu.

On trouve sur le marché deux grandes familles appartenant au genre hybride, qui se distinguent par la philosophie qui a présidé à leur design.

Le premier concept vise une voiture multi usages capable d’une autonomie comparable à celle d’une grande routière à moteur thermique, et susceptible de rouler électrique sur au moins cinquante kilomètres voire plus avec possibilité de rechargement sur le secteur.

Un exemple est l’OPEL Ampera qui est équipée d’un moteur électrique de 110 kW (!) et d’un moteur thermique de 63 kW. La traction est électrique, le moteur thermique est utilisé en prolongateur d’autonomie pour recharger une batterie de 16 kWh. L’autonomie électrique est de 50 à 80 km, ce qui permet largement une utilisation journalière, l’assurance de traverser une agglomération en mode électrique sans émission de CO2, et d’afficher au test d’homologation des émissions de CO2 quasiment nulles ( 27 g CO2/km).

La batterie est rechargeable sur le secteur ou à l’aide du moteur thermique. La consommation d’essence est nulle en mode tout électrique, elle est celle du moteur thermique lorsque la batterie est déchargée. Elle est affichée à 1,2 L/100 au test d’homologation qui est un mix de mode électrique et thermique.

Sur un long parcours routier, donc en mode thermique seul, la consommation est plutôt de 6,5 L, soit une consommation « normale » pour un moteur thermique de 1,4 L et 86 CV, vu le poids de la berline.

Le prix est à la hauteur des prestations: 40 000 euros.

Le second concept, qui vise le marché des véhicules entre 15 et 20 000 euros, donc doit faire appel à des solutions plus économiques. L’économie porte essentiellement sur la partie électrique, qui constitue le surcoût par rapport à un véhicule classique.

Le moteur électrique sera moins puissant, 50 à 60 kW suffiront, et surtout la batterie sera beaucoup plus « légère », 2 à 4 kWh et la technologie pourra être NiMH plutôt que Lithium-ion très onéreuse.

Le moteur thermique associé sera également de puissance modeste. Evidemment l’autonomie en mode électrique sera très faible, de l’ordre de deux kilomètres, presque symbolique, mais suffisant pour donner des résultats intéressants au test d’homologation.Il sera facile d’obtenir moins de 100 g CO2/km.

Un exemple est la TOYOTA Yaris Hybrid. Elle contient un moteur thermique de puissance très modeste (54 kW) et un moteur électrique de 59 kW. Un accouplement mécanique permet de fonctionner sur l’un des deux moteurs au choix, ou sur les deux ensemble pour obtenir une forte puissance.

On voit la grosse ficelle: Le « petit » moteur thermique de 54 kW permet de revendiquer une faible consommation d’essence sur route à condition d’avoir le pied léger: 3,8 L aux cent selon la norme NEDC. La possibilité de coupler les deux moteurs permet d’afficher une puissance max de 100 CV , très attrayante dans les encarts publicitaires.

Ce que le client intéressé ne réalise pas c’est que cette puissance de 100 CV n’est disponible que pendant un très court moment, juste le temps de décharger la petite batterie LiMh ( qui pèse 80 kg quand même).

Le dépliant souligne l’intérêt de rouler électrique en ville. Mais là encore il faudra déchanter car la petite batterie ne lui permettra pas d’aller au-delà de 2 (deux) kilomètres à 50 km/h, ensuite il faudra continuer sur le moteur thermique.

Partant du pont de Saint-Cloud pour aller au centre de Paris, la batterie sera vide avant d’arriver à Billancourt!

Au-delà de cette distance le moteur thermique prend le relais soit pour propulser, soit pour recharger la batterie, ou les deux. Quant aux émissions de CO2 elles descendent à 80 g /km seulement au cours du test d’homologation.

Toutes les voitures hybrides se situent dans l’une ou l’autre de ces familles.

Le poids de la règlementation antipollution d’une part (Normes Euro 6 et la suite), et les contraintes apportées par la création de zones de restriction de circulation d’autre part, entraîneront à terme un bouleversement de la composition du parc automobile.

Il s’y ajoutera une plus grande diversification technologique liée au foisonnement de solutions électriques et ou hybrides ( EV, HEV, PHEV, Full Hybride, Micro Hybride, etc…).

Il s’y ajoutera également une composante sociale liée à l’aspect financier de cette mutation, qui ne pourra être suivie que par la classe aisée dans un premier temps. Aujourd’hui les deux tiers des transactions automobiles portent sur des véhicules d’occasion. Ce marché sera bouleversé par la mise au rebut rapide de véhicules qui, autrefois, auraient eu une seconde vie entre les mains d’usagers peu fortunés.

Le Législateur devra tenir compte de ce problème pour éviter l’émergence d’un pôle de discrimination sociale préjudiciable à l’ordre public.

Repost 0
31 mai 2015 7 31 /05 /mai /2015 15:07

31 Mai 2015

Les préoccupations des scientifiques concernant le changement climatique ne datent pas d’hier.

Le GIEC , chargé au plan international politique de préciser le phénomène et d’en déterminer les causes et les conséquences, a été créé en 1988. Dès l’origine le rôle de l’accroissement du taux atmosphérique de CO2 a été mis en évidence et l’implication des activités humaines dans cet accroissement a été démontré.

Près de trois décennies se sont donc écoulées depuis la mise en alerte des gouvernements de la Planète sur le risque de catastrophe climatique lié à l’utilisation abusive des ressources énergétiques fossiles.

Que s’est-il passé depuis ?

En 1990 la production mondiale d’énergie primaire était de 8 800 Mtep, dont 81% de fossiles ( Charbon, Gaz naturel, Pétrole).

En 2012 elle a atteint 13 400 Mtep, soit + 52%, avec toujours 81% d’énergie fossile.

La tendance est toujours à l’accroissement au taux de 2,3% par an, et la part des fossiles demeure au même niveau.

En presque trois décennies il ne s’est donc strictement rien passé, et le taux de CO2 atmosphérique continue imperturbablement de monter vers les sommets, les 400 ppm ayant été dépassés en 2014.

Le taux annuel d’augmentation de 2,3% de production d’énergie primaire, remarquablement constant dans la durée, prouve la totale inefficacité des avertissements de la communauté scientifique. On peut donc légitimement se demander si ce grand battage Scientifico-Politico-Médiatique aura, un jour, une influence quelconque sur le taux de CO2.

Dans cette grande mise en scène nous avons d’une part un consensus de scientifiques qui prédit une catastrophe climatique si les émissions de CO2 ne sont pas réduites drastiquement, et d’autre part des Etats et des Industriels qui regardent ailleurs et continuent à extraire et exploiter les produits énergétiques fossiles fortement émetteurs du même CO2.

Comme il fallait d’ailleurs s’y attendre, le pétrole, le gaz, le charbon, seront fort probablement brûlés jusqu’à la dernière goutte et peut-être au-delà si l’existence de sources naturelles d’hydrocarbures abiotiques sont confirmées.

Certes, certains Etats manifestent une volonté d’assainir leurs mœurs énergétiques, en améliorant leur efficacité énergétique d’une part, et en développant les sources d’énergie propres et durables d’autre part, mais le bilan global de la Planète n’en est pas affecté, comme le montrent les chiffres ci-dessus. Les améliorations constatées ici et là sont contrebalancées par l’accroissement de la demande toujours servie à 80% par les fossiles.

Le Dioxyde de Carbone est un gaz persistant dans l’Atmosphère, on parle de plusieurs centaines d’années, et encore plus longtemps dans les océans qui subissent une acidification préjudiciable à la vie. Même si les émissions anthropiques sont maîtrisées un jour, ce qui ne semble pas devoir se produire de sitôt, la concentration de dioxyde de Carbone ne retombera pas à sa valeur d’avant l’ère industrielle avant un siècle ou deux.

Comme le fait remarquer le Secrétaire Général de l’OMM Michel Jarraud: « Les lois de la Physique ne sont pas négociables ».

Nous devons donc probablement nous attendre à affronter la kyrielle des calamités annoncées par le GIEC:

- Augmentation de la température moyenne de la basse Atmosphère de 4 à 6 °C d’ici la fin de ce siècle, et combien au-delà ?

- Augmentation du niveau des océans, déjà 30 cm durant le XXè siècle, combien en 2 100 et après ?

- Acidification des océans.

- Augmentation du nombre et de la puissance des évènements climatiques.

- Pénurie sur la ressource en eau douce.

- Extension des zones désertiques.

- Etc… ( Lire le rapport du GIEC).

Avec le cortège des conséquences humanitaires que l’on peu imaginer.

La COP 21 sera certainement l’occasion pour les pays développés de se féliciter mutuellement des progrès accomplis vers une transition énergétique nous garantissant un avenir radieux. De nombreuses réalisations seront mises en avant, on parlera éolien offshore, économies d’énergie, voiture électrique, biocarburants, transports collectifs et même peut-être de nucléaire propre. La France mettra en avant son savoir faire qui lui permet de réduire sa part de nucléaire sans fermer un seul réacteur. L’Allemagne démontrera qu’elle réduit son empreinte carbone en augmentant l’exploitation du lignite. Les autres expliqueront pourquoi ils ont construit des éoliennes sans prévoir le moyen de stocker l’électricité en période creuse.

Des objectifs ambitieux seront fixés et des milliards seront brandis, prouvant la bonne volonté des uns et des autres. Les participants se quitteront en ayant conscience d’avoir donné au monde les bonnes clés pour survivre.

Et puis les choses continueront leur train.

Au fait, à propos de train, la SNCF envisage de remplacer certaine liaisons ferroviaires par des liaisons routières, lesquelles seront desservies par des autocar à moteur Diesel.

Vive la COP 21...

Repost 0
22 mai 2015 5 22 /05 /mai /2015 14:45

22 Mai 2015

Nous avons vu précédemment ( Article du 17 Mai ) que l’EPR aura une capacité de production annuelle de 13 TWh.

Pour lui substituer un parc éolien offshore de production équivalente, la puissance nominale cumulée des machines devraient être de 4 370 MW. ( sur la base d’un facteur de charge de 0,34 qui est celui constaté sur les parcs offshore existants en Mer du Nord).

Le nec-plus-ultra de cette technologie permet ( permettra) de construire des machines de 8 MW (nominal). Il en faudrait donc 546 pour produire annuellement autant qu’un seul EPR.

Aujourd’hui sont exploitées des machines de 5 MW ( Europe du Nord). Hormis le coût, dont nous avons déjà évoqué l’énormité, ces machines occuperont beaucoup de place. Selon les standards observés en Europe du Nord, les machines sont écartées de 500m en largeur et 800m en profondeur ( par rapport au lit moyen du vent), soit une surface de 250 km2 ( 30 km x 8 km ) pour notre exemple de 546 machines.

Un tel parc couvrirait largement la totalité de la baie du Mont Saint-Michel !

Nous avons vu également que, dans une première étape du retrait du nucléaire, il faudrait arrêter une vingtaine de réacteurs anciens. Leur remplacement par des fermes éoliennes offshore conduirait à installer douze parcs de 546 machines chacun. Ce n’est donc plus 30 km de littoral qui seraient « occupés », mais bien 360 km.

Et pour une production annuelle qui ne dépasserait pas 15% de notre consommation électrique interne.

Cette simulation montre à l’évidence que l’avenir de l’éolien offshore n’est pas dans l’invasion du littoral par un « mur de l’Atlantique » qui perturberait de manière intolérable la vie des professionnels de la mer et l’attrait touristique de centaines de kilomètres d’un littoral qui contribue majoritairement dans le budget du pays.

Mais alors, que faire ?

La seule solution consiste à repousser ces parcs encombrants en haute mer, dans des zones hors des routes maritimes évidemment, ce qui implique des installations flottantes, dépourvues d’ancrage matériel, positionnées de manière géostationnaire par un système de navigation automatique. ( Au-delà d’une profondeur de 50m il devient très difficile d’envisager un ancrage sur le fond).

Cette nécessaire mutation n’a bien sûr pas échappé aux industriels de la chose, qui ont dans leurs cartons, voire même déjà in situ en mer, des « plateformes » éoliennes flottantes en cours de mise au point.

Aujourd’hui il n’existe encore en Europe aucun parc industriel éolien équipé de machines flottantes, seuls quelques démonstrateurs sont en cours d’évaluation. En France, la Société NENUPHAR expérimente un prototype d’éolienne flottante à axe vertical, qui fait partie d’un projet ( VERTIMED) d’une ferme offshore comportant 13 machines « Vertiwind » de 2,3 MW pour une puissance totale installée de 30 MW. Le calendrier prévoit la mise en service en 2018. Les partenaires du projet sont EDF-EN, AREVA et TECHNIP. Le coût est évalué à 130 Millions, soit 4,3 Millions par MW. Cette activité, qui fait partie du projet Européen INFLOW , est dotée d’un financement Européen participatif de 35 Millions d’euros dans le cadre du dispositif NER 300.

Cette technologie est fort onéreuse, mais probablement incontournable à terme si les besoins électriques restent importants et dans l’hypothèse d’un nucléaire en forte baisse, et d’énergie fossile sérieusement remise en question.

Un problème est d’installer des éoliennes flottantes à positionnement automatique, un autre problème est d’acheminer le courant produit vers la terre. La profondeur, la houle, la nécessité d’enterrer les câbles, la distance à la côte, constituent autant d’obstacles et de sources d’accroissement des coûts.

Une autre solution consisterait à transformer sur place l’électricité produite en Hydrogène par électrolyse de l’eau de mer, et transporter ce gaz par gazoducs ou navires gaziers.

Nos voisins Allemands ont commencé à développer l’éolien offshore il y a plus de dix ans. Leurs réalisations constituent donc un exemple de ce que l’on peut faire, et éventuellement ne pas faire. L’exiguïté de leur littoral en mer du Nord, l’impossibilité d’envahir les accès maritimes de Bremerhaven et Willelmshaven, et la nécessité de préserver l’environnement les a contraints de repousser les parcs éoliens le plus loin possible, jusqu’à 100 km de la terre pour certains.

La « baie Allemande » n’est pas large, et les routes maritimes d’accès doivent être préservées. Bien que le littoral de Bremerhaven ne reçoive pas la fréquentation touristique de l’Ile de Ré, l’environnement doit y être protégé. Le littoral allemand de la mer Baltique sera également mis à contribution pour l’extension des zones éoliennes.

Actuellement les parcs allemands de la Mer du Nord raccordés ou en passe de l’être en 2015 représentent une puissance nominale d’environ 3000 MW. Cette puissance est assurée par 600 machines de 5 MW. ( Les nouvelles machines de 8 MW ne sont pas encore en service).

La production de cet ensemble ne représente environ que 68 % de celle d’un seul réacteur EPR. La surface maritime occupée est de l’ordre de 350 km2. La profondeur de la Mer du Nord est faible, à 100 km de la terre les fonds ne dépassent pas 40 m, permettant encore l’ancrage des machines.

L’extension des parcs est donc relativement aisée, sauf en matière de transport de l’électricité, qui constitue un problème à la fois technique et de coût ( pour éviter la destruction des câbles par les engins de pêche, il faut les enterrer ).Les derniers parcs utilisent le courant continu pour les raccordements, qui nécessitent des stations de conversion très onéreuses.

La préparation d’un projet d’éolien offshore inclut une longue et difficile phase d’études et de concertations dans le but d’assurer le respect des divers usages de la mer:

- Navigation maritime commerciale.

- Navigation aérienne ( les éoliennes de 8 MW atteignent plus de 200m ).

- Pêche professionnelle.

- Production d’électricité éolienne.

- Production d’électricité à partir de la houle et/ou des courants.

- Activités d’immersion et d’extraction de granulats.

- Protection de l’environnement et de la biodiversité.

- Réserves naturelles.

- Tourisme maritime et littoral.

- Protection des patrimoines littoraux.

- Aquaculture.

- Contrôle et gestion de la sécurité maritime.

Les enquêtes d’utilité publique montrent qu’il est pratiquement impossible de concilier ces intérêts très divers, parfois opposés, lorsque les projets concernent une implantation proche d’un littoral fortement peuplé et fréquenté par une activité maritime et touristique intenses, ce qui est le cas d’une grande partie du littoral français.

Le fort développement de l’éolien offshore ne peut donc s’envisager que dans des zones si possible neutres vis-à-vis des autres activités, et suffisamment éloignées des côtes.

Ce procédé de production d’électricité, qui semble aller de soi en raison de son rendement élevé par rapport à l’éolien terrestre, cumule en fait de nombreux inconvénients qui peuvent à terme compromettre son extension. Sa future part dans la production nationale d’électricité peut s’en trouver réduite très en dessous des prévisions stratégiques.

L’éolien terrestre n’a peut-être pas dit son dernier mot…

Repost 0

Présentation

  • : Le blog de doc zaius
  • : Suivi des problèmes environnementaux du moment. Analyses techniques . Comptes rendus avancements projets.
  • Contact

Recherche

Liens