Overblog Suivre ce blog
Administration Créer mon blog
27 septembre 2015 7 27 /09 /septembre /2015 13:39

27 Septembre 2015

Dans les temps orageux qui s’annoncent pour la noblesse mécanique, il va beaucoup être question des particules, comme au bon vieux temps de la Terreur. Des têtes commencent même à tomber, certes sans faire couler le sang et avec moult compensations financières, mais certains barons, même chevronnés, ne se sentent plus à l’abri et craignent de voir leurs blasons quelque peu ternis par leurs propres miasmes.

Il semble qu’un grand aggiornamento soit de mise, tant s’est enflée la méfiance du public à l’occasion de ce qu’il faut bien appeler le « scandale Volkswagen ». Scandale susceptible d’éclabousser toute la profession si des mesures conservatoires ne sont pas rapidement prises.

Cette histoire de pollution requiert quelques explications.

La Chimie nous enseigne les grands principes de la combustion: Le moteur reçoit d’une part de l’Air ( de l’Oxygène et de l’Azote qui, en théorie, ne sert à rien ) et d’autre part du combustible composé de Carbone et d’Hydrogène combinés de diverses façons ( Hydrocarbures). Grâce à une étincelle ( moteurs à allumage commandé) ou une élévation de température ( compression dans les moteurs diesel ), le mélange s’enflamme. Les composants cités se recombinent et le résultat est de l’énergie et d’autres composants qui sont du dioxyde de Carbone et de l’eau. L’Azote est neutre et se retrouve en sortie.

CO2 et H2O ne sont ni des fumées, ni des polluants, où donc est le problème ?

Il paraît que le diable se cache dans les détails.

La combustion idéale n’existe que dans les livres de chimie. Le fameux principe de réalité reste incontournable et conduit à regarder de plus près le déroulement de la réaction.

L’air fourni au moteur est en général de bonne qualité, mais il est affecté d’un certain taux de pollution par une multitude de produits en faibles quantités.

Le carburant ne contient pas que du Carbone et de l’Hydrogène; il contient également en faibles quantités une bonne douzaine d’éléments à l’état de traces ( Soufre, Cadmium, Zinc, Arsenic, Nickel, Manganèse,….) présents dans le pétrole et/ou ajoutés pour améliorer le carburant ( indice d’octane, résistance au froid, etc…).

La combustion elle-même n’élimine évidemment pas ces oligo-éléments qui se retrouvent donc dans le tuyau d’échappement.

Par ailleurs le temps imparti au cycle de remplissage/combustion/détente est très faible; par exemple pour un régime de 4000 tr/mn ( modeste) il est inférieur à 1/100 ème de seconde, la combustion est alors incomplète et s’accompagne de formation de suies et d’imbrûlés.

La température à l’intérieur de la chambre dépasse 800 °C en charge, permettant des combinaisons chimiques non souhaitables, voire inavouables: Oxydes d’Azote, Oxydes de Soufre, et autres selon les composants traces présents.

D’autres éléments métalliques sont apportés par le lubrifiant et par l’usure du moteur.

En plus du CO2 et de l’eau ( vapeur) on trouve alors en sortie toutes sortes de molécules indésirables. En effet, aucun système de purification, aussi perfectionné soit-il, n’est capable de transformer un élément dans un autre moins gênant, il faudrait pour cela réaliser des transmutations. Or les constructeurs automobiles n’en sont pas encore capables, ni d’ailleurs personne en ce bas monde en dehors des réacteurs nucléaires.

( Il n’y a pas encore d’alchimistes dans les bureaux d’études…)

Les éléments tels que Soufre, manganèse, Arsenic, et autres métaux se retrouvent donc en sortie du tuyau d’échappement, où ils s’empressent de s’unir à d’autres pour reconstituer des nanoparticules.

Selon l’ADEME ( in « Les particules de combustion automobile et leurs dispositifs d’élimination » ) douze métaux ( éléments) ont été détectés en quantités non négligeable dans l’échappement : Soufre, Chlore, Potassium, Calcium, Chrome, Manganèse, Fer, Nickel, Cuivre, Zinc, Antimoine, Argent.

Ces éléments se combinent et s’agglomèrent avec le Carbone pour former des particules de tailles très variables qui viennent s’ajouter aux polluants gazeux en sortie.

Ces particules peuvent être en partie retenues par un système de filtrage.

Les filtres à particules actuels ( FAP ) arrêtent momentanément les particules dont les dimensions sont supérieures à quelques centaines de nanomètres, les particules plus petites (nanoparticules) ne sont pas arrêtées. Or ce sont les plus nombreuses et les plus nocives puisque leur faible taille leur permet de s’insinuer profondément dans l’organisme. Un FAP doit être régénéré périodiquement sous peine d’encrassement préjudiciable au bon fonctionnement.

Cette régénération consiste essentiellement à brûler les suies accumulées et à ne rejeter en principe que du CO2 et de l’eau. Mais les éléments traces, toujours présents, ne sont pas éliminés et sont rejetés dehors où ils s’ajoutent à la pollution de l’air sous forme de particules reconstituées.

La norme Euro 6b définit une limite absolue d’émission de particules par km. La masse et le nombre des particules émises sont proportionnels à la puissance du moteur, pour une même technologie de moteur et de filtrage d’échappement.

La norme contient donc en elle-même une limitation de cette puissance.

Aujourd’hui sévit encore la course à la puissance, bien qu’elle soit devenue dépourvue de sens dans un environnement règlementaire qui limite la vitesse absolue à 130 km/h, et peut-être 120 km/h bientôt, et 90 km/h hors des autoroutes, sans parler des agglomérations.

En matière d’émissions de polluants les constructeurs semblent avoir atteint les limites du possible avec la technologie d’aujourd’hui et pour un coût acceptable. Pour que les véhicules puissants puissent être homologués, il faut désormais tricher, même avec une norme pourtant bonne fille…

C’est vrai pour le diesel comme pour l’essence, avec des nuances.

Les Constructeurs sont maintenant au pied du mur. Il leur sera difficile de rejeter la nouvelle norme WLTC encore plus contraignante que la norme actuelle.

La médiatisation du problème, sa mondialisation, et l’implication des instances gouvernementales rendent quasiment impossible une quelconque et discrète entente « cordiale » sur un arrangement entre gens de « bonne » compagnie.

La boîte de pandore a été ouverte…

Nous pouvons donc espérer que de ce mal sortira un bien. Voilà en tous cas qui réjouira les partisans de la voiture électrique, et qui donnera un peu de tonus au programme de mise en service des stations de recharge des batteries.

L’imminence de la COP 21 ne peut que « booster » cette activité qui n’en finit pas de « démarrer ».

Peut-être sommes-nous en voie d’assister à un accouchement aux forceps d’une transition énergétique qui semble avoir beaucoup de mal à venir au monde.

PS. La firme BOSCH aurait fourni à VW les logiciel truqueur. Cette firme fournit un nombre considérable de constructeurs auto en gadgets électroniques divers et variés, dont des calculateurs de gestion moteur.

Repost 0
24 septembre 2015 4 24 /09 /septembre /2015 10:37

24 Septembre 2015

La chasse au CO2 bat son plein.

Les transports sont pointés du doigt parmi les principaux émetteurs, et la stratégie de transition énergétique promeut l’abandon des carburants fossiles au profit de l’électricité.

Le citoyen est par ailleurs fortement incité à délaisser la route au profit du train, cité comme modèle de rationalité énergétique. Le réseau ferroviaire est ( à peu près) entièrement électrifié et de plus cette électricité est à 85% exempte d’émission de CO2.

Ce comportement vertueux est imité, ou en voie de l’être, par le secteur des transports collectifs urbains et périurbains. Des tramways remplacent progressivement les autobus puants dans la plupart de nos villes.

Jusque là tout va bien et nous ne pouvons qu’applaudir à deux mains .

Et voilà qu’on me dit, je n’ose y croire, que vient d’être votée une loi ouvrant le « marché » du transport routier de passagers par autocars. Il s’agirait dit-on de concurrencer le train pour susciter des baisses de tarif.

Un rapide calcul m’a conforté dans ma conviction qu’il s’agit d’une plaisanterie de potache désireux d’animer la COP 21 qui s’annonce un tantinet morose.

Voyons la chose plus précisément:

En 2012 le trafic voyageurs SNCF s’est élevé à 89 Milliards de kilomètres-voyageurs. Supposons que 30% de ce trafic soit « détourné » sur des autocars de tourisme, soit 27 milliards de voyageurs-km.

Un autocar de tourisme transporte environ 60 pèlerins. Le trafic correspondant sera donc de 450 millions d’ autocars-km.

Un autocar consomme 20 L de gasoil aux cent km. Soit un total de 90 millions de litres par an.

La combustion de 1 L de gasoil libère 2,6 kg de CO2.

Au total ce seront donc 234 000 tonnes de CO2 qui seront libérés dans l’Atmosphère chaque année et viendront s’ajouter aux émissions actuelles.

Il est évidemment inconcevable qu’à la veille de la COP 21 l’Etat invitant et organisateur de cet évènement ose annoncer qu’il décide de s’asseoir sur ses engagements de transition énergétique en ouvrant une application qui génèrera des émissions annuelles de plusieurs centaines de milliers de tonnes de CO2.

Il s’agissait donc bien d’une plaisanterie.

Ouf, nous avons eu chaud…

Repost 0
23 septembre 2015 3 23 /09 /septembre /2015 15:15

23 Septembre 2015

En Europe et probablement ailleurs, pour ceux qui vivent les yeux ouverts, les tests d’homologation des nouveaux modèles d’automobiles produisent des résultats fantaisistes pour ce qui concerne les consommations et la pollution.

Tout le monde s’en accommode.

Les constructeurs, parce qu’ils sont eux-mêmes à l’origine du subterfuge qui leur permet d’afficher des performances flatteuses en rapport avec les exigences des normes de plus en plus sévères. Les clients, qui se sont laissés convaincre que si leur voiture consomme beaucoup c’est parce qu’ils conduisent mal. Et personne n’aimerait reconnaître une telle faiblesse, n’est-ce pas ?

Ce sont les procédures officielles elles-mêmes qui prêtent le flanc à la critique, les conditions de mesures imposées par la norme n’ayant que de lointains rapports avec la réalité de la conduite de tous les jours.

Mais les normes étant de plus en plus sévères, EURO 6 en particulier qui préfigure un futur normatif d’enfer concernant la pollution, « certains » constructeurs ont cru pouvoir utiliser les grandes facilités offertes par l’électronique et la microprogrammation pour « bidouiller » le programme de gestion moteur lors d’une session d’homologation afin d’optimiser les résultats, pour ensuite revenir à une gestion moteur plus « brillante » sans trop se préoccuper de la conso ou de la pollution en usage « normal ».

Si la mentalité européenne s’accommode assez facilement de ce genre d’arrangement entre amis, une approche différente s’appuyant sur une autre interprétation du droit international pourrait y voir une fraude justifiant une action en justice.

Les américains, volontiers procéduriers et toujours friands de ce genre de démarches pouvant rapporter gros grâce aux « class actions », se sont engouffrés dans la brèche. Cette « bombe à retardement » n’a pas manqué d’éclater et le pot-aux-roses fait maintenant la une des médias.

Aujourd’hui Volkswagen, et demain ?

Les tartuffes font semblant de découvrir la chose alors qu’elle était de notoriété publique.

Concernant la qualification du délit, si délit il y a, les choses ne sont pas aussi simples qu’il y paraît. Il y a matière à plaidoirie.

Aux temps anciens de la pince et du tournevis, modifier subrepticement les performances d’une voiture nécessitait d’intervenir physiquement sur l’une ou l’autre pièce mécanique. Changer un gicleur, modifier l’avance, à cela se bornait la panoplie du « petit bricoleur ». Une telle manœuvre effectuée avant l’homologation aurait nécessité une nouvelle intervention du mécanicien pour retrouver les réglages d’origine après les tests, à condition qu’il y eut une homologation.

La fraude eut été évidente et incontestable.

Mais, sur les voitures actuelles ont peut modifier de nombreux paramètres grâce à des actionneurs électriques commandés par un ou plusieurs ordinateurs embarqués: Dosage du carburant au niveau de chaque injecteur, ajustement du diagramme de distribution, optimisation de la cartographie pour tel type d’utilisation, pilotage de la richesse à partir de la température d’échappement, etc, etc…

Nos voitures sont dotées d’une forme « d’intelligence » qui leur permet, toutes seules, de choisir tel réglage plutôt que tel autre dans une circonstance donnée, et ceci sans l’intervention ni du mécanicien, ni du conducteur.

La voiture choisira le mode « éco », le mode « sport », le mode « peine charge », le mode « électrique », le mode « thermique », etc…, et/ou modifiera les réglages moteur selon le type de carburant qu’elle aura reçu, selon les changements de température ou de pression atmosphérique, et même selon le profil du trajet.

Les réglages, modifiés automatiquement par l’ordinateur de bord, sont définis soit pour des performances maximales ( mode « sport » ), soit pour une faible consommation et une pollution réduite ( mode « éco » ). Tout cela étant parfaitement licite, et même recommandé au nom du progrès et de la recherche de l’efficacité énergétique.

Il est donc parfaitement légal qu’une voiture modifie d’elle-même sa configuration à sa guise, ce point ne saurait être contesté juridiquement.

De son côté, la norme définit une procédure de tests d’homologation très précise. Lors de ces tests la voiture est soumise à cette procédure, et seulement à cette procédure.

Or cette procédure constitue un mode d’utilisation parmi d’autres, et ce mode ne diffère pas dans son principe des autres modes comme « sport », « éco », ou autres, qui sont licites. Si l’ordinateur de bord estime que le mode type « NEDC » est le plus approprié pour telle circonstance, personne ne peut trouver à y redire.

On remarquera que, dans leur publicité, les constructeurs précisent que les performances de consommation et de pollution sont mesurées selon la procédure NEDC ( Si, si, c’est écrit en tout petit). Tout ce qu’on pourrait reprocher au constructeur qui choisirait ce mode pour le test d’homologation, c’est de ne pas disposer dans l’habitacle un bouton ad-hoc permettant au conducteur de le sélectionner à sa guise, retrouvant ainsi les performances du test.

Pas de quoi fouetter un chat…

Les grognons pourront alors se retourner contre les auteurs de la norme, qui ont été trop laxistes et qui auraient dû imposer une procédure plus proche de l’usage « normal ».

Mais au-delà de ce mini-scandale ( nous en avons vu bien d’autres, restés impunis) il demeure le problème de la norme EURO 6 et des suivantes. Car, hélas pour les constructeurs, ce Buzz arrive au mauvais moment. En effet, la norme actuelle NEDC qui définit la procédure de mesure de consommation et de pollution pour les nouveaux modèles, est devenue inacceptable car beaucoup trop laxiste. Depuis plusieurs années déjà son remplacement est programmé en faveur d’une nouvelle norme, à caractère mondial, la WLTP. Cette nouvelle norme fournira des résultats plus proches de la réalité d’usage.

Dès son entrée en vigueur les valeurs officielles de consommation et de pollution des nouveaux modèles se trouveront majorées par rapport aux « anciens », parfois lourdement, à la grande surprise des futur clients qui ne comprendront rien à cette dégradation subite de la technologie.

Et surtout le respect de la norme Euro 6 deviendra plus difficile puisque les conditions de mesures seront durcies.

Les constructeurs, peu soucieux de devoir présenter des nouveaux modèles affichant des consommations et des taux de pollution en hausse par rapport aux anciens modèles, mènent un combat d’arrière garde pour retarder l’introduction de cette norme qui portera un coup à leur réputation. Aux dernière nouvelles, il faudra attendre 2018 pour y être confrontés.

Bien sûr, le fait que cette affaire sorte dans la période de pré-négociations pour la COP 21 ne saurait être dû qu’à une malheureuse coïncidence de calendrier…

Repost 0
20 septembre 2015 7 20 /09 /septembre /2015 16:14

20 Septembre 2015.

Comme prévu, la désormais imminente COP 21 n'a pas manqué de déclencher un branle-bas au sein des équipes gouvernementales intéressées de près ou de loin à la lutte contre le CO2 et la pollution, et/ou impliquées dans la définition et la mise en œuvre de la transition énergétique.

Sa qualité de puissance invitante fait à la France obligation de donner l'exemple et donc de présenter un état des lieux et un plan d'action crédible et à la hauteur de l'enjeu, il s'agit tout de même de sauver la Planète.

L'exercice sera délicat, eu égard à notre retard dans la mise en œuvre des énergies renouvelables.

Une électricité nucléarisée à 75% n'est pas précisément une réalisation aisément vendable comme un progrès vertueux, sauf à glisser Tchernobyl et Fukushima sous le tapis et regarder ailleurs quand on parle de stockage des déchets et de risques de dissémination…

Ce n'est pas non plus une hydraulique performante mais vieillissante et dont la production plafonne faute d'espace disponible, qui peut faire de nous des champions de l'énergie propre.

Le Solaire peine à faire son trou, englué dans une règlementation absconse et pris dans un modèle économique basé sur l'effet d'aubaine et de plus offrant une grande vulnérabilité à la concurrence asiatique.

Quant à l'exploitation de notre littoral, vanté comme privilégié pour l'éolien, on n'y trouve encore pas une seule éolienne offshore opérationnelle.

Difficile donc, avec un tel bilan, de faire une forte impression sur des participants à qui l'on pense demander des engagements concrets éventuellement contraignants sur des projets que nous-mêmes ne sommes pas capables de soutenir.

Le fer de lance de notre transition énergétique reste alors pour le moment l’engagement de réduire à 50% la part de l'électronucléaire dans notre production nationale d'électricité ( in « Loi sur la transition énergétique et pour la croissance verte » signée le 18 Août 2015).

Mais dans le même temps ce même Gouvernement décide de maintenir la puissance électronucléaire à sa valeur actuelle de 63,2 GW.

Je ne voudrais pas être à la place du porte-parole chargé de démontrer à l’assemblée de la COP21 que ces deux propositions, à l’évidence parfaitement contradictoires, sont en fait cohérentes et témoignent de la volonté de la France d’aller vers les énergies renouvelables décarbonées.

Certes, du strict point de vue du réchauffement climatique, donc des émissions de CO2, l’électronucléaire se présente comme monsieur propre. Quant à son caractère renouvelable, il est soutenu par les tenants de la surgénération. Reste à considérer les points de vue de la sécurité et de la protection de l’environnement et de la biodiversité, domaines qu’il sera très difficile de glisser sous le tapis. Le stockage long terme des déchets HALV et les risques de dissémination sont des pierres d’achoppement qui seront difficiles à contourner.

Le programme électronucléaire de la France, que l’on peut résumer par la formule lapidaire « Business as usual », ne soulèvera peut-être pas l’enthousiasme espéré.

Nous avons hâte de connaître la méthode qui sera employée par nos représentants pour convaincre l’assemblée de la pureté de nos mœurs énergétiques…

Repost 0
11 août 2015 2 11 /08 /août /2015 19:06

11 Août 2015

La prochaine COP 21 revêt l'aspect d'un coup de pied dans la fourmilière de la transition énergétique.

Sous peine de perdre la face, chaque Etat participant se voit contraint de se présenter propre sur lui et habillé de neuf, du moins énergétiquement parlant.

En tant que pays invitant, la France n'échappe pas à ce nécessaire aggiornamento et se doit même de montrer l'exemple.

L'essentiel de notre argumentation en matière de preuve de notre approche vertueuse du problème du CO2, puisque c'est de lui qu'il s'agit, c'est notre puissance électronucléaire, exempte d'émissions de ce dioxyde qui nous pourrit la vie.

Ce choix, qui remonte aux années cinquante, ne doit évidemment rien à une quelconque prescience du futur réchauffement climatique, mais plutôt à la recherche d'une indépendance énergétique voulue par un certain général, préoccupation louable en soi.

Tout a été dit sur les nuisances du nucléaire, qu'il soit civil ou militaire, les nuisances en question concernant les mêmes destinataires dans les deux cas.

Parmi celles-ci la gestion des déchets radioactifs n'a jamais reçu de solution satisfaisante, nous pourrions même dire pas de solution du tout.

Or, parmi les objectifs de la COP21, la protection de l'environnement et de la biodiversité sont des critères de base.

Autrement dit, en matière de lutte contre le réchauffement climatique, le remède ne doit pas tuer le malade.

C'est pourquoi cette histoire de déchets nucléaires, mise en veilleuse en période favorable, refait surface aujourd'hui à la veille de la COP21, car il serait malséant de ne pas arriver les cuisses propres devant des nations auxquelles on prétendrait donner des leçons d'hygiène énergétique.

Le problème concerne l'ensemble des déchets radioactifs, mais plus particulièrement les déchets de très haute activité à vie longue (HALV).

Par vie longue il faut comprendre non pas quelques dizaines d'années, non pas quelque siècles, non pas quelques milliers d'années, mais bien des centaines de milliers d'années.

L'Homme est arrivé très tardivement sur cette planète. Il l'a colonisée à son profit et compte bien y rester, c'est du moins le souhait de la plupart d'entre nous.

Pour assurer cette suprématie et pour alimenter sa soif de progrès technologique, l'Homme n'a pas hésité à piller les ressources de la planète et à mettre en danger de disparition certaines autres espèces.

Aujourd'hui, avec le nucléaire, c'est de la disparition de l'Homme lui-même qu'il s'agit. Les effets des radiations sur le long terme, nous parlons de milliers d'années, sont désormais connus comme susceptibles de changer la nature même des espèces vivantes, dans un sens qui nous échappe complètement.

Les "travaux pratiques" réalisés, volontairement ou non, à Hiroshima, Nagasaki, Tchernobyl et Fukushima, offrent suffisamment de preuves de la nocivité des rayonnements émis et des désordres organiques engendrés.

Nous ne pouvons plus prétendre ignorer ce danger que nous risquons de faire courir aux générations futures.

Nous ne pouvons pas davantage prétendre ignorer que la dissémination des déchets radioactifs transformera ce risque en certitude à plus ou moins long terme.

C'est pourquoi le cadavre doit être sorti de son placard et la gestion de ces déchets doit devenir un problème central dans une stratégie de préservation du climat, de l'environnement, et de la biodiversité.

L'enfouissement définitif est inacceptable à une époque où l'on exige des emballages biodégradables pour nos aliments. Quel retour en arrière !

L'enfouissement soi-disant réversible n'est pas davantage acceptable.

La sécurité d'un site ne peut être assurée que par une présence permanente assistée de moyens d'intervention.

On imagine l'usage qui pourrait être fait de produits hautement radioactifs qui seraient "récupérables" par des groupes terroristes ou des Etats voyous, à l'occasion de conflits régionaux comme nous en connaissons et en avons connu et en connaîtrons encore tout au long de notre Histoire.

Qui peut dire quelle sera la situation géopolitique de telle région de la Planète en l'an 4015 ? Ou 8 600 ?

Il y a aujourd'hui près de 400 réacteurs nucléaires dans le monde, dont 330 en fonctionnement, les autres arrêtés (provisoirement) ou en attente de démantèlement.

18 Pays sont ainsi "nucléarisés" à des degrés divers, et certains comptent bien ne pas en rester là, surtout si le nucléaire reçoit un accueil favorable de la COP 21.

Qui peut prétendre alors garantir la transmission des informations et les conditions de sécurité sur des dizaines de milliers d'années, connaissant l'instabilité intrinsèque de nos sociétés et de nos systèmes politiques ?

Oublions donc l'enfouissement ( l'enterrement) géologique, qui n'est que le transfert du problème sur les générations futures, sans aucune visibilité sur le maintien des conditions de sureté.

Oublions aussi bien entendu l'immersion dans des fosses océaniques, projet encore plus inconscient s'il en est.

Une éventuelle décision planétaire d'arrêt du nucléaire ne mettrait pas un terme au problème de la gestion des déchets produits par les 400 réacteurs existants, au contraire, elle l'accentuera puisque ces réacteurs devront alors être démantelés à court terme.

Mais alors, que faire ?

Heureusement il existe une autre voie, qui est la transmutation des déchets HAVL en produits à durée de vie courte plus facilement gérables.

Mais cette voie, qui fait l'objet d'importants travaux depuis plusieurs années, présente l'inconvénient de faire appel à une technologie de réacteurs "incinérateurs" de quatrième génération à neutrons rapides, ceux-là même qui sont violemment combattus par les anti-nucléaires.

Encourager cette voie revient à soutenir le programme de développement des réacteurs de quatrième génération, et donc la politique nucléaire en général.

Dans la vie il faut parfois manger son chapeau…

Repost 0
2 août 2015 7 02 /08 /août /2015 19:39

2 Août 2015

La vie d'une INB ( Installation Nucléaire de Base) n'est pas un long fleuve tranquille. La gestation d'une nouvelle série en particulier est semée d'embûches et beaucoup de plâtres sont à essuyer.

Si l'on tolère à la rigueur les défauts de jeunesse d'un nouveau modèle d'automobile, défauts se traduisant par un rappel en concession sans conséquence dramatique, il n'en est pas de même pour une installation nucléaire.

Le public n'accepte pas l'idée d'une centrale nucléaire dont certains composants présenteraient des défauts de fiabilité connus. L'ampleur des conséquences d'un accident lié à un mauvais fonctionnement et/ou à une erreur d'exploitation est telle qu'on ne saurait tolérer le moindre doute sur la qualité du matériel et des hommes chargés de la conception et de la conduite des installations.

Pour le public un composant est bon ou mauvais.

Hélas l'industrie ne peut se satisfaire de ce manichéisme simpliste car le monde réel n'est jamais blanc ou noir. Il n'existe pas de composant, ou de machine, qui ne tomberait jamais en panne. L'ingénieur doit s'efforcer d'atteindre la meilleure qualité possible afin d'obtenir une probabilité de panne la plus faible possible, sachant qu'elle ne sera jamais nulle.

Un composant, ou un système, est alors caractérisé par son aptitude à remplir sa fonction, avec tel degré de confiance, dans tel environnement et pendant telle durée.

Cela s'appelle la fiabilité prévisionnelle.

Et la fiabilité doit se mesurer et s'exprimer avec des chiffres.

Elle s'exprime par l'indication d'un taux prévisionnel maximum de défaillance par unité de temps.

La conception d'un composant ou d'un système s'effectue en fonction d'un cahier des charges qui inclut la ou les fonctions à remplir, mais aussi l'environnement, les contraintes, les tolérances, la durée de vie souhaitée, etc…Et souvent le prix.

Le design intègre alors toute l'expérience accumulée par le constructeur dans le domaine d'application du composant, et son savoir faire en matière de connaissance des matériaux et de maîtrise des innovations technologiques.

Malgré cela il n'est jamais possible de garantir l'absence totale de risque de dysfonctionnement au cours de la vie d'un composant en particulier.

( Le fournisseur qui prendrait un tel engagement ne serait simplement pas pris au sérieux).

L'industriel utilisateur a donc besoin de connaître le nombre d'heures de fonctionnement au-delà duquel la probabilité de dysfonctionnement dépasse un seuil d'acceptabilité.

La fiabilité se mesure sur une collection de composants identiques, elle est une approche statistique de la qualité qui s'exprime alors en probabilité de dysfonctionnement par unité de temps.

Cette connaissance n'est possible que grâce à l'accumulation de données d'expérience sur une fabrication bien maîtrisée.

Le REX ( Retour d'Expérience) est constitué des données relevées in situ sur une longue série de pièces et permettant d'établir une statistique des incidents ayant affecté cette série en cours d'exploitation.

Dans cet esprit, les soupapes de sécurité des réacteurs nucléaires ( entre autres composants) sont l'objet d'un suivi permanent sur plusieurs décennies et sur l'ensemble du parc. Ce suivi permet d'alimenter le REX afin d'une part de disposer d'éléments chiffrés sur la fiabilité in situ, et d'autre part d'améliorer les designs et donc la qualité globale.

Faute de disposer des données du parc nucléaire français (toujours la culture du secret), nous nous sommes tournés vers les Etats Unis dont la technologie électronucléaire est voisine de la notre.

La NRC ( Nuclear Regulatory Commission) est chargée d'établir et de suivre le SPAR ( Standardized Plant Analysis Risk ) applicable à chacune des 104 installations nucléaires du territoire.

Les données sont fournies par l'EPIX ( Equipement Performance and Information eXchange ) et par les LER ( Licensees Events Reports).

Le rapport NUREG/ CR - 7037 étudie le comportement des soupapes de sureté dans les centrales nucléaires, sur une période qui s'étend de 1987 à 2007 ( Rapport publié en 2010).

Tout les dysfonctionnements y sont analysés avec leurs causes et la façon dont les automatismes et/ou l'opérateur ont réagi pour éviter des conséquences fâcheuses. Car il y a bien entendu des moyens et des procédures prévus pour pallier ce genre d'incidents.

Les dysfonctionnements d'une soupape de sureté relevés en opération sont divers:

- Dérive du point de déclenchement.

- Variation de l'hystérésis ( Ecart entre seuil d'ouverture et seuil de fermeture).

- Point d'ouverture hors spécifications .

- Point de fermeture hors spécifications .

- Retard à l'ouverture ou à la fermeture.

- Fuites.

- Corps étranger.

- Etc…

Les résultats permettent de chiffrer statistiquement le niveau de fiabilité de la fonction et donc d'une part d'améliorer la qualité du matériel et d'autre part d'adapter les processus de contrôle en opération.

Le rapport cité porte sur les 104 réacteurs du parc et concerne environ 1800 soupapes utilisées dans la fonction de sureté.

( Chaque réacteur contient de nombreuses soupapes).

Sur la période 1988 à 2006 il a été relevé 402 cas de dysfonctionnement d'une soupape, soit 0,5 par année réacteur.

Dans l'histoire du parc US un seul dysfonctionnement a eu des suites accidentelles, à la centrale de Tree miles Island. Les conséquences de la fusion partielle du cœur ont été limitées à l'enceinte de confinement, du moins officiellement.

Le rapport NUREG montre que les dysfonctionnements de soupapes de sureté ne sont pas exceptionnels, et qu'ils n'entraînent pas nécessairement une catastrophe nucléaire. Leur possibilité est prise en compte dans l'établissement des procédures d'intervention des opérateurs, et des dispositifs redondants pallient les conséquences de ces troubles.

Ces considérations permettent de nuancer le battage médiatique autour du problème relevé sur les soupapes de l'EPR de Flamanville.

Si toutefois il se révélait un problème de design, il vaut mieux l'avoir découvert avant la mise en service de l'installation.

Il n'en demeure pas moins que cette accumulation de problèmes sur un seul réacteur justifie l'inquiétude du public, en général peu enclin à juger de la qualité d'un produit sur des statistiques de production mais plutôt sur l'exemplaire qu'il vient d'acquérir.

Surtout quand l'exemplaire en question lui a déjà coûté huit milliards…

Repost 0
31 juillet 2015 5 31 /07 /juillet /2015 19:04

31 Juillet 2015

Nos trente millions d'automobiles rejettent en pure perte chaque année dans l'atmosphère l'équivalent de 230 TWh sous forme de chaleur.

C'est l'équivalent de la production de 30 réacteurs nucléaires.

Pour ceux que l'énormité du chiffre pourraient faire douter, rappelons que la combustion d'un litre de carburant libère 10 kWh d'énergie, que nous consommons chaque année dans nos autos 29 Milliards de litres* et que le rendement moyen de nos moteurs ne dépasse que péniblement 20%.

* 30 millions de voitures consommant en moyenne 7,5 L/100 pour une distance annuelle moyenne de 12 500 km, sources ADEME et CCFA.

Cette chaleur intégralement perdue, outre qu'elle contribue significativement et directement au réchauffement climatique* ( en plus du CO2 qui agit sur l'effet de serre ), est un gaspillage désormais intolérable en ces temps de disette énergétique et de catastrophe climatique annoncées.

* La chaleur perdue lors de la combustion des carburants fossiles représente à l'échelle mondiale un flux énergétique régulier qui contribue d'une manière non négligeable au réchauffement de l'Atmosphère en s'ajoutant au flux énergétique interne "naturel" du globe et donc en modifiant son bilan énergétique.

230 TWh, cela fait environ 8 MWh par foyer, et davantage pour ceux qui possèdent plusieurs voitures.

8 MWh, c'est largement suffisant pour alimenter en énergie un logement "normal", chauffage et eau chaude compris.

Il est donc légitime de s'interroger sur l'opportunité de mettre fin à cette gabegie.

Dans un moteur thermique, environ 66% de l'énergie de combustion est dissipée sous forme de chaleur .

45% sont évacués par l'échappement, 20% par le radiateur et le bloc moteur.

De nombreuses tentatives de récupération de cette chaleur perdue sont décrites dans la littérature.

On y trouve le moteur Stirling, mais aussi le "TurboSteamer" de BMW et de Robert Bosch, et plus récemment le dispositif à effet Seebeck de la firme Gentherm développé avec l'équipementier Tenneco et les constructeurs BMW et Ford. Des premières applications sont prévues pour avant 2020.

Tout bouleversement technologique comporte un coût. En matière de motorisation automobile, rien de significatif ne pourra être réalisé tant que les carburants fossiles resteront disponibles en quantités illimitées et pour un coût encore gérable.

Par "coût" nous entendons le prix du produit lui-même auquel viennent s'ajouter des taxes diverses dont le montant est modulé par le Gouvernement selon sa politique énergétique. En France ces taxes sont regroupées sous l'appellation CSPE ( ex TIPP), qui s'ajoute à la TVA.

A ces taxes "génériques" peuvent venir s'ajouter des taxes spéciales, par exemple sur les émissions de CO2 ou d'autres à inventer, notamment sur la pollution ( le CO2 n'étant pas lui-même un gaz polluant).

En période de stabilité des prix du pétrole, ce qui est le cas aujourd'hui, le Gouvernement peut augmenter les taxes sur les produits pétroliers pour leur faire supporter une partie de la charge du développement des énergies renouvelables. Ce qui doit être fait prochainement si nos informations sont exactes.

Par ailleurs, grâce aux normes Européennes, les performances des moteurs thermiques sont améliorées, conduisant en théorie à une baisse des consommations et donc également des pertes thermiques associées, à puissance mécanique égale. Malheureusement les tests de qualification des nouveaux modèles de voitures sont peu représentatifs des résultats obtenus sur le terrain, et les consommations réelles ne reflètent pas les progrès que l'on pourrait espérer à la lecture des résultats officiels.

Nous avons déjà évoqué ce problème dans un précédent article. Il pourrait être en partie résolu avec la mise en application de la nouvelle norme de mesure des consommations homologuées, à condition que les constructeurs ne trouvent pas un nouveau moyen de biaiser les résultats…

De plus, la taxation des émissions de CO2 tente de dissuader les achats de véhicules trop gourmands et d’accélérer le renouvellement du parc vers des modèles plus vertueux, le tout sans grand succès hélas.

Beaucoup d'espoirs ont été placés dans la voiture électrique, qui résout élégamment le problème des pertes thermiques, du moins sur le papier.

En effet encore faut-il que l'électricité utilisée soit produite, transportée, stockée, puis mise en œuvre par des procédés dont le rendement de chaîne soit supérieur à celui du moteur thermique, ce qui n'est pas évident à priori. Et il va de soi que la production de cette électricité doit être renouvelable.

De plus le passage massif à la motorisation électrique se heurte aux problèmes d'autonomie des batteries et d'absence de réseau de rechargement. Problèmes qui ne semblent pas pouvoir être résolus avant une ou deux décennies, s'ils le sont un jour...

Le moteur thermique a donc encore de "beaux" jours devant lui, soit comme motorisation unique, soit dans une motorisation hybride.

La récupération d'une partie au moins de la chaleur perdue n'est donc pas un objectif utopique.

On parle alors de "cogénération".

La cogénération est déjà mise en œuvre dans certaines centrales électriques, et même quelques chaudières domestiques.

Son extension aux automobiles se heurte au problèmes de coût et d'encombrement.

Une des applications les plus simples consiste à d'utiliser les gaz d'échappement comme source de chaleur pour obtenir de la vapeur sous pression susceptible d'actionner une turbine couplée à un générateur électrique. Schéma que l'on retrouve dans toutes les centrales électriques y compris nucléaires.

Un tel système ne peut être efficace que dans une voiture hybride, seule à même d'utiliser l'électricité ainsi produite. On arrive alors à une architecture complexe et coûteuse qui ne peut être justifiée que dans un contexte de coût de carburant élevé, qu'il soit d'origine fossile ou renouvelable ( Biocarburant).

Quoi qu'il en soit, ces architectures complexes seront imposées par les normes européennes qui exigent toujours plus de sobriété énergétique pour moins d'émissions de CO2.

La voiture tout électrique ( plus simple et moins coûteuse ?) ne remplacera l'hybride qu'à deux conditions: obtenir une meilleure autonomie et disposer d'un réseau de bornes de rechargement rapide. Conditions que la technologie ne permet pas de remplir aujourd'hui.

La voiture à Hydrogène et pile à combustible semble satisfaire plus facilement ces deux conditions, du moins sur le papier…

Nous devrons probablement vivre encore longtemps avec le moteur thermique, même après la fin du pétrole, qui sera facilement remplacé par des biocarburants.

La récupération de la chaleur gaspillée par nos voitures sera donc le prochain challenge de l'industrie automobile.

Repost 0
28 juillet 2015 2 28 /07 /juillet /2015 18:58

28 Juillet 2015

La France accueillera la COP 21 en Décembre. Cette échéance est importante car il s'agit cette fois non plus de parlotes mais bien de décisions sur lesquelles les 196 Etats participants devront s'engager.

C'est du moins l'esprit de ce meeting.

L'objectif est d'obtenir un accord juridiquement contraignant pour tenter de maintenir le réchauffement climatique en dessous de 2 °C.

25 000 délégués officiels seront réunis à Paris dans ce but.

Bien sûr les sceptiques ne manqueront pas de rappeler que moult réunions du même genre se sont déjà tenues dans un passé récent ( 20 depuis 1995, sans compter les conférences périphériques) dont il n'est jamais rien sorti de consistant, ou si peu...

Par le nombre extravagant des participants ( On parle de 40 000, plus 3000 journalistes) cette 21è conférence s'apparente plus à un jamboree qu'à un groupe de travail.

Le peu de résultats acquis précédemment ne doit cependant pas inciter à jeter le bébé avec l'eau du bain. Peut-être suffit-il de changer l'eau ou d'y ajouter quelque ingrédient régénérateur, il semble que telle est la démarche entreprise.

Chaque Etat participant est donc prié d'arriver avec des propositions d'engagements concrètes et si possible des preuves de réalisations déjà obtenues ou d'actions entreprises.

En tant que puissance invitante, la France se doit de donner l'exemple et de présenter un dossier solide et crédible. Nos représentants, et le chef de l'Etat en particulier, en sont pleinement conscients, du moins on l'espère.

L'époque est donc révolue des programmes mirifiques dont la réalisation est reportée aux calendes grecques. L'horizon 2030, voire même 2050, ne fait plus rêver personne, il faut maintenant présenter des décisions arrêtées, des programmes en cours, des financements clairement identifiés, des modèles économiques solidement construits.

Logiquement le sujet central sera la transition énergétique, puisque le réchauffement du climat est attribué pour l'essentiel à la consommation frénétique des énergies fossiles.

Or en ce domaine la France présente un tableau peu glorieux qu'il sera difficile de valoriser et de présenter comme un exemple à suivre.

Notre Président devra faire appel à toutes ses ressources diplomatiques, qui sont certes grandes, pour réussir à vendre la peau d'un ours dont jusqu'à présent personne n'a encore vu une oreille.

A des projets papier nous promettant pour 2050 un monde décarboné, dépollué, désintoxiqué du pétrole, il serait facile d'opposer des constats d'actualité prouvant le peu de crédibilité dans la volonté réelle de faire changer les choses.

Comment justifier des situations comme celles-ci :

- Disposer du plus vaste littoral maritime, sans une seule éolienne offshore, alors que notre voisin allemand, peu gâté en matière de littoral, en possède déjà des centaines.

- Annoncer une baisse de la part de l'électronucléaire à 50% de la production électrique, sans pouvoir annoncer l'objectif de cette production.

- Se poser en champion des énergies renouvelables et dans le même temps développer une filière électronucléaire nouvelle.

- Annoncer un programme de rénovation thermique des bâtiments à hauteur de 500 000 logements par an sans avoir identifié le modèle économique de financement.

- Combattre le diesel au nom de la lutte contre le CO2 alors que les véhicules diesel n'émettent pas plus de CO2 que les véhicules à essence, voire moins ( 10% de moins en général ).

- Prôner l'usage du véhicule électrique et n'offrir encore que 600 prises de recharge rapide pour un parc de 30 millions de voitures.

- Promouvoir des transports propres et dans le même temps annoncer le remplacement de certaines liaisons ferroviaires par des autocars, diesel bien entendu.

- Promettre des "ZAPA" sans se donner les moyens de les mettre en service.

- Etc…

Il faudra l'adresse d'un prestidigitateur pour transformer ces vessies en lanternes et obtenir les applaudissements du public.

A l'échelon planétaire la lutte contre le réchauffement est un challenge de très haut niveau.

Si l'on accepte la relation de cause à effet entre la consommation d'énergies fossiles et le réchauffement, la solution évidente réside dans une décroissance de cette consommation, avec un objectif de réduction drastique impliquant même le renoncement à court terme aux réserves existantes.

Hors de ce douloureux choix il n'y a point de salut.

Il semble que notre ministre ait eu la même idée puisqu'il court des rumeurs de surtaxation prochaine des carburants routiers. Il serait effectivement de la première logique de faire supporter le financement des énergies nouvelles par les énergies fossiles que l'on prétend combattre, et non pas par l'électricité qui est le carburant de l'avenir. La CSPE n'est-elle pas faite pour cela ?

Le renoncement aux énergies fossiles doit intervenir alors que, par ailleurs, les besoins énergétiques des pays émergents sont croissants.

Si les pays développés peuvent, à la rigueur, supporter le coût d'une transition énergétique, fut-ce au prix de quelques "sacrifices" consentis grâce à la perspective de beaux retours sur investissements, les autres pays, qui peinent déjà à garder la tête hors de l'eau, ne pourront accéder au monde décarboné qu'avec des aides financières plus que substantielles.

Ils ont d'ailleurs déjà annoncé la couleur…

Le principal challenge de la COP21 sera d'obtenir et de gérer ce financement, qui s'annonce colossal.

Le second volet de la COP21 est l'engagement des Etats sur un programme de mitigation des effets du réchauffement.

Ces effets, déjà largement identifiés et médiatisés pour l'édification des foules, sont annoncés par le GIEC comme ceux d'une catastrophe cosmique dont l'ampleur sera à la mesure de l'importance du réchauffement. Deux degrés seront paraît-il gérables, cinq degrés et nous n'y réchapperont pas, du moins en tant que civilisation.

Le laisser-aller n'est donc plus de mise.

Sur le front de la lutte contre les énergies fossiles la situation actuelle est peu encourageante:

Selon les prévisions de l'EIA International Energy Outlook 2013, la consommation mondiale du trio pétrole-charbon-Gaz naturel aura augmenté de 30% en 2030 par rapport à 2010, et ceci malgré une augmentation concomitante de 66% des énergies renouvelables et de 100% de l'électronucléaire.

On mesure à ces chiffres l'ampleur de la tâche qui attend les "régulateurs" de la COP21 face à cet appétit vorace de peuples qui veulent désormais obtenir des standards de vie décents comparables à ceux des pays de l'OCDE, et qui les en blâmerait ?

Les pays de l'OCDE ne représentent aujourd'hui que 18% de la population mondiale, et 13% en 2050 lorsque nous serons 9 Milliards sur la planète.

Il ne suffira pas que ces 13% là adoptent un comportement énergétique vertueux, la face du climat n'en serait pas significativement changée. Ce sont bien les autres 87% qui devront être tenus à bout de bras pour les dissuader de suivre le même chemin qui nous a conduit à cette impasse.

Tel est le défi qui attend les participants à la COP 21.

Repost 0
22 juin 2015 1 22 /06 /juin /2015 17:23

22 Juin 2015

L’ire des antinucléaires se focalise sur l’EPR de Flamanville qui, il faut bien le reconnaître, y met beaucoup du sien.

Il y a peu c’était la cuve elle-même et son couvercle qui faisaient la une des gazettes.

Louons au passage cette transparence nouvelle qui permet au grand public d’être informé quasiment en temps réel des aléas du chantier, il n’en fut pas toujours ainsi dans le passé. Faut-il en remercier Internet ou bien faut-il saluer une réelle volonté de communication sur la chose nucléaire?

Probablement un peu les deux.

Aujourd’hui les annonces alarmistes concernent certaine soupape de sureté du pressuriseur qui manifesterait une volonté d’indépendance de très mauvais aloi dans un milieu où tout doit être sous contrôle et se comporter selon un cahier des charges rigoureux.

Lancer une alerte, c’est bien. Mais condamner avant d’avoir instruit le dossier, c’est de la justice expéditive.

Il paraît qu’il y aurait beaucoup à dire sur les fameuses soupapes, mais assez curieusement les média n’en disent rien et se bornent à proférer une condamnation de l'ensemble de la filière nucléaire.

Il est vrai que la suppression des juges d’instruction est dans l’air du temps, du moins chez certains…

Il nous a paru nécessaire de rectifier cette négligence en tentant d’apporter quelques éclaircissements sur ces fameuse soupapes dont les soubresauts sont pain béni pour les antinucléaires, et certains autres qui ne sont pas mécontents d’avoir du grain à moudre pour régler quelques comptes entre gentlemen ( et gentlewoman) de l’énergie en général et du nucléaire en particulier. De quoi également fournir quelque arguments supplémentaires au dossier de passation de pouvoir de AREVA à EDF, s’il en était besoin.

Il faut dire que ces soupapes, ou leurs sœurs, sont à l'origine de l'accident de three mile Island qui a marqué les esprits et a été à l'origine d'une prise de conscience du milieu du nucléaire civil qui, jusque là, baignait dans la tranquille certitude de maîtriser tous les risques possibles.

Tchernobyl et Fukushima ont achevé le travail de prise de conscience entamé par Three Mile Island (TMI) ; aujourd'hui la communication autour de la sécurité nucléaire se fait sur un mode plus modeste, chat échaudé craint l'eau froide.

Certains accidents, autrefois considérés impossibles, sont maintenant pris en compte dans la conception des installations électronucléaires.

Par son statut exemplaire, l'affaire de TMI vaut d'être contée.

A la suite d'un banal incident de conduite d'un réacteur, une soupape de dépressurisation fut ouverte, opération conforme à la procédure et qui permet de gérer une surpression passagère en évacuant un peu de fluide primaire dans un réservoir ad-hoc, le tout à l'intérieur de l'enceinte de confinement. A la suite de quoi la soupape reçoit un ordre de fermeture auquel elle est censée obéir.

En l'occurrence, le voyant de confirmation de l'ordre de fermeture s'est bien allumé, mais la soupape est restée ouverte, entraînant la vidange du circuit primaire ! Le responsable de la conduite du réacteur, persuadé que la soupape était bien refermée, a été induit en erreur pour la suite des procédures, ce qui à conduit à une perte de réfrigérant primaire suivi de la fusion partielle du cœur, le pire qui puisse arriver.

Il faut dire qu'en plus le système de vérification du niveau de réfrigérant primaire dans le pressuriseur laissait à désirer, accentuant la confusion du contrôleur impuissant à éviter la catastrophe.

Cet accident, le premier du genre, a eu l'effet d'un électrochoc. Des dizaines de milliers de personnes ont été évacuées, heureusement pour rien puisque les dégâts sont restés à l'intérieur de l'enceinte de confinement.

On a du déplorer tout de même quelques dizaines de fausses couches déclenchées par la panique.

Cette affaire a permis de prendre conscience du rôle clé de ces fameuses soupapes dans la chaîne de sureté du fonctionnement d'un réacteur.

La façon de penser la sécurité a été remise en question et les procédures actuelles et l'architecture des composants sont censés garantir un niveau de sureté accru.

Par exemple il n'est plus acceptable de se contenter de vérifier qu'un ordre a bien été transmis, mais on exige de recevoir un signal confirmant que l'ordre a bien été physiquement exécuté ( Ces deux conditions n'étaient pas remplies à Three Mile Island).

Il ne suffit pas de savoir que l'ordre de fermer une soupape a bien été envoyé, il faut pouvoir constater que la soupape s'est effectivement mécaniquement fermée.

Il est assez curieux que cette règle, bien connue et appliquée depuis des lustres dans l'industrie, n'ait pas été intégrée par principe au sein de certains matériels nucléaires.

N’ayant pas la science infuse, nous puiseront les éléments du dossier à la source, c’est-à-dire dans le rapport de réunion du 13 Février 2015 à laquelle participait ASN/DEP - ASN/DCN -IRSN sur le sujet des soupapes de sureté du pressuriseur équipant le réacteur EPR-FA3, celui de Flamanville précisément.

Rapport accessible ici:

http://sciences.blogs.liberation.fr/files/soupapes-pr%C3%A9sentation-irsn.pdf

Voir également:

http://www.edf.com/html/epr/rps/chap05/chap05.pdf

Sans entrer dans des détails qui nous entraîneraient trop loin, il est bon de décrire brièvement les circonstances de l’affaire:

La chaleur dégagée par la réaction nucléaire dans la chaudière du réacteur (La cuve) est évacuée par un fluide caloporteur qui est de l’eau en phase liquide. Cette eau est à une pression de # 150 kg et une température de # 300 °C pour un débit équivalent à celui d’un petit cours d’eau, débit entretenu par d’énormes pompes.

Cette chaleur est transmise aux générateurs de vapeur grâce à des échangeurs, puis ladite vapeur actionne une turbine couplée à un alternateur qui fournit de l’électricité.

L’énergie transmise par le fluide caloporteur est proportionnelle au produit du débit par la température du fluide ( pour faire simple). Pour cela il faut conjuguer un débit très élevé, équivalent à celui d’un petit fleuve, et une température élevée, ici # 300 °C.

La pression doit être maintenue au-dessus de la valeur de transition de phase car il est essentiel que l’eau reste en phase liquide en toutes circonstances, sinon l’apparition de bulles nuirait au refroidissement du combustible et conduirait à un accident majeur par surchauffe et fusion du cœur.

C’est le rôle d’un organe appelé pressuriseur, que l’on pourrait assimiler vaguement au vase d’expansion d’une automobile, mais en beaucoup plus sophistiqué comme on peut s’en douter.

Ce « vase d’expansion » est un énorme réservoir de 75 m3 en acier, pour une longueur de 14m, un diamètre de 2,80 m, et un poids de 225 tonnes en charge.

Il joue un rôle majeur dans le bon fonctionnement de l’ensemble. Il remplit plusieurs fonctions:

- Il assure la protection du circuit primaire contre les surpressions grâce à des soupapes de sureté.

- Il absorbe les variation de volume liées aux variations de température du fluide.

- Il assure le maintien du fluide en phase liquide grâce au contrôle de l’équilibre entre phase liquide et phase gazeuse réalisé à l’intérieur du pressuriseur. Pour cela le liquide peut être chauffé par des résistances, comme un cumulus, et la phase gazeuse peut recevoir des pulvérisations d’eau « froide » pour l’effet contraire.

Sur les réacteurs REP du parc existant (58 réacteurs) La sécurité du système comporte trois lignes de protection contre les surpressions et une ligne pour les vannes de dépressurisation en cas d’accident grave, chaque dispositif étant raccordé au pressuriseur par une tubulure propre.

Les trois soupapes de sécurité ont une capacité de décharge de 300 Tonnes/h de vapeur saturée à 176 bar.

Elles sont tarées à des valeurs de seuils différentes, correspondant à des incidents de surpression de gravités différentes.

Les vannes de dépressurisation en cas d’accident grave ont une capacité de 900 Tonnes/h de vapeur saturée à 176 bar.

Sur le parc actuel de réacteurs REP ces soupapes sont fournies par la société WEIR Power & Industrials ( Robinetterie SEBIM) avec des résultats satisfaisants et un retour sur expérience (REX) très important.

Le réacteur EPR ( European Pressurized water Reactor) est comme son nom l'indique une collaboration européenne, essentiellement franco-allemande. Il était donc logique d'utiliser des composants européens dans la mesure du possible.

SEMPELL AG ( Société allemande) a donc été retenue pour la fourniture des soupapes de sécurité. Cette société a fourni les soupapes des réacteurs du parc allemand et possède donc la compétence et l'expérience requise.

Par contre, AREVA ayant imposé une modification du design de la soupape, le retour d'expérience acquis sur le modèle initial n'est pas utilisable. Une requalification est donc requise.

C'est pourquoi l'ASN s'est penchée avec attention sur ce composant dont dépend la sécurité du réacteur.

Le compte rendu de la réunion citée ci-dessus contient essentiellement une comparaison des deux concepts de soupape, celui de SEBIM et celui de SEMPELL.

Les différences y sont détaillées et le spécialiste pourra se faire son opinion.

Les principales observations de l'IRSN relativement au concept SEMPELL sont les suivantes:

"

- Suite à la modification technologique demandée par AREVA, le retour d'expérience (REX) allemand n'est pas applicable.

- AREVA ne possède pas d'expertise dans ce domaine.

- Le concept SEMPELL est complexe et comporte un grand nombre de joints et de liaisons vissées.

- Le système de ressort à rondelles Belleville provoque un fonctionnement saccadé.

- La fenêtre d'ouverture de la soupape SEMPELL est très large ( 33 bar) contre 6 bar pour la soupape SEBIM.

Les essais de qualification et de robustesse ont conduit aux conclusions suivante de l'IRSN:

- Risques de fuites de fluide primaire.

- Risques d'échec à l'ouverture et/ou à la refermeture ( observés au cours des essais).

- Risques d'ouverture intempestive.

- Risques d'ouverture prématurée.

- Risques d'ouverture retardée avec risque de dépassement de la pression de seuil.

- Modes de défaillance multiples.

- Il existe des états possibles du pilote qui génèrent un dysfonctionnement de la soupape principale.

Les essais de qualification sont non probants à l'heure actuelle.

"

Il apparaît donc que le concept SEMPELL modifié est pour le moins suspecté de fonctionnement peu sur, en tous cas pas assez sur pour recevoir une qualification sur l'EPR.

Les "anomalies" notées par l'IRSN révèlent des lacunes dans la conception du produit et dans les procédures de qualification usine.

Il paraît difficile, à partir d'un tel constat de l'IRSN, de trouver une argumentation justifiant de passer outre et de déclarer le produit "bon pour le service" .

A tout le moins un longue phase de mise au point technologique s'impose pour améliorer le fonctionnement du système et le qualifier.

L'autre solution pourrait être le retour au concept classique éprouvé sur le parc actuel…

Repost 0
12 juin 2015 5 12 /06 /juin /2015 11:56

12 Juin 2015

Les panneaux photovoltaïques intégrés aux toitures constituent une solution technique déplorable pour les raisons suivantes:

La production maximale d’un panneau est obtenue lorsque les rayons solaire sont perpendiculaires au plan du panneau, ce qui ne peut être réalisé qu’en orientant automatiquement le panneau en fonction de la course du Soleil ( Tracking solaire à deux axes, genre héliostat). Le toit d’un bâtiment étant évidemment fixe, la condition optimale ne sera jamais réalisée, sinon par hasard une fois par an ! Or dans nos régions tempérées la perte de production par rapport à l’optimal peut atteindre 45% voire plus.

Le photovoltaïque intégré au toit est ainsi la seule technologie dans laquelle un tel gâchis est toléré, et qui plus est financé par l’Etat qui achète l’électricité ainsi produite !

Mais ce n’est pas tout. Le matériau photovoltaïque est conçu pour absorber le maximum d’énergie solaire afin de délivrer le maximum de courant; il y a donc très peu d’énergie réfléchie. La transformation de l’énergie solaire en électricité s’effectue avec un rendement très faible, de l’ordre de 15% à 25 °C jonction pour les meilleurs panneaux. Le reste de l’énergie reçue est dissipé en chaleur dans le matériau et la température de jonction augmente considérablement si le panneau est mal refroidi, ce qui est le cas d’une installation intégrée au toit car la ventilation est très mauvaise, voire inexistante. Le rendement R du matériau photovoltaïque décroît quand la température augmente, réduisant ainsi les performances. La perte de rendement est en moyenne de 0,4 % par °C :

R = Ro x 0,996 Exp ( dT)

Un rendement de 15% à 25°C se trouve réduit à 12,5% à 70°C jonction, et 11% à 90 °C, ce qui n’est pas rare en été. Avec un panneau mal ventilé la température de jonction peut atteindre 100°C, et la limite opérationnelle de 90°C est dépassée. ( Ces conditions sont courantes en été dans le Sud de la France en absence de vent).

Par ailleurs la durée de vie des panneaux est raccourcie pour ces températures élevées, ce que prouvent les essais de vieillissement accéléré.

Enfin les panneaux sur toitures sont en permanence exposées aux intempéries, et ne disposent d’aucun dispositif de protection.

Ajoutons l’inconvénient supplémentaire d’une installation qui nécessite des modifications de charpente et de couverture avec les problèmes d’étanchéité associés, et la complexité ( et le coût) des interventions en hauteur pour l’entretien et la maintenance.

Ce système est cependant largement répandu car il a la réputation ( jamais démontrée) d’être un placement financier sûr en raison du tarif de rachat garanti par le fournisseur d’énergie. Il s’agit alors d’exploiter un effet d’aubaine financière plutôt que de faire œuvre écologique.

La manière écologique de construire une installation solaire est celle qui vise à obtenir la production maximale de la surface consacrée au captage de l’énergie, tout en préservant la durée de vie du matériau. L’énergie solaire reçue sur une surface donnée doit être entièrement convertie en électricité et/ou en chaleur « noble ».

Les installations solaires « sérieuses » mettent en œuvre des procédés qui minimisent les inconvénients cités plus haut. Le minimum est de ménager la possibilité d’une bonne ventilation naturelle ou artificielle par circulation de fluide ( panneaux hybrides). La production est grandement améliorée par l’adjonction d’un système de tracking solaire.

Aujourd’hui les installations photovoltaïques domestiques sont conçues dans un but de profit financier, l’efficacité énergétique passant au second plan. Peut importe le rendement pourvu que le bilan financier global soit positif grâce au prix de rachat avantageux.

Demain l’autosuffisance énergétique sera recherchée, il faudra justifier d’un minimum d’efficacité énergétique en affichant une production d’électricité et/ou de chaleur respectant un seuil d’équivalent kWh annuels par m2 de sol occupé. Vis-à-vis de l’énergie solaire la ressource est constituée par des m2 disponibles. Leur nombre étant limité, leur utilisation devra être optimale.

Aujourd’hui le prix de l’électricité de réseau au tarif réglementé est l’un des plus bas d’Europe. Demain cette énergie devra être vendue à son prix réel, c’est-à-dire pour l’électricité deux ou trois fois le prix actuel. Rechercher l’autosuffisance énergétique ne sera alors plus seulement un acte écologique mais une démarche de saine gestion, car le prix des installations photovoltaïques ne peut que baisser dans l’avenir. Il sera alors important de tirer le maximum de cette technologie car les mètres carrés disponibles sont limités.

Une alternative aux classiques panneaux intégrés aux toitures est proposée par une start-up Autrichienne ( Encolution) dont les produits sont distribués en exclusivité par EDF-ENR, il s’agit du concept Smart-Flower.

Le « Smart Flower » est un dispositif autonome plug and play qui comporte 12 panneaux en forme de pétales de fleur disposés autour d’un axe qui leur permet de se déplier à la façon d’un éventail. Une fois déplié l’ensemble présente une surface circulaire de 4,80 m de diamètre pour une surface active de 18 m2 environ pour une puissance de 2,7 kWc. L’axe de la « fleur » est fixé au sommet d’un pilier de 3,40 m de hauteur et peut être orienté ( motorisé) pour maintenir la surface des « pétales » perpendiculaire aux rayons solaires. En cas de nécessité les pétales se replient et se placent automatiquement dans un coffre abri.

Cette disposition supprime donc tous les inconvénients des panneaux fixes sur toitures et présente une esthétique plus acceptable. De plus l’entretien et la maintenance sont facilités par un dispositif automatique de nettoyage. La pose est simplifiée puisque la machine est livrée complète incluant l’onduleur et qu’il suffit de la fixer au sol ( Un petit socle en béton et quatre boulons) et de la raccorder à l’installation domestique. En cas de déménagement l’appareil se transporte aisément.

Pour une puissance crête comparable à celle d’une installation intégrée en toiture, la production est supérieure de 40% grâce au tracking solaire et à un meilleur refroidissement des panneaux. Il s’agit d’un exemple intéressant de ce qu’il est possible de proposer en relève ou en complément des solutions classiques intégrées aux toitures.

Une autre solution permettant d’améliorer significativement le rendement énergétique consiste à utiliser des panneaux hybrides. Ces panneaux intègrent une surface photovoltaïque refroidie par la circulation d’un fluide caloporteur qui recueille la chaleur normalement perdue dans l’Atmosphère. Cette chaleur est transférée à un ballon pour usages ECS ou chauffage. De plus la production des panneaux PV est améliorée grâce au contrôle de la température des cellules par le fluide de refroidissement. Le rendement énergétique global de cette cogénération atteint plus de 60% contre 12 à 13% pour un panneau classique bien souvent surchauffé.

Nul doute que ces solutions, et d’autres, remplaceront dans l’avenir les solutions actuelles peu efficaces énergétiquement.

Repost 0