Overblog Suivre ce blog
Administration Créer mon blog
22 mai 2015 5 22 /05 /mai /2015 14:45

22 Mai 2015

Nous avons vu précédemment ( Article du 17 Mai ) que l’EPR aura une capacité de production annuelle de 13 TWh.

Pour lui substituer un parc éolien offshore de production équivalente, la puissance nominale cumulée des machines devraient être de 4 370 MW. ( sur la base d’un facteur de charge de 0,34 qui est celui constaté sur les parcs offshore existants en Mer du Nord).

Le nec-plus-ultra de cette technologie permet ( permettra) de construire des machines de 8 MW (nominal). Il en faudrait donc 546 pour produire annuellement autant qu’un seul EPR.

Aujourd’hui sont exploitées des machines de 5 MW ( Europe du Nord). Hormis le coût, dont nous avons déjà évoqué l’énormité, ces machines occuperont beaucoup de place. Selon les standards observés en Europe du Nord, les machines sont écartées de 500m en largeur et 800m en profondeur ( par rapport au lit moyen du vent), soit une surface de 250 km2 ( 30 km x 8 km ) pour notre exemple de 546 machines.

Un tel parc couvrirait largement la totalité de la baie du Mont Saint-Michel !

Nous avons vu également que, dans une première étape du retrait du nucléaire, il faudrait arrêter une vingtaine de réacteurs anciens. Leur remplacement par des fermes éoliennes offshore conduirait à installer douze parcs de 546 machines chacun. Ce n’est donc plus 30 km de littoral qui seraient « occupés », mais bien 360 km.

Et pour une production annuelle qui ne dépasserait pas 15% de notre consommation électrique interne.

Cette simulation montre à l’évidence que l’avenir de l’éolien offshore n’est pas dans l’invasion du littoral par un « mur de l’Atlantique » qui perturberait de manière intolérable la vie des professionnels de la mer et l’attrait touristique de centaines de kilomètres d’un littoral qui contribue majoritairement dans le budget du pays.

Mais alors, que faire ?

La seule solution consiste à repousser ces parcs encombrants en haute mer, dans des zones hors des routes maritimes évidemment, ce qui implique des installations flottantes, dépourvues d’ancrage matériel, positionnées de manière géostationnaire par un système de navigation automatique. ( Au-delà d’une profondeur de 50m il devient très difficile d’envisager un ancrage sur le fond).

Cette nécessaire mutation n’a bien sûr pas échappé aux industriels de la chose, qui ont dans leurs cartons, voire même déjà in situ en mer, des « plateformes » éoliennes flottantes en cours de mise au point.

Aujourd’hui il n’existe encore en Europe aucun parc industriel éolien équipé de machines flottantes, seuls quelques démonstrateurs sont en cours d’évaluation. En France, la Société NENUPHAR expérimente un prototype d’éolienne flottante à axe vertical, qui fait partie d’un projet ( VERTIMED) d’une ferme offshore comportant 13 machines « Vertiwind » de 2,3 MW pour une puissance totale installée de 30 MW. Le calendrier prévoit la mise en service en 2018. Les partenaires du projet sont EDF-EN, AREVA et TECHNIP. Le coût est évalué à 130 Millions, soit 4,3 Millions par MW. Cette activité, qui fait partie du projet Européen INFLOW , est dotée d’un financement Européen participatif de 35 Millions d’euros dans le cadre du dispositif NER 300.

Cette technologie est fort onéreuse, mais probablement incontournable à terme si les besoins électriques restent importants et dans l’hypothèse d’un nucléaire en forte baisse, et d’énergie fossile sérieusement remise en question.

Un problème est d’installer des éoliennes flottantes à positionnement automatique, un autre problème est d’acheminer le courant produit vers la terre. La profondeur, la houle, la nécessité d’enterrer les câbles, la distance à la côte, constituent autant d’obstacles et de sources d’accroissement des coûts.

Une autre solution consisterait à transformer sur place l’électricité produite en Hydrogène par électrolyse de l’eau de mer, et transporter ce gaz par gazoducs ou navires gaziers.

Nos voisins Allemands ont commencé à développer l’éolien offshore il y a plus de dix ans. Leurs réalisations constituent donc un exemple de ce que l’on peut faire, et éventuellement ne pas faire. L’exiguïté de leur littoral en mer du Nord, l’impossibilité d’envahir les accès maritimes de Bremerhaven et Willelmshaven, et la nécessité de préserver l’environnement les a contraints de repousser les parcs éoliens le plus loin possible, jusqu’à 100 km de la terre pour certains.

La « baie Allemande » n’est pas large, et les routes maritimes d’accès doivent être préservées. Bien que le littoral de Bremerhaven ne reçoive pas la fréquentation touristique de l’Ile de Ré, l’environnement doit y être protégé. Le littoral allemand de la mer Baltique sera également mis à contribution pour l’extension des zones éoliennes.

Actuellement les parcs allemands de la Mer du Nord raccordés ou en passe de l’être en 2015 représentent une puissance nominale d’environ 3000 MW. Cette puissance est assurée par 600 machines de 5 MW. ( Les nouvelles machines de 8 MW ne sont pas encore en service).

La production de cet ensemble ne représente environ que 68 % de celle d’un seul réacteur EPR. La surface maritime occupée est de l’ordre de 350 km2. La profondeur de la Mer du Nord est faible, à 100 km de la terre les fonds ne dépassent pas 40 m, permettant encore l’ancrage des machines.

L’extension des parcs est donc relativement aisée, sauf en matière de transport de l’électricité, qui constitue un problème à la fois technique et de coût ( pour éviter la destruction des câbles par les engins de pêche, il faut les enterrer ).Les derniers parcs utilisent le courant continu pour les raccordements, qui nécessitent des stations de conversion très onéreuses.

La préparation d’un projet d’éolien offshore inclut une longue et difficile phase d’études et de concertations dans le but d’assurer le respect des divers usages de la mer:

- Navigation maritime commerciale.

- Navigation aérienne ( les éoliennes de 8 MW atteignent plus de 200m ).

- Pêche professionnelle.

- Production d’électricité éolienne.

- Production d’électricité à partir de la houle et/ou des courants.

- Activités d’immersion et d’extraction de granulats.

- Protection de l’environnement et de la biodiversité.

- Réserves naturelles.

- Tourisme maritime et littoral.

- Protection des patrimoines littoraux.

- Aquaculture.

- Contrôle et gestion de la sécurité maritime.

Les enquêtes d’utilité publique montrent qu’il est pratiquement impossible de concilier ces intérêts très divers, parfois opposés, lorsque les projets concernent une implantation proche d’un littoral fortement peuplé et fréquenté par une activité maritime et touristique intenses, ce qui est le cas d’une grande partie du littoral français.

Le fort développement de l’éolien offshore ne peut donc s’envisager que dans des zones si possible neutres vis-à-vis des autres activités, et suffisamment éloignées des côtes.

Ce procédé de production d’électricité, qui semble aller de soi en raison de son rendement élevé par rapport à l’éolien terrestre, cumule en fait de nombreux inconvénients qui peuvent à terme compromettre son extension. Sa future part dans la production nationale d’électricité peut s’en trouver réduite très en dessous des prévisions stratégiques.

L’éolien terrestre n’a peut-être pas dit son dernier mot…

Repost 0
17 mai 2015 7 17 /05 /mai /2015 15:38

17 Mai 2015

Si le prototype de l’EPR de Flamanville arrive à son terme il aura coûté environ 12 Milliards. Une somme conséquente, mais qu’il y a lieu de replacer dans son contexte.

Le décret d’autorisation de construction a été signé le 11 Avril 2007, et les travaux ont débuté en Décembre de la même année. Il est construit sur la base de la technologie déjà éprouvée sur les réacteurs REP existants ( palier N4 ) dont la fiabilité a été démontrée par un service cumulé de 1700 années-réacteur sans accident majeur. Il intègre évidemment tous les progrès réalisés dans la sureté durant les dernières décennies et répond aux exigences post-Fukushima. Sa puissance nominale sera de 1 650 MW électriques, légèrement supérieure aux derniers réacteurs « classiques » mis en service en 1996/97 à Chooz , qui fournissent 1 450 MW électriques chacun.

Les deux réacteurs de Chooz correspondent à la génération REP-N4 et sont les précurseurs de l’EPR. Leur construction a également duré 12 ans, soit une durée équivalente à celle de l’EPR, qui devrait être mis en service en 2018. ( Etrange similitude entre les deux chantiers, dans la durée et dans l’ampleur des manifestations d’opposition ).

Ce n’est pas seulement la puissance qui distingue l’EPR de Flamanville des anciens modèles, c’est surtout la modernité de la conception axée sur la sureté de fonctionnement.

Avec un facteur de charge de 0,9 l’EPR produira annuellement 13 TWh. Le coût rapporté à la puissance nominale est de 7,2 Millions par MW. Ce réacteur est une « tête de série », et l’expérience ( de EDF) a montré que le coût des exemplaires suivants sera d’au moins 20% inférieur, soit 5,8 Millions par MW .

( Référence: http://www.senat.fr/rap/r11-667-1/r11-667-1_mono.html )

Voyons maintenant ce qu’il en serait si la même capacité de production était confiée à un parc éolien offshore.

L’éolien offshore est une industrie aujourd’hui bien établie. De nombreux parcs sont exploités en Europe du Nord et au Royaume Uni, fournissant des données statistiques fiables car basées sur l’expérience.

Pour les coûts de construction nous prendrons comme référence le programme de parc offshore de la baie de Saint-Brieuc qui sera équipé des machines M 5000-135 de AREVA, déjà utilisées ailleurs en Europe.

Le parc de la baie comprendra 100 machines de 5 MW, soit 500 MW nominal. Le montant de l’investissement, affiché dans la réponse à l’appel d’offre, est de 2 Milliards, soit 4 millions le MW nominal hors raccordements au réseau et hors moyens de relève de l’intermittence.

(Référence: http://www.eolienoffshoresaintbrieuc.com/fr/un-projet-industriel/le-coût-et-le-financement).

Avec ce type de matériel, pour produire annuellement la même énergie que l’EPR, soit 13 TWh, il faudrait installer une puissance nominale de 4,35 GW.

( L’EPR se « contente » de 1,65 GW car son facteur de charge est de 0,9 au lieu de 0,34 ).

Au prix de 4 Millions le MW nominal, la facture éolienne s’élèverait à 17,4 Milliards. A ce coût il faut bien sûr ajouter celui des raccordements au réseau et celui des unités de relève de l’intermittence, puisque le vent ne souffle pas régulièrement. Ces unités peuvent être soit des stations de stockage massif d’électricité, soit des unités de production à base de centrales à gaz, probablement un mix des deux. Le coût total, intégrant la part des moyens de relève de l’intermittence, ne serait pas inférieur à 20 Milliards, contre 12 Milliards « seulement » pour l’EPR.

Rappelons que les coûts en question sont extraits du rapport de la Cour de Comptes d’une part, et de la réponse de la Société AILES MARINES à l’appel d’offre de 2011 sur l’éolien offshore en côte atlantique d’autre part.

La simple comparaison des chiffres oblige à constater que le coût de l’éolien offshore est supérieur de 66% à celui de l’EPR. Du moins pour ce qui concerne le coût de construction des installations.

Par ailleurs, le parc offshore équivalent à l’EPR en production d’énergie comporterait 870 machines de 5 MW nominal. On pourrait réduire ce nombre en montant des machines de 8 MW, mais le coût ne serait pas diminué car ces machines sont fort coûteuses.

Cette comparaison des coûts de construction est instructive pour plusieurs raisons:

- Basée sur des chiffres officiels, elle démontre que malgré les dépassements de budget importants du chantier de l’EPR, celui-ci reste considérablement moins cher que son éventuel équivalent en éolien offshore.

- L’éolien offshore est une technologie chère, il faudra en tenir compte dans la stratégie de transition. D’autant plus que la durée de vie des éoliennes offshore est de trente ans seulement contre 60 voire plus pour une centrale nucléaire.

Le parc nucléaire français comprend 58 réacteurs, dont une vingtaine ne répondent plus aux normes de sécurité récentes et atteindront bientôt leur limite d’âge. C’est donc une puissance nominale de 20 GW qui devra être remplacée d’ici 2025 ( pour commencer ).

Si la solution de remplacement choisie est l’éolien offshore, il faudra construire des parcs à hauteur de 80 GW nominal, soit une facture de l’ordre de 300 Milliards, avec 10 000 ( Dix mille ) grosses machines de 8 MW.

Et ceci ne représente « que » 35% de la capacité actuelle du nucléaire.

Cette analyse, qui n’est que la compilation de chiffres officiels, ne doit pas faire oublier que le nucléaire, dans sa forme actuelle, reste une technologie détestable, pour plusieurs raisons:

- Le risque zéro n’existe pas, l’accident nucléaire majeur reste toujours possible. Les meilleures précautions ne peuvent que réduire la probabilité d’un accident, mais jamais l’annuler.

- Il n’existe pas de procédé satisfaisant pour le traitement et le stockage à long terme des déchets radioactifs.

- Le risque de dissémination et d’usage criminel est de plus en plus prégnant.

- Les sources de combustible Uranium ne sont pas inépuisables, et ne sont donc pas des sources durables.

- La dépendance aux approvisionnements du minerai de l’étranger sont contraires à l’esprit de l’indépendance énergétique.

- Le démantèlement des installations reste une opération difficile et dangereuse par le risque de dissémination. De plus son coût est très mal évalué aujourd’hui.

Malgré tous ces inconvénients, qui sont autant de menaces pour la sécurité publique, le nucléaire demeure attractif du strict point de vue financier, car les menaces en question n’ont jamais été évaluées en terme d’impact sur les bilans comptables, les seules évaluations disponibles étant largement sous-estimées.

De plus il serait probablement très difficile, voire même impossible selon certains, de faire accepter par les populations littorales et les professionnels de la mer l’implantation de dizaines de milliers d’éoliennes hautes comme 2/3 de tour Eiffel.

Notre société est donc placée devant un choix :

- Soit préserver l’environnement littoral en conservant une production électronucléaire importante.

- Soit engager un processus de sortie du nucléaire, en acceptant l’installation de plusieurs dizaines de milliers de grosses éoliennes le long du littoral.

- Soit accepter des restrictions drastiques de consommation électrique sur le réseau pour à la fois sortir du nucléaire et limiter l’invasion du littoral par l’éolien offshore.

Cette dernière solution est évidemment la plus écologique mais elle implique le développement du concept d’autoproduction, l’objectif étant de produire soi-même son électricité sans faire appel au réseau. On peut très bien imaginer des collectivités territoriales autonomes en énergie électrique, mettant en commun des moyens de production solaire, éolien, d’exploitation de la biomasse, de la géothermie, du petit hydroélectrique, soutenus par un programme de rénovation thermique des bâtiments et des installations de stockage de l’énergie.

Le passage d’une économie dispendieuse en énergie vers une économie de parcimonie est la condition à remplir pour se passer à la fois du nucléaire et de l’éolien offshore massif. Il appartient en grande partie au consommateur d’apporter la preuve de son adhésion à ce programme, en participant activement à la campagne d’économies d’énergie promue par le Gouvernement.

Et, comme dit l’autre, le reste vous sera donné par surcroît…

Repost 0
13 mai 2015 3 13 /05 /mai /2015 18:10

13 Mai 2015

La stratégie électronucléaire reste la pierre d’achoppement de la transition énergétique. Rien de significatif ne pourra être décidé sans d’abord statuer sérieusement sur le sort de cette technologie qui fournit aujourd’hui 75% de notre consommation électrique.

Le projet de Loi transition énergétique, adopté le 14 Octobre 2014 en première lecture par l’Assemblée Nationale, reprend l’essentiel des promesses du Gouvernement:

- Part du nucléaire dans la production électrique ramenée à 50% à l’horizon 2025.

- Puissance électronucléaire plafonnée à 63,2 GW.

Après examen par le Sénat, le projet a été modifié en première lecture par cette assemblée le 3 Mars 2015. Le projet est actuellement soumis à l’Assemblée Nationale pour seconde et dernière lecture avant adoption définitive ( Procédure accélérée).

Concernant le nucléaire, les modifications apportées par le Sénat portent essentiellement sur la suppression de l’échéance de 2025, la réduction à 50% de la part nucléaire est conservée mais reportée « à terme », ce qui en fait ne change pas grand-chose, puisque personne de sensé n’imaginait que l’on pouvait arrêter vingt réacteurs d’ici 2025 !

Remarquons au passage que fixer un quota de 50% sans fixer de référence peut réserver quelques surprises:

Si la consommation augmente, ce qui ressort de nombreuses prévisions en cas de reprise économique, la part du nucléaire peut se retrouver à 50% sans avoir à arrêter un seul réacteur !

Si au contraire la consommation diminue, comme souhaité dans le projet de transition énergétique, ce n’est pas vingt réacteurs qu’il faudrait arrêter d’ici 2025, mais trente voire davantage.

Le nombre de réacteurs dont l’arrêt doit être programmé se situe donc entre zéro et trente, selon l’évolution de la consommation, laquelle est évidemment imprévisible ! Ce n’est plus une stratégie, c’est du guignol.

On voit qu’il est absurde d’inscrire dans une loi un quota qui n’est pas rapporté à une quantité d’énergie de référence. Mais les sénateurs n’ont pas relevé cette absurdité qui pourtant saute aux yeux d’un lecteur, même non averti.

Il apparaît donc que cette Loi ne règlera en aucune manière le problème de la politique électronucléaire, et laissera la transition énergétique dans l’incertitude la plus totale. Ce qui était probablement le but recherché par les lobbies de l’Industrie de l’énergie, qui se retrouvent devant un boulevard pour imposer la stratégie de leur choix à des hommes politiques complètement dépassés par une situation à laquelle ils ne sont pas préparés.

Ne parle-t-on pas déjà dans les couloirs du château d’augmenter le plafond de la puissance électronucléaire à 64,85 GW ? Ceci permettrait de démarrer l’EPR de Flamanville sans avoir à arrêter aucun vieux réacteur.

De la belle ouvrage…

Repost 0
9 mai 2015 6 09 /05 /mai /2015 15:54

9 Mai 2015

La boîte de Pandore a donc été ouverte le mois dernier. On sait qu’en pareille circonstance il arrive fréquemment que la suite des évènements échappe à tout contrôle et conduise à une issue imprévisible.

Pourquoi tant d’histoires à propos d’un couvercle et d’un fond de cuve, et pas à propos de la cuve elle-même ? Eh bien parce que le couvercle et le fond sont les seules parties de la cuve fabriquées en France, le reste est fabriqué au japon par JSW ( Japan Steel Works) sous contrat d’industrialisation avec AREVA.

Creusot Forge, qui appartient à AREVA, ne possède pas (ou plus) le savoir-faire pour forger des pièces monoblocs aussi énormes que les viroles de cœur avec les raccordements des tuyaux. ( On assure cependant que pour les prochaines commandes d’EPR tout sera fait en France. Prenons-en acte). On s’occupe donc avec ce qu’on peut, c’est-à-dire le couvercle et le fond. Pour ce qui concerne d’éventuels défauts qui pourraient être présents dans le corps lui-même de la cuve, on est prié de s’adresser à JWS. C’est ce qu’on appelle une perte de compétence.

Ce fameux couvercle n’en est pas à son coup d’essai. Forgé en 2010, selon le planning de l’époque, il a frôlé la mise au rencart à cause d’un défaut au niveau des soudures des passages de tubes. Les tubes en question sont destinés au passage des commandes de grappes de combustible et de sondes diverses. On imagine que leur fixation doit être parfaite et les soudures exemptes du moindre défaut. Leur bonne étanchéité doit être assurée dans les conditions régnant dans la marmite: Température de 300 °C, pression de 155 kg, milieu corrosif, et flux de neutrons meurtrier, le tout pour une soixantaine d’année voire davantage. Or après inspection en 2011 il a été constaté un écart par rapport aux normes au niveau des soudures, qui a nécessité une reprise de l’ensemble des fixations afin d’obtenir l’autorisation de monter le couvercle.

Ce qui démontre au passage le sérieux des contrôles et la réactivité de l’industriel.

Le problème actuel, qui touche la matière même du couvercle et non plus le « beurrage » ou les soudures, pourrait nécessiter le remplacement de la pièce, qui est démontable faut-il le rappeler. Encore faudrait-il que le futur couvercle de remplacement soit exempt de défaut, ce qui implique de s’assurer préalablement de la bonne « qualité » des processus industriels de fabrication et de contrôle utilisés chez Creusot-Forge.

Pour cela il a été décidé de lancer une revue externe des processus de fabrication, l’expert désigné étant la société Lloyd’s Register Apave. Durée prévue de deux mois.

Le fond de la cuve par contre n’est pas démontable. La présence d’anomalies à ce niveau nécessiterait le remplacement de la cuve complète, ce qui représenterait un dépassement de budget considérable et un retard de plusieurs années qui pourrait remettre en question la poursuite du projet.

Cette histoire de chaudron cache en fait un problème de fond qui est celui de l’autorité de l’ASN et des limites de son pouvoir. Ce pouvoir est contesté par une partie des ingénieurs. André Pellen, Président du Collectif pour le Contrôle des Risques Radioactifs, ancien ingénieur d’exploitation du parc nucléaire EDF, a adressé à Pierre-Franck Chevet, président de l’ASN, une lettre ouverte dans laquelle il exprime un certain nombre de réserves qui mettent en cause l’organisme lui-même dans sa stratégie de communication, choisissant de mettre sur la place publique les éléments à charge d’un problème avant même qu’il soit instruit avec les parties intéressées.

La « guerre » entre les industriels du nucléaire et l’ASN en tant qu’autorité indépendante de par la Loi ne date pas du mois dernier. L’ASN est réputée être le garant de la sureté des installations nucléaires et à ce titre entre nécessairement en conflit avec les industriels.

Les industriels reprochent à l’ASN d’en demander toujours plus, et surtout de porter des jugements hâtifs non fondés sur des analyses contradictoires. Ils mettent en avant leur compétence en apportant la preuve de plus d’un demi-siècle d’exploitation d’un parc de plus de cinquante réacteurs sans accident important (1 700 années-réacteur cumulées).

Au-delà de la controverse technique il existe donc un conflit d’autorité entre les parties.

La nécessité de la transparence, voulue par la Loi, se traduit par une médiatisation des problèmes jugée prématurée par les industriels, voire même contraire à leurs intérêts commerciaux. La notion d’instrumentalisation a même été évoquée, eu égard à la grande sensibilité politique du nucléaire en cette période de transition énergétique. Ce problème hautement technique, qui aurait du être instruit par des spécialistes des deux parties, se trouve porté sur la place publique avant même que les experts aient pu intervenir et établir les éléments d’un dossier sur des bases scientifiques solides.

On imagine sans peine la satisfaction des anti nucléaires, qui n’ont pas manqué de saisir cette occasion pour « démontrer » l’échec d’une politique de « fuite en avant qui se révèle ruineuse et sans avenir ». La lettre ouverte de André Pellen peut être consultée ici: http://energethique.com/file/ARCEA/pdf/Pellen_ASN.pdf

Repost 0
16 avril 2015 4 16 /04 /avril /2015 18:31

16 Avril 2015

C’est dans les vieux pots qu’on fait la meilleure soupe, dit la sagesse populaire.

Ce n’est pas vrai pour l’électricité nucléaire.

La cuve d’un réacteur nucléaire est l’organe qui se trouve en première ligne face aux neutrons émis par le combustible radioactif. En fonctionnement, cette cuve est soumise à diverses contraintes:

- La température, plus de 300 °C.

- La pression, 155 kg en nominal.

- Les vibrations.

- Et surtout le flux de neutrons issus du cœur.

Le flux de neutrons fragilise l’acier en modifiant sa structure cristalline et en provoquant des migrations d’impuretés qui ont tendance à se concentrer dans des zones qui deviennent des sources de micro-failles. La température de transition ductile/fragile est également modifiée (augmentation), ce qui rend l’acier plus vulnérable au choc thermique d’une injection d’eau froide (nécessaire en cas de perte de réfrigérant). Au-dessus de la température de transition Tt, l’acier est ductile et peut donc supporter des déformations. Au-dessous de cette température, il devient fragile et cassant. Or le flux de neutrons entraîne à la longue une augmentation de Tt, qui peut alors faire passer l’acier de la cuve dans le domaine fragile en cas de contact avec de l’eau froide.

Il y a donc des causes tout à fait objectives d’usure du matériau de la cuve par fragilisation du matériau et fissuration. Les conséquences de cette usure sont aggravées par la présence de défauts du matériau à la fabrication, défauts pas nécessairement identifiés au départ, et qui peuvent aussi apparaître lors de la soudure du revêtement en acier inoxydable. (L’intérieur de la cuve doit être doublé d’une paroi en acier inoxydable pour résister à la corrosion par le milieu intérieur. La soudure de cette paroi entraîne la formation de micro-défauts dans la paroi de la cuve, défaut dont l’évolution en service est très difficile à contrôler).

Par ailleurs les repiquages des tuyaux présentent des microfailles au niveau des soudures, qui évoluent également sous le flux des neutrons et s’aggravent avec les contraintes mécaniques( vibrations, contraintes thermiques, pression). Cela fragilise l’ensemble de la cuve.

Les microfailles présentes au niveau des passages de capteurs peuvent constituer des micro fuites d’eau borée qui va passer la barrière d’acier inox et venir ronger la paroi d’acier de cuve sensible à la corrosion. Au bout que quelques dizaines d’années de ce régime, la cuve se trouve donc fragilisée.

S’il se produit alors un accident entraînant le dénoyage du cœur et une fusion même partielle, la cuve ne sera peut-être plus assez résistante pour contenir le corium, surtout s’il se produit une surpression explosive de vapeur d’eau au contact du corium avec l’eau de fond de cuve.

L’accident majeur est alors assuré.

Pour éviter d’en arriver là , chaque cuve est l’objet d’une surveillance attentive. A la mise en service, des éprouvettes du même métal sont placées à l’intérieur de la cuve à des endroits très exposés au flux de neutrons. Périodiquement, à l’occasion d’arrêts pour remplacement du combustible et à chaque visite décennale, on prélève quelques éprouvettes et on leur fait subir des tests pour vérifier l’évolution de leurs propriétés mécaniques. Ce procédé permet indirectement d’avoir une bonne information sur le vieillissement de l’acier de la cuve, du moins on l’espère.

Il faut noter que la validité de ce procédé n’a jamais fait l’unanimité, certains considérant que les tests sur éprouvettes ne représentent pas l’état réel de l’acier de la cuve, celles-ci ne se trouvant pas placées forcément à l’endroit où le flux de neutrons est maximum.

Dans la conception de la cuve de l’EPR ce problème à reçu une attention particulière, des déflecteurs de neutrons ont été disposés pour limiter leur pouvoir de destruction sur la cuve.

Tout ceci pour dire que la cuve d’un réacteur reste l’organe le plus critique d’une centrale, celui dont dépend entièrement la protection d’une installation contre l’accident ultime de type Fukushima.

On comprend alors que les autorités responsables de la sécurité nucléaire surveille ce chaudron avec une attention particulière.

En France la sécurité nucléaire est sous l’autorité et la responsabilité de l’ASN. Son action s’exerce en amont par l’établissement des dispositions réglementaires diverses, et en aval par des procédures de rapports et inspections périodiques. Comme dans toute technologie, les normes de sécurité évoluent en fonction des connaissances acquises sur le terrain, et de l’évolution de la technologie elle-même, notamment les matériaux, les processus industriels, les systèmes de gestion et de contrôles. Les équipements sous pression nucléaire (ESPN) sont l’objet de dispositions réglementaires particulières.

Jusqu’aux « évènements » de Fukushima c’est l’arrêté du 12 Décembre 2005 qui faisait référence. Cet arrêté régit à la fois « la conception, la fabrication, l’évaluation de conformité, les exigences essentielles de sûreté, l’installation, la mise en service, la surveillance, l’entretien, l’exploitation et les contrôles en service des ESPN » .

Après la catastrophe il est devenu indispensable de revoir la copie pour durcir certains points particuliers. Des modifications majeures sont intervenues depuis le 1er janvier 2015, intégrant de nouvelles exigences de sûreté concernant les modalités de justification et de surveillance de la conception, de la fabrication et du montage des ESPN. Cette nouvelle réglementation a pour objectif de « rendre les garanties de la qualité de ces éléments encore plus fortes » « Elle impose ainsi aux fabricants de fournir à l’Autorité de sûreté nucléaire un certain nombre de données supplémentaires concernant notamment les plans de conception, les composants/matériaux utilisés et leur traçabilité, l’analyse des risques radioactifs, ou encore les moyens retenus pour permettre les inspections en situation de service. »

Les conséquences de cette sévérisation des normes de sécurité sont très importantes, notamment concernant le cœur des réacteurs.

Le parc des 59 réacteurs en service en France est conforme aux anciennes normes. Concernant les cuves, les marges de sécurité présumée étaient telles qu’un rupture de cuve était considérée comme impossible. Les cuves étaient classées « non ruptibles ».

Fukushima s’est chargé de démontrer le contraire.

Les nouvelles réglementations apportent donc une attention particulière aux cuves. Notamment concernant l’homogénéité de l’acier utilisé pour réaliser les viroles, les couvercles et les fonds, mais pas seulement. Les incertitudes sur la connaissance et le suivi des défauts de cuve doivent disparaître, surtout sur les matériels nouveaux dont la durée d’exploitation a été portée à 60 ans, voire davantage.

C’est pourquoi entre autres l’ASN a rendu obligatoire la vérification in situ de la qualité de l’acier et son homogénéité. On ne peut reprocher à cet organisme de rechercher une amélioration de la sureté nucléaire.

L’application d’une nouvelle norme sur un matériel déjà fabriqué ne peut que réserver des surprises. C’est le cas avec la cuve de l’EPR de Flamanville.

Reste maintenant à vérifier que les responsables de la sureté nucléaire, qui ont estimé que ces nouvelles normes sont indispensables, auront la volonté et le pouvoir de les faire appliquer. Et ceci est une autre histoire…

Voir notamment: http://www.iaea.org/inis/collection/NCLCollectionStore/_Public/30/005/30005697.pdf

Repost 0
15 avril 2015 3 15 /04 /avril /2015 11:41

15 Avril 2014

Ce fut d’abord une rumeur, vite écrasée sous les sarcasmes de ceux à qui « on ne la fait pas ». Vous savez, les mêmes qui affirmaient avec James Ussher que la Terre avait été créée le 23 Octobre 4004 avant JC, et plus tard que les plus lourds que l’air ne voleraient jamais, ou que les météorites ne pouvaient pas tomber du ciel car il est « bien connu » qu’il n’y a pas de pierres dans le ciel.

C’est ainsi que fut établi le dogme de l’origine exclusivement biotique des hydrocarbures, avec comme conséquence l’excommunication de tout scientifique qui oserait ne serait-ce qu’évoquer la possibilité d’une origine abiotique.

Biotique ou abiotique, la belle affaire, on pourrait croire qu’il s’agit d’une querelle byzantine ou d’une controverse sur le sexe des anges; en fait si, la différence est primordiale.

Les hydrocarbures biotiques, plus connus sous le nom de combustibles fossiles (pétrole, gaz naturel, charbon), sont un stock limité d’énergie solaire emmagasinée dans le sous-sol en des temps reculés. Ce stock n’est pas renouvelable, son épuisement prochain est certain; la seule incertitude réside dans la date de l’échéance, estimée à moins d’un siècle selon le produit, l’évolution de la consommation mondiale, et l’institut de prévision…

L’inéluctabilité de la pénurie crée la nécessité de chercher des solutions de remplacement et, par la même occasion, des solutions non émettrices de CO2. Il s’agit en fait de revenir à l’énergie solaire, mais utilisée autrement qu’avec les résidus carbonés issus de la fossilisation des matières organiques anciennes. Il s’agit alors d’exploiter les vents, le rayonnement solaire, la biomasse, l’hydraulique, qui sont les manifestations actuelles de l’énergie solaire. Ce sont par définition des énergies durables, dont nous devrons nous contenter dans l’avenir.

La transition énergétique consiste précisément à basculer des énergies fossiles vers ces énergies propres et renouvelables.

La découverte de produits énergétiques abiotiques, issus de l’intérieur de la Terre et produits selon un processus continu, changerait complètement la donne énergétique pour peu qu’ils soient disponibles en quantité suffisante.

Production continue signifie en effet réserve inépuisable, la fête pourrait continuer.

La « rumeur » dont nous parlions plus haut reposait sur la possibilité, d’abord théorique, d’obtenir de l’Hydrogène, puis des hydrocarbures simple comme le Méthane, puis plus complexes comme les pétroles, à partir de différents minéraux de la croute terrestre et dans des conditions de température et de pression particulières. ( les réactions chimiques sont abondamment décrites dans la littérature).

Cette théorie a reçu confirmation au cours des campagnes de mesures le long des dorsales océaniques, puis en différents endroits sur les continents. Aujourd’hui la présence d’émanations de gaz énergétiques d’origine abiotique en de nombreux endroits du Globe ne fait plus débat.

Les sites « producteurs » sont répertoriés et les sites potentiels sont en cours d’exploration.

Les acteurs de l’énergie, en liaison avec les grands laboratoires de physique du Globe, ont entrepris de caractériser ces nouvelles sources d’énergie afin d’en déterminer l’importance, d’imaginer les procédés de captage, et d’évaluer son potentiel économique.

L’Institut Français du Pétrole ( Ifp-Energies nouvelles) est l’un des acteurs principaux de cette phase exploratoire qui a d’abord porté sur les émanations des dorsales océaniques. Plus récemment les travaux ont concerné les sources terrestres plus facilement accessibles.

Les gaz émis par ces sources sont un mélange en proportions variables de Méthane abiotique, d’Hydrogène, et d’Azote, avec un pourcentage intéressant d’Hélium. (Intéressant car l’hélium est un gaz rare dont la production est onéreuse).

L’Hydrogène est évidemment le produit recherché en raison de ses multiples qualités: Aujourd’hui l’Industrie consomme une grande quantité d’Hydrogène pour le secteur de la chimie. Ce gaz doit être fabriqué en dépensant une énergie importante. C’est un vecteur d’énergie et non une source. Il n’est donc pas question de l’utiliser pour faire marcher des moteurs en remplacement du pétrole.

La voiture à Hydrogène dont on parle beaucoup fonctionnera avec l’Hydrogène obtenu par l’électrolyse de l’eau grâce à l’électricité produite par l’éolien et/ou le solaire. Aujourd’hui la voiture électrique fonctionne en France avec de l’électricité nucléaire, ce qui représente un extraordinaire accouplement contre nature entre une application écologique et une énergie par définition anti-écologique.

Mais si demain l’Hydrogène devient disponible à l’état naturel et produit en continu dans le sous-sol, il constituera une nouvelle source pouvant être utilisée directement sans faire appel aux énergies fossiles.

L’hydrogène est par ailleurs (!) une source d’énergie propre, sa combustion ne dégage que de la vapeur d’eau.

Les prochains travaux portent sur le recensement des sites producteurs d’Hydrogène naturel, sur les mesures de débits et leur évolution dans le temps, sur les méthodes de captation et de transport.

En cas de confirmation ( dans dix ou vingt ans ?) l’intérêt de la filière Hydrogène se trouverait fortement renforcé avec l’appoint de cette nouvelle source d’énergie renouvelable et propre, qui viendrait s’ajouter à l’énergie solaire à laquelle on ne pourra pas demander plus qu’elle ne peut fournir.

Référence:

http://www.ifp-school.com/upload/docs/application/pdf/2014-12/presentation-e-deville-12mai2014.pdf

Repost 0
11 avril 2015 6 11 /04 /avril /2015 18:47

11 Avril 2015

On parle, on parle, … et la vie continue hors du microcosme politicien hexagonal.

C’est ainsi qu’il n’aura échappé à personne que nous vivons des temps inquiétants, inquiétudes hélas concrétisées dans l’horreur pour certains. A force d’entendre des bruits de bottes à l’Est, on a fini par les voir arriver. A force de bouillir, la marmite moyen-orientale a fini par déborder, et l’écume de se répandre alentours, avec les dégâts que l’on sait.

Il se trouve que ces trublions sont aussi des acteurs majeurs de l’énergie, et leurs soubresauts ne manqueront pas d’avoir des conséquences sur les approvisionnements des pays dépourvus de toute ressource dans ce domaine.

La France doit acheter à l’extérieur 80% de l’énergie nécessaire à son fonctionnement. Même si une grande partie de ces achats proviennent de sources non directement contrôlées par le Tsar ou les émirs, Elle supporte les variations des cours soumises aux aléas géopolitiques engendrés par iceux.

Par ailleurs notre situation économique est si dégradée que le « Trésor » public en est réduit à prendre l’argent des pauvres. Le bateau prend l’eau et toute proposition est bonne pourvue qu’elle contribue à étancher la voie d’eau. On verra plus tard à choisir la couleur pour repeindre la coque…

Il n’est pas nécessaire d’être un économiste pour comprendre que la conjoncture internationale peut se retourner; des taux d’intérêt un peu plus élevés, et un pétrole qui reviendrait à cent dollars, il n’en faudrait pas plus pour torpiller un navire déjà bien engagé.

Aussi la tentation est-elle grande d’aller voir si ce fameux gaz de schiste n’existerait pas par hasard sous nos pieds, pour nous permettre de refaire le coup du gaz de Lacq. On pourrait espérer en tirer un double bénéfice: réduire les importations, donc gagner en indépendance énergétique, et créer des emplois, saint graal de toute politique sociale.

Mais l’exploitation des éventuels gisements comportent des inconvénients largement médiatisés, ayant conduit à une condamnation sans appel par les instances écologiques, condamnation entérinée par l’actuel gouvernement et une partie de l’opinion.

L’attribut « sans appel » est jugé irrecevable par une partie de la communauté scientifique et de l’opinion, qui considèrent que face à un problème, quel qu’il soit, l’attitude ne doit pas être dogmatique et la voie ne doit pas être fermée à toute recherche de solution.

Cette polémique, et bien d’autres comme celles des OGM, des antennes-relais, de l’aéroport de NDDL, etc…est censée trouver son issue dans l’application du principe de précaution désormais inscrit dans la Constitution:

« Lorsque la réalisation d'un dommage, bien qu'incertaine en l'état des connaissances scientifiques, pourrait affecter de manière grave et irréversible l'environnement, les autorités publiques veilleront, par application du principe de précaution, et dans leurs domaines d'attribution, à la mise en œuvre de procédures d'évaluation des risques et à l'adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage. »

Comme à l’accoutumée la rédaction de cette pièce d’anthologie est suffisamment vague pour laisser une large place à l’interprétation. Qu’est-ce donc qu’un dommage dont la réalisation serait incertaine, sinon un risque imaginaire, pour ne pas dire un fantasme ? Quels sont les critères d’une atteinte irréversible de l’Environnement ?

Dans le même texte il est prévu la mise en œuvre de procédures d’évaluation des risques, ce qui est la moindre des choses. Quant aux mesures provisoires et proportionnées, chacun pourra les imaginer tant est grande l’imprécision des termes.

Relativement aux gaz de schiste, la procédure définie par cette « Charte de l’Environnement » est donc très précise: il faut procéder à une évaluation des risques avant de prendre une décision.

Déontologiquement parlant, cette nécessité n’est contestée par personne. Le problème vient du niveau de crédibilité accordé aux résultats de l’évaluation des risques.

Le risque zéro n’existe pas, il n’existe que des probabilités de l’occurrence de tel ou tel dommage. Par exemple la probabilité de rupture accidentelle de la cuve d’un réacteur nucléaire a été calculée. Les chiffres sont connus. Ils expriment la probabilité de rupture d’une cuve donnée en fonction de sa durée d’exploitation. Les valeurs calculées ont été rassurantes, à un point tel que ce type d’accident n’était même pas envisagé dans les procédures.

Jusqu’à la catastrophe de Fukushima…

Le risque de pollution des océans lié à l’exploitation offshore des hydrocarbures a également été calculé, et considéré comme acceptable, la notion d’irréversibilité n’ayant pas été prouvée.

Il en sera de même pour le gaz de schiste; les facteurs de risques seront répertoriés, quantifiés, entrés dans l’ordinateur, qui fournira son verdict favorable évidemment puisque l’accident majeur est toujours causé par un facteur imprévu, et que l’ordinateur ne connaît pas l’imprévu.

Une fois de plus il faudra mettre en balance les risques, plus ou moins bien évalués, et les avantages attendus, réels ou imaginaires.

Par ailleurs le Nucléaire et le Gaz de schiste constituent des enjeux électoraux majeurs entretenant une haute pression barométrique écologique peu propice aux débats dépassionnées. Cette pression est susceptible de perturber l’évaluation bénéfices-risques et de faire pencher la balance du côté politique, quel qu’il soit.

Mais n’est-ce pas aussi cela la Démocratie ?

Repost 0
28 mars 2015 6 28 /03 /mars /2015 09:59

28 Mars 2015

Dans la stratégie de lutte contre le réchauffement climatique, focalisée sur les émissions de CO2, l’Automobile constitue une cible de choix parmi d’autres moins médiatisées. Elle est également une cible dans le cadre de la protection de l’environnement, par ses émissions de polluants et en particulier de particules fines qui sont particulièrement difficiles à éliminer, notamment les plus nocives, les nanoparticules.

Bien sûr il y a d’autres sources d’émissions de CO2 et/ou de particules: l’Industrie, les activités manufacturières, le secteur de l’Energie, le secteur Résidentiel/Tertiaire, l’Agriculture, le traitement des déchets, y ont leur part globalement aussi importante que les transports et peut-être plus. Chacune est susceptible de recevoir un traitement particulier.

Mais l’Automobile occupe le devant de la scène de par son exposition et son caractère emblématique de notre civilisation.

La solution pour éliminer les émissions de CO2 et les particules nocives des automobiles est connue, c’est la motorisation électrique. A condition bien entendu que l’électricité soit obtenue par des procédés exempts d’émissions de CO2 et/ou d’autres polluants.

En version tout électrique pour les usages urbains, et hybride pour les usages mixtes, la technologie existe et a donné la preuve de sa fiabilité de par le monde, même si la part de marché est encore modeste.

L’introduction de cette nouvelle technologie, onéreuse de par sa nouveauté et ses coûts de production non encore optimisés à cause du manque d’effet d’échelle, concerne le marché des voitures neuves évidemment, soit moins de deux millions de véhicules par an en France.

Dans le cas idéal d’un basculement total d’une technologie sur l’autre, il suffirait donc d’environ quinze ans pour renouveler le parc. L’affaire pourrait être réglée dès 2030.

Hélas le tableau n’est pas aussi idyllique qu’il y paraît.

La version tout électrique, séduisante par sa simplicité et son coût atténué par une prime d’état substantielle, n’est utilisable qu’en agglomération eu égard à sa faible autonomie.

La version hybride, utilisable sans restriction de distance, est très onéreuse à cause de sa double motorisation, qui ne la dispense pas d’une batterie importante pour assurer les trajets en agglomération.

Le marché est donc limité au haut de gamme et/ou aux flottes captives, soit moins de 20% des ventes en année pleine.

La technologie est une chose, les infrastructures en sont une autre. Le tout électrique ne peut se généraliser qu’à deux conditions au moins:

- Offrir une autonomie raisonnable, au moins 300 à 400 km.

- Disposer d’une infrastructure territoriale de rechargement rapide suffisamment dense.

Aucune de ces deux conditions n’est remplie aujourd’hui, et l’avenir à moyen terme n’est pas très encourageant. Tant qu’il en sera ainsi le marché de ce type de motorisation sera limité aux usages locaux ( Taxis, véhicules de livraisons, réseaux de bus, véhicules de location, flottes captives, second véhicule, etc…). Ce qui n’est déjà pas si mal.

L’automobiliste moyen, qui ne peut investir dans un hybride multi-usages, et qui n’a aucune raison contraignante de le faire, continuera donc de rouler au super ou au gazole, du moins tant qu’il ne lui sera pas interdit de le faire.

Les véhicules à moteur thermique récents respectent les dernières normes, actuellement Euro 6 pour les nouveaux modèles en homologation. Cette norme ne supprime pas les émission de CO2, qui sont inhérentes à la combustion des combustibles fossiles. Elle se borne à les mesurer et à imposer leur affichage dans les caractéristiques techniques des véhicules. Le législateur décide ensuite de l’application d’un bonus ou d’un malus selon le niveau des émissions de chaque nouveau modèle, mais sans interdiction de circuler pour les modèles les plus émetteurs. L’application de cette norme ne participe donc pas à la lutte contre le réchauffement climatique.

Pour ce qui concerne la pollution ( le CO2 n’étant pas considéré comme un polluant !) la norme impose des limites pour les oxydes d’Azote, les Hydrocarbures imbrulés, les particules fines, et depuis peu pour les nanoparticules, au moins certaines d’entre elles. Les nouveaux modèles de véhicules qui ne respectent pas ces limites sont refusés à l’homologation.

Mais, à ce tableau apparemment satisfaisant, il faut apporter quelques remarques:

Les limites imposées à l’émission des polluants correspondent non pas à des seuils qui seraient acceptables du point de vue de la santé publique, mais à ce que les constructeurs de voitures savent faire de mieux au moment où la norme est écrite, ce qui constitue une nuance importante.

Par ailleurs les tests d’homologation se déroule selon un processus bien défini censé représenter les conditions normales moyennes de circulation. Or il s’est avéré ( c’est maintenant admis officiellement ) que ces conditions de test sont très éloignées des conditions réelles au point de n’avoir que de très lointains rapports avec la réalité du trafic. L’affaire a fait grand bruit et des corrections doivent être apportées afin de réduire quelque peu cette distorsion inacceptable. Acceptons-en l’augure.

De plus, il est de notoriété publique que les constructeurs équipent les calculateurs de leurs véhicules de logiciels capables de détecter la survenue d’un cycle de test, et de modifier automatiquement les réglages du moteur pour obtenir des résultats flatteurs, ou tout simplement réussir l’homologation. Hors des conditions de test le calculateur revient aux réglages donnant les meilleurs résultats en performances, celles que le client verra sur le catalogue. La pollution émise dépendra alors de sa façon de conduire, du parcours, de la charge, et n’aura que de lointains rapports avec les valeurs relevées au cours du test.

Airparif mesure la qualité de l’air notamment pour la région parisienne. Les résultats sont publiés sous la forme de l’indice Atmo qui intègre la pollution sur une échelle de 0 à 10.

En 2010 les chiffres étaient les suivants pour cet indice:

Supérieur à 3 pendant 158 jours.

Supérieur à 4 pendant 120 jours.

Supérieur à 5 pendant 46 jours.

Supérieur à 6 pendant 19 jours.

Supérieur à 7 pendant 11 jours.

En 2014 ces valeurs sont passées à:

Supérieur à 3 pendant 154 jours.

Supérieur à 4 pendant 115 jours.

Supérieur à 5 pendant 52 jours.

Supérieur à 6 pendant 21 jours.

Supérieur à 7 pendant 11 jours.

Supérieur à 8 pendant 4 jours.

On constate une augmentation du nombre de jours où l’indice a été supérieur à 5: 77 jours en 2014 contre 65 jours « seulement » en 2010, soit + 18,5%.

Avec un indice supérieur à 8 pendant quatre jours en 2014 !

La sévérisation des normes Euro a permis de contenir la pollution sans toutefois la faire baisser en valeur absolue puisqu’on constate un accroissement de 18,5% de l’indice Atmo dans la même période. Cette augmentation est due en majeure partie à l’accroissement des difficultés de circulation comme en témoignent les chiffres de Média mobile ( V-Traffic.com), qui traduisent une augmentation de 26% du nombre de kilomètres d’embouteillages pour la région parisienne entre 2010 et 2013.

L’âge moyen des véhicules du parc roulant est de huit ans, ce qui est cohérent avec une période de renouvellement de quinze ans. Dans l’hypothèse, fort improbable ( on a vu pourquoi plus haut ), où le marché de l’électrique pourrait démarrer rapidement, il faudrait attendre une dizaine d’années avant de constater un effet positif global sur les taux de pollution en agglomération. Or dans les zones fortement peuplées, particulièrement dans l’Ile-de-France, le taux de pollution est déjà supérieur au taux maximum acceptable. La France a déjà été condamnée par la Communauté Européenne pour des dépassements de taux trop fréquents. Il est donc urgent de prendre des mesures de court terme, susceptibles d’apporter des améliorations dans des délais de quelques années, sans remettre en question les mesures de long terme comme le développement des transports collectifs, de la voiture de location, des parkings périphériques, etc…

Ces mesures de court terme seront nécessairement contraignantes, et concerneront d’abord les zones aujourd’hui touchées par les dépassements des taux de pollution définies par la Communauté Européenne, l’Ile-de-France étant particulièrement visée.

La mise en œuvre de telles mesures pose des problèmes économiques et d’acceptabilité, le premier échec des ZAPA en témoigne suffisamment.

La circulation alternée pair-impair n’est qu’un pis-aller applicable exceptionnellement car ne reposant sur aucun critère en relation avec la pollution.

L’interdiction d’accès faite aux véhicules les plus polluants semble aller de soi mais pose le problème du critère d’élimination, dès lors que tous les véhicules ont satisfait au contrôle technique officiel. Il faudrait préalablement modifier les normes en conséquence avec effet rétroactif, un loi serait nécessaire pour imposer le nouveau critère.

Le rejet des véhicules âgés ( plus de dix ans ?) porterait un sérieux coup au marché de l’occasion. Aujourd’hui 75% des transactions automobiles portent sur des véhicules d’occasion, dont l’âge moyen est de 8,5 ans. Les conséquences économiques de leur éviction seraient considérables, pour des résultats aléatoires puisque les véhicules récents ne sont pas eux-mêmes exempts d’émissions polluantes dans les conditions de circulation urbaine. ( Il y aurait beaucoup à dire sur le filtre à particules…).

L’obligation du covoiturage serait une mesure efficace pour réduire le nombre de véhicules entrants, à condition que son efficacité ne soit pas annulée par un système de dérogations trop laxiste ( les régimes de dérogations sont une spécialité française).

Le projet d’interdiction pure et simple du diesel est une gesticulation sans conséquence. Dès lors que les filtres à particules sont homologués selon la norme Européenne, on ne voit pas bien quelle voie juridique pourrait être utilisée pour interdire durablement les véhicules qui en sont équipés.

Il n’existe pas aujourd’hui de solution satisfaisante à court terme pour réduire significativement les taux de pollution urbaine automobile sans pénaliser lourdement l’une ou l’autre des catégories d’usagers, avec des répercutions économiques importantes.

Nous avons rappelé plus haut que l’indice de pollution atmosphérique en région parisienne continue d’augmenter significativement malgré la sévérisation des normes Euro dont les effets sont impuissants à compenser l’influence contraire de l’augmentation des difficultés du trafic.

Et peut-être parce que leur efficacité en circulation réelle est moins forte que durant les tests d’homologation, mais ceci est une autre histoire…

Les grandes agglomérations touchées par ce problème n’ont pas trouvé de solution radicale. Elles tentent de gérer les pics de pollution par des combinaisons de mesures de dissuasion comme le péage, l’interdiction du centre-ville aux véhicules les plus polluants, les réduction de vitesse, la circulation alternée, la gratuité des transports en commun, l’incitation au covoiturage, à la location de véhicules urbains électriques, etc…

A ces mesures applicables occasionnellement doivent s’ajouter des mesures de fond d’accompagnement visant à réduire durablement l’affluence pendulaire des véhicules vers et hors des grandes agglomérations.

En attendant la ou les solutions miracles, il est prudent de s’équiper de masques filtrants ou d’aller s’installer dans la Creuse.

Alphonse Allais proposait déjà de reconstruire les villes à la campagne…

Repost 0
16 mars 2015 1 16 /03 /mars /2015 19:06

16 Mars 2015

L’exploit réalisé dans le cadre du projet Solar impulse frappe les esprits à plus d’un titre:

- Il démontre que l’avion électrique n’est pas un mythe.

- Il démontre qu’un avion peut voler sans recourir aux énergies fossiles.

- Il démontre qu’un avion peut voler en autonomie énergétique.

Ces trois performances réalisées dans le même projet sont représentatives du challenge de la transition énergétique: Se passer des énergies fossiles, recourir à l’électricité, économiser l’énergie.

Solar impulse 2 est un planeur motorisé de 2 340 kg et sa vitesse de croisière est de 70 km/h. Plus qu’un prototype industriel il faut le voir comme un symbole, une bannière, un exercice de style, et il constitue à juste titre l’emblème de la transition énergétique.

L’enthousiasme médiatique en a fait l’avion de demain, alors qu’il est surtout un démonstrateur du savoir-faire des ingénieurs qui ont su réunir leurs compétences en aéronautique, en mécanique, en électronique, en science des matériaux, en électrochimie des batteries, en électromécanique, en météorologie, en géolocalisation, en science des courants aériens et du routage. Ce qui est une performance dont il faut saluer les initiateurs.

En soi cet objet n’est pas représentatif d’une quelconque application industrielle future. Il est un banc d’essai pour les technologies de la transition énergétique. Il est équipé de quatre moteurs qui développent chacun 12,8 kW avec un rendement revendiqué de 94%. Les batteries, développées par SOLVAY, offrent une capacité énergétique totale de 164 kWh pour un poids de 633 kg, soit une capacité massique de 260 Wh par kg ( deux fois plus que les batteries qui équipent aujourd’hui les voitures électriques ).

Pendant les périodes nocturnes l’alimentation des moteurs est assurée par les batteries, qui peuvent ainsi fournir environ 5 kW par moteur pendant 12 heures. Pendant les périodes de jour les 17 248 cellules photovoltaïques réparties sur une surface de 200 m2 rechargent les batteries. Le rendement global annoncé de la chaîne de propulsion du Soleil à l’hélice est de 12%.

La puissance moyenne sur 24 h rayonnée par le Soleil est de 250 W/m2. La puissance moyenne fournie par les 200 m2 de cellules est donc de 6 kW, dont devront se contenter les quatre moteurs électriques pour assurer une vitesse moyenne de 70 km/h.

On voit qu’il s’agit d’un planeur à assistance électrique, plus que d’un avion au sens habituel du terme.

La batterie occupe plus du quart du poids total de l’engin, malgré des performances plus de deux fois supérieures aux batteries modernes qui équipent les voitures électriques. On imagine sans peine la capacité qu’il faudrait donner à la batterie pour d’une part emporter non pas 2 340 kg de charge mais dix ou vingt fois plus, et d’autre part voler non pas à 70 km/h mais à dix fois plus. Plusieurs terrains de football tapissés de cellules solaires ne suffiraient pas à fournir le courant nécessaire…et ceci quel que soit les progrès accomplis dans le futur sur les batteries et les cellules solaire.

Le rayonnement solaire est une constante et la surface des ailes d’un avion est forcément limitée.

L’avion électrique de demain devra donc emporter sa réserve d’énergie.

La solution qui semble adaptée pour les produits du futur est l’association d’une réserve d’Hydrogène avec une pile à combustible. Un kilogramme d’Hydrogène contient trois fois plus d’énergie qu’un kilogramme de supercarburant. Le problème de stockage de ce gaz est un obstacle puisqu’il doit être très fortement comprimé pour diminuer le volume, ou liquéfié. On peut également le stocker par adsorption dans un matériau solide. Aujourd’hui la batterie au Lithium développée pour Solar impulse permet d’emporter jusqu’à 260 Wh par kg.

C’est la solution retenue pour le prototype E-Fan développé par Airbus. Il s’agit d’un petit avion une place équipé de deux moteurs développant une puissance totale de 60 kW. L’autonomie est d’environ une heure et la vitesse de croisière atteint 160 km/h. Le poids au décollage est de 550 kg. L’autonomie et les performances dépendent de la capacité et du poids de la batterie.

Une batterie de 200 kg dans la technologie SOLVAY PVDF poussée à 260 W/kg contient 50 kWh, largement suffisant pour plus d’une heure d’autonomie.

Des modèles « upgradés » à deux places, puis quatre places, sont prévus pour servir le marché de la formation des pilotes, et de la petite aéronautique civile. La mise au point des systèmes de propulsion à pile à combustible et carburant Hydrogène permettra d’ouvrir la voie à des applications de cours et moyen courrier.

Mais les exigences des normes de sécurité dans l’aviation civile imposeront une très longue période de mise au point et de validations de toutes ces technologie nouvelles.

Rendez-vous en 2050.

Repost 0
15 mars 2015 7 15 /03 /mars /2015 12:17

15 Mars 2014

La mobilisation contre le changement climatique est la tarte à la crème de ce début de XXIè siècle. Ce branle-bas, initié par le GIEC en 1988, a déjà donné lieu à d’innombrables représentations internationales sur les places mondiales les plus réputées.

Les accords internationaux sur la réduction des émissions de CO2 ne se comptent plus, ce produit se vend désormais à la tonne, comme les patates. Une brosse à dent ou une automobile ne s’apprécient plus au service rendu, mais à l’ « empreinte Carbone » associée.

Aux travaux du GIEC correspondent des réunions internationales à caractère politique, dont le but est d’obtenir un consensus mondial entre les Etats autour d’un programme commun de lutte contre le changement climatique. Ces conférences baptisées COP ( COnférence des Parties de la Convention Cadre des Nations Unies sur les changements climatiques) se sont déjà tenues à vingt reprises.

La prochaine ( COP 21) aura lieu à Paris en Décembre 2015, la France étant le pays Hôte.

Cette fois c’est juré, l’objectif de cette 21è Conférence est de fixer un agenda de décisions comportant les engagements d’investissements de chaque partie en vue de contenir l’augmentation de la température de l’Atmosphère sous le seuil de 2 °C. Ce seuil de 2°C est évidemment un seuil psychologique puisqu’il n’est pas démontré que les mesures correctrices, quelle que soit leur sévérité, suffiront à obtenir le résultat souhaité.

L’objectif est en fait de poser le cadre d’une économie « bas-Carbone ».

Dans l’immédiat, et pour au moins deux ou trois décennies, il s’agit de dépenser quelques milliers de milliards de dollars avant d’espérer constater un résultat positif côté thermomètre.

L’Atmosphère est un énorme système thermodynamique dont l’inertie est colossale; ce système possède une constante de temps très longue et de nombreux sous-systèmes de contre-réaction ainsi qu’un multitude de paramètres qui interagissent d’une manière non encore complètement élucidée, notamment les paramètres anthropiques. Il en résulte une incertitude quant à l’efficacité climatique des actions stratégiques qui seront entreprises, le remède pouvant se révéler pire que le mal.

(En effet, un accroissement de l’énergie interne du système thermodynamique atmosphérique dû à l’effet de serre peut se traduire par une augmentation de la température moyenne ou bien par une augmentation de l’énergie cinétique macroscopique ( tempêtes et ouragans), probablement les deux, sans que l’on puisse prédire lequel des deux l’emportera).

Des actions ont déjà été entreprises, certains pays peuvent exhiber des comportements écologiques, mais malgré ces quinze années de mobilisation massive contre le CO2, force est de constater que sa concentration dans l’atmosphère augmente toujours.

De 1990 à 2005 le taux d’augmentation était de 0,45% par an. De 2005 à 2014 ce taux est passé à 0,52% par an. ( Source NOAA). Le seuil de 400 ppm a été dépassé en 2014. On peut donc légitimement se poser des questions sur l’utilité des ces grand’messes, dont par ailleurs la propre empreinte Carbone est significative.

Les obstacles à la mise en œuvre d’une stratégie contre le réchauffement sont connus:

- la stratégie doit être mondiale sous peine de perdre toute efficacité. Or l’absence de gouvernance mondiale ne permet pas l’application de mesures contraignantes.

- Les investissements nécessaires atteignent des montants exorbitants, hors de portée des pays en voie de développement, ceux-là même dont les besoins énergétiques vont croître dans l’avenir.

- les énergies fossiles continuent d’être disponibles en quantités illimitées et pour un coût encore gérable; les Etats n’accepteront pas facilement d’abandonner ce pactole pour des solutions plus onéreuses et dont l’efficacité reste à démontrer.

Pour la conférence COP 21 François Hollande devra revêtir le costume de Monsieur Loyal puisqu’il lui revient la charge de faciliter la convergence des points de vue et d’obtenir l’unanimité sur un accord global.

Sa crédibilité dépendra de la consistance du programme national de la France qu’il sera chargé de présenter et de justifier. l’un des points essentiels de la stratégie de transition énergétique française est la politique électronucléaire. Or aujourd’hui pour connaître les projets du Gouvernement en ce domaine il faut soit consulter madame Irma, soit lire les ragots dans la presse, ce qui revient à peu près au même. Une troisième voie consiste à pratiquer l’exégèse du contenu des discours ou paroles « off » de tel ou telle ministre.

Une telle situation est évidemment inadmissible ( intenable) à la veille d’une conférence mondiale dont l’objectif est de prendre des décisions impliquant des investissements.

Nous attendons donc avec impatience de connaître enfin la stratégie énergétique de la France pour le XXIè siècle.

Repost 0