Overblog
Suivre ce blog
Administration Créer mon blog
21 septembre 2016 3 21 /09 /septembre /2016 11:53

21 Septembre 2016
Avant l’arrivée du LINKY, les compteurs électromécaniques ou électroniques comme le CBE (Compteur Bleu Electronique) ne comportaient aucun interrupteur ou disjoncteur.
Cette fonction était à la charge d’un dispositif externe développé dans les temps anciens par l’honorable maison BACO ( Baumgartner & Compagnie) pour remplir plusieurs tâches:
- Disjonction oléo magnétique protégeant l’installation en cas de court circuit.
- Disjonction différentielle, coupant le courant en présence d’une différence supérieure à 500 mA entre Phase et neutre (DDR 500mA).
- Sectionnement à commande manuelle réarmable, avec témoin.
Ce dispositif, appelé familièrement « Baco », a persisté dans l’histoire, et est aujourd’hui encore exigé par la norme NF C 15 100.
Sa fonction essentielle est de participer à la protection des personnes et des biens.
________________

Le seuil de disjonction de courant du Baco était fixé par l’installateur, en rapport avec la puissance souscrite par l’abonné. Les valeurs de seuils étant ajustables par pas appelés « calibres », séparés de 15 KVA.
Par exemple 15, 30, 45 A ou 30, 45, 60 A, ou 60, 75, 90 A selon le type de DDR.
Le calibre choisi étant le plus proche du courant max correspondant à l’abonnement en KVA sous 230 V, plus 10%.
La coupure du courant intervient au terme d’un délai qui dépend de l’importance de la surcharge, le délai étant ici apporté par le déplacement d’un noyau plongeur dans de l’huile (Oleo).
Pour tenir compte de l’imprécision de l’électromécanique, une marge de sécurité d’au moins 20% est allouée, en dessous de laquelle le courant n’est pas coupé, malgré le dépassement du courant calibré.
Cela signifie que, pour un DDR sur le calibre 45 A, le courant devra être supérieur à 54 A pour provoquer un déclenchement, dans le meilleur des cas.
_______________________

Beaucoup de clients « profitent » de cette tolérance depuis des dizaines d’années, certains sans vraiment s’en rendre compte, d’autres en toute connaissance de cause.
Hélas, l’arrivée du compteur LINKY sonne la fin de la récréation.
__________________

Avec le nouveau compteur, EDF en a « profité » pour mettre fin à une situation qui, il faut bien le reconnaître, n’était pas à son avantage, surtout dans une période où l’on prône les économies d’énergie et où l’on est contraints de réduire les pointes de puissance appelée sur le réseau.
Aujourd’hui la puissance électrique disponible nous est comptée. Nous disposons de 60 à 70 Gigawatts, peut-être moins s’il nous faut demain arrêter quelques centrales nucléaires. Si la demande excède cette valeur, il faut recourir à des moyens de production polluants (Centrales à combustibles fossiles).
La puissance instantanée consommée par le réseau est donc devenue un paramètre critique, surtout avec l’arrivée des énergies nouvelles intermittentes, qui ajouteront une composante de sporadicité difficilement gérable si les abonnés n’y mettent pas un peu de bonne volonté.
Jusqu’à présent EDF ajustait l’offre à la demande; désormais il faudra faire l’inverse, au moins de temps en temps. L’heure n’est plus au gaspillage, mais à l’économie, voire même à l’avarice.
Et, pour faire des économies, il faut commencer par compter avec précision.
_______________

C’est le rôle du nouveau compteur LINKY, à qui rien n’échappe.
C’est lui désormais qui sera le gendarme chargé, entre autres fonctions, de veiller au respect des limitations de puissance.
Et il dispose pour cela de moyens à la hauteur de la technologie moderne.
D’une part le courant et la tension sont mesurés avec précision (Mieux que 0,1%), ainsi que leur déphasage, et les trois composantes de la puissance sont calculées avec la même précision ( Puissance active, réactive, apparente).
D’autre part, un interrupteur télécommandé embarqué, d’une capacité de coupure de 100 A, peut être actionné soit automatiquement par l’électronique de comptage embarquée, soit à distance par le gestionnaire de réseau, pour des raisons diverses.
(Notamment pour la gestion des risques de black-out et de la pointe mobile, par des délestages ciblés ).
La fonction « coupure pour dépassement de la puissance souscrite » est donc maintenant prise en charge par le LINKY, et la marge de 20% du baco disparaît.
(La précision de l’électronique permet de s’en passer, ou du moins de la réduire à quelques pourcents).
Le BACO doit cependant être conservé car il continue à assurer les fonctions de sectionnement et de disjonction différentielle 500 mA exigées par la norme NF C 15 100.
_____________________

Les données mesurées par le compteur sont stockées dans une mémoire locale, à disposition du gestionnaire qui établit la facture.
Historiquement c’est la puissance active qui est affichée et facturée.
(La puissance réactive n’est facturée qu’aux professionnels pour les abonnements supérieurs à 36 KVA).
Avec les anciens compteurs, le calibre du BACO était positionné sur une valeur de courant correspondant à l’Abonnement souscrit, augmenté de 10% pour tenir compte des variations de tension secteur.
(Le courant est en général proportionnel à la tension).
Par exemple, pour un abonnement de 12 KVA, le courant max permis est de 52A sous 230 V, soit 57 A avec la marge de 10%. Le BACO était alors positionné sur 60 A.
Grâce à la marge supplémentaire de 20% au-dessus du calibre, la disjonction ne se produisait que pour un courant supérieur à 72 A, ce qui correspond à un puissance de 16,5 KW sous 230 V, qui est la valeur la plus courante du secteur.
Donc, un abonnement de 12 KVA permettait en fait de soutirer plus de 16 KW avant disjonction, avec un secteur nominal à 230 V.
Avec le nouveaux compteur LINKY , cette marge supplémentaire de 20% disparaît.
En effet la précision des mesures de courant et de tension, et celle des calculs effectués après numérisation des signaux, permet de se passer de cette marge supplémentaire.
Les abonnés qui, Involontairement ou en toute connaissance de cause, « profitaient » de cette marge supplémentaire accordée par le BACO, vont se trouver non pas pénalisés, mais « régularisés ».
Il leur sera proposé soit un changement d’abonnement, soit une meilleure gestion de leur installation, par exemple en utilisant un délesteur sélectif.
______________________

Le LINKY permet d’ajuster l’abonnement par pas de 1 KVA, au lieu de 3 KVA avec l’ancien système, le coût de l’abonnement étant également au pas de 1 KVA, du moins on le suppose.
Les abonnés ayant « bénéficié » des largesses du BACO verront leur abonnement augmenter légèrement, sauf s’ils installent un délesteur.
Par contre les autres pourront éventuellement réduire leur abonnement s’il s’avère que la puissance de leur installation reste toujours significativement inférieure à la valeur précédemment souscrite.
(Le LINKY fournit à l’abonné le relevé des puissances au cours du temps).
Cette plus grande rigueur du gestionnaire de réseau aura au moins le mérite d’attirer concrètement l’attention du public sur le problème critique de la maîtrise de la puissance électrique soutirée.
A l’échelon national les pics de puissance soutirée sont de plus en plus critiques, et nous rapprochent de la menace de black-out.
La consommation d’énergie ( Les KWh ) est une chose, mais la puissance ( Les KW ) en est une autre aussi importante, puisque c’est elle qui décide du nombre et de la puissance des centrales à construire.
Une meilleure maîtrise de nos installations électriques passe par une répartition intelligente des périodes d’utilisation des appareils les plus gourmands. Ceci peut être réalisé à moindre coût et le compteur LINKY est là pour nous faciliter la tâche, voire à nous y inciter.
10% de réduction du pic hivernal de puissance représentent l’équivalent de la puissance de six centrales EPR.
Cela vaut au moins la peine de réfléchir à la démarche de gestion de l’énergie, à laquelle contribue le nouveau compteur, et de comprendre qu’il n’est pas forcément une arnaque destinée à escroquer le consommateur.
L’expérience du passé nous a montré qu’il n’est pas nécessaire de remplacer les compteurs pour augmenter les tarifs…
_______________________

17 septembre 2016 6 17 /09 /septembre /2016 19:15

17 Septembre 2016
Certains sujets sont tabous et ne sont jamais abordés dans les réunions de familles.
« On ne parle pas de corde dans la maison d’un pendu… »
Dans la famille du véhicule électrique, les sujets de discorde ne manquent pas: l’autonomie réelle, les performances, l’obsolescence rapide de la technologie, la concurrence des voitures hybrides, les bornes de recharge, le prix du KWh vendu à ces bornes, l’avenir de la batterie vs la pile à combustible, de quoi occuper les longues soirées d’hiver.
Mais il y a un autre sujet, rarement évoqué dans les gazettes et qui pourtant pourrait bien conditionner la survie de cette technologie.
Il s’agit du coût des batteries.
Des voitures électriques circulent sur nos routes depuis quelques années. Elles sont équipées de batteries de capacités diverses, entre 20 KWh et 30 KWh, et il est question de 60 KWh pour 2017, avec 120 KWh en ligne de mire pour donner au VE la même autonomie que la voiture à moteur thermique.
Une voiture à moteur thermique normalement conduite et entretenue peut parcourir 200 000 Km sans gros soucis mécaniques.
A raison de 12 000 Km par an (Moyenne nationale), ce n’est qu’au terme de 16 ans de bons et loyaux services que le moteur devra être remplacé, ou reconditionné, et pour un coût raisonnable.
Certains véhicules sont même prolongés très au-delà de trente ans, sans être forcément des pièces de musées.
Cette durée de vie permet l’existence d’un marché de l’occasion prospère. Aujourd’hui, sur trois transactions, deux portent sur un véhicule d’occasion. L’acheteur d’un véhicule thermique neuf est assuré de le revendre un bon prix quelques années plus tard, et un achat neuf est souvent conditionné par sa cote à la revente, d’autant plus qu’en cinq ans la technologie « thermique » n’aura que peu évolué.
Sur un véhicule électrique, la mécanique est au moins aussi endurante, sinon plus. Mais le point faible est la batterie.
Même utilisée selon les préconisations du constructeur, une batterie Lithium-ion perd en capacité et en courant max au fil du temps et selon le nombre de cycles, le type des recharges ( Lente, semi-rapide, rapide, super rapide), l’amplitude et le nombre de ces recharges, les conditions climatiques, etc...
Compte tenu de la nouveauté de ce marché, du faible volume du parc de VE, et du renouvellement rapide de la technologie, le REX (Retour sur Expérience) est insuffisant pour connaître la durée de vie moyenne de la batterie en usage réel.
Les constructeurs annoncent une durée de cinq à dix ans, assortie de conditions d’utilisation assez sévères portant sur les conditions de recharge, le nombre de cycles, etc…
Si l’on s’en tient à ces valeurs (Très approximatives), lorsque le véhicule sera mis sur le marché de l’occasion, au bout de quatre ou cinq ans, la batterie sera proche de sa mise à la retraite et son remplacement devra être envisagé.
La cote de revente du véhicule devra donc tenir compte de ce remplacement.
Et il n’est pas certain que le modèle de batterie soit encore disponible en magasin au-delà de dix ans.
Le coût actuel des batteries Lithium-ion est de l’ordre de 250 euros le KWh, soit 7 500 euros pour une batterie de 30 KWh, et bien sûr
15 000 euros pour les 60 KWh annoncés pour 2017.
Les prévisions de baisse de coût sont certes encourageantes: 150 euros/KWh en 2025, sous conditions de développement du marché.
Mais le remplacement d’une batterie de 60 KWh atteindra tout de même alors encore près de 9 000 euros, ce qui pénalisera lourdement le VE d’occasion.
Et qui irait acheter un véhicule neuf dont la revente serait ainsi plombée ?
Aujourd’hui le coût très élevé des batteries est « camouflé » par le système des primes à l’achat d’un VE. Mais un tel artifice ne saurait être pérennisé car il ne correspond à aucun modèle économique et constitue en volume une distorsion de concurrence.
Les constructeurs sont conscients de ce problème, qui ne peut qu’être aggravé par la course à la capacité, puisqu’on parle aujourd’hui de 120 KWh pour obtenir l’autonomie voulue.
L’avenir du VE peut être compromis si les fabricants ne parviennent pas à réduire drastiquement les prix de revient des batteries.
Deux voies sont empruntées pour tenter d’améliorer la situation:
D’une part la recherche de nouveaux matériaux pour augmenter les performances et réduire les coûts d’approvisionnements.
D’autre part, concentrer les moyens de production pour bénéficier de l’économie d’échelle.
En sachant que le marché ne se développera que si les coûts baissent, et que les coûts ne baisseront que s’il y a un marché important…
A capacité énergétique constante, la quantité de Lithium utilisé est proportionnelle à la capacité de la batterie.
A 120 Wh/Kg, la situation ne sera pas tenable au plan des approvisionnements en Lithium si la part de marché du VE devient significative, d’autant plus que la demande sera augmentée des autres applications relatives à la mise en œuvre des énergies nouvelles et du Smart Grid.
Il est donc impératif d’améliorer ce rendement énergétique sous peine de rencontrer une situation de pénurie qui mettrait fin au déploiement du véhicule électrique à batterie.
D’autre part si la techno n’évolue pas, le poids de la batterie à forte capacité deviendra prohibitif !
Dans ce contexte la voiture hybride rechargeable ( PHEV), qui se « contente » d’une batterie de faible capacité, pourra conserver sa position dominante actuelle, et constituer le bon compromis pour l’avenir.
En attendant l’éventuelle mise au point d’une nouvelle technologie de batterie, comme la Zinc-air dont on dit grand bien.
Et sans oublier les autres solutions « durables » que sont la pile à combustible et les bio carburants de seconde et troisième générations.
Les dix prochaines années verront ces secteurs se décanter, les éléments clé étant l’évolution des réglementations antipollution, la montée en puissance de la taxe carbone, et le cours du pétrole qui reste le maître du jeu.

14 septembre 2016 3 14 /09 /septembre /2016 12:07

14 Septembre 2016
Nous avons rappelé dans un précédent article (6 Septembre) que la polémique autour du compteur LINKY est alimentée par plusieurs revendications :
- Les relevés détaillés en temps réel de la consommation des usagers sont considérés par certains abonnés comme une violation de l'espace privé.
- Les nouveaux compteurs LINKY seraient à l'origine de troubles de jouissance en raison des perturbations électromagnétiques émises, particulièrement pour les personnes "électro sensibles".
- Les signaux CPL émis par ces nouveaux compteurs induiraient des perturbations au sein des réseaux "in door" de certains abonnés.
- Etc.
D’autres revendications font l’objet de plaintes concernant les perturbations engendrées par les réseaux CPL « en général ». Elles ne visent pas spécialement le compteur LINKY. Il s’agit des usagers de la bande 1,6 - 30 Mhz pour les transmissions Radio, qui se plaignent de voir les ondes polluées par le rayonnement CPL.
_______________________

Chacun de ces domaines de revendications requiert une approche juridique différente, devant être traitée spécifiquement pour éviter tout amalgame incompréhensible.
Le problème de violation de l'espace privé n'a à l'évidence rien à voir avec l'électro sensibilité, ni avec d’éventuelles perturbations des applications clients.
________________________

Les domaines de l'électrotechnique et des télécommunications sont étroitement régis par des normes.
Nul n'est censé pouvoir échapper à ces normes, pas plus les particuliers que les professionnels producteurs et distributeurs d'électricité.
Le nouveau compteur LINKY n'échappe évidemment pas à la règle, mais certains usagers contestataires n'en sont pas convaincus.
C'est pourquoi il nous a paru intéressant de signaler un document d'expertise de l'ANFR susceptible d'apporter des éclaircissements sur ce fameux nouveau compteur et surtout sur sa conformité aux normes en vigueur.
Ces résultats constituent au moins un point de départ solide pour de futures argumentations.
Ce document est accessible ici:

http://www.anfr.fr/fileadmin/mediatheque/documents/expace/2016-05-30_Rapport_technique_compteur_vdef2.pdf
___________________________

L'essentiel des résultats peut se résumer dans le tableau suivant, qui donne les valeurs mesurées des champs électrique et magnétique émis par le compteur LINKY, dans les conditions de mesures définies par la norme.
Les mesures sont effectuées dans les diverses configurations de CPL (Versions G1 et G3), et en comparaison avec les émissions des anciens compteurs, dans la gamme des fréquences utilisées par les compteurs (Bande A du CENELEC, réservée aux distributeurs d'énergie).
Ces mesures montrent que les niveaux d'émissions sont considérablement inférieurs aux limites de la norme, parfois dans un rapport de plusieurs ordres de grandeur.

On peut conclure que, au moins au niveau du respect des normes d'émissions électromagnétiques, le compteur LINKY est largement en dessous des seuils limites imposés.
Le rapport indique par ailleurs que les valeurs relevées pour ce compteur sont comparables à celles d'un écran TV 19" , 17 fois plus faibles qu'une lampe fluo-compacte, et 56 fois plus faibles qu'une plaque à induction.
Voilà qui devrait rassurer les usagers de bonne foi, au moins sur le plan des perturbations EM émises par le compteur lui-même.
___________________

Par ailleurs il est utile de rappeler que le compteur LINKY utilise des signaux CPL dont les fréquences porteuses sont situées dans la bande A du CENELEC, bande dédiée aux fournisseurs d’énergie électrique, pour les applications de Télé relevé.
Deux versions sont développées:
LINKY G1
A commutation de porteuses ( 63,3 KHz et 74 KHz)
Modulation S-FSK (Spread - Frequency Shift Keying)
Niveaux de sortie: Décroissant de 134 dBuV ( 5V) à 63,3 KHz Jusqu’à 120 dBuV (1V) à 74 KHz.
Cette première version équipe les premières implantations du nouveau compteur.

LINKY G3 (Deuxième génération de compteurs)
Codage OFDM (Orthogonal Frequency Division Multiplexing)
36 sous-porteuses réparties entre 35,9 KHz et 90,6 KHz.
Niveaux de sortie id. G1.
Cette génération doit normalement prendre la suite du G1.

Il faut ici remarquer que les fréquences utilisées sont en Kilo-Hertz et non en MHz comme souvent cité ici et là.
La bande HF 1,6 à 30 MHZ, n’est pas utilisée par EDF.
Pour le moment…

Les signaux CPL échangés entre le compteur et le concentrateur EDF, ainsi que les signaux CPL affaiblis des voisins de quartier de l’abonné, ne sont pas arrêtés par le compteur, et se retrouvent donc à l’intérieur du domicile, à des niveaux relativement faibles, mais non négligeables.

Les interactions entre ces signaux externes, en principe non désirés, et le réseau domotique CPL de l’abonné appartiennent à un domaine non encore parfaitement exploré.
La distribution de l’énergie électrique appartient au domaine de l’Electrotechnique.
Les réseaux d’échange de données appartiennent au domaine des Télécommunications.
Ces deux domaines sont régis par des organismes différents, des standards et des normes différentes. Leur rapprochement est souhaitable mais ne peut se réaliser qu’à moyen ou long terme.
Or la mise en œuvre d’un réseau CPL constitue un rapprochement forcé entre ces deux domaines qui n’ont pas vocation à faire converger leurs cahiers des charges, du moins à cours terme.
_________________

Ce rapprochement « sauvage » fait apparaître des problèmes à priori sans solutions évidentes.
Un réseau électrique domestique conforme à la norme NF C 15-100 ne convient pas à la réalisation d’un réseau de télécommunications, pour les raisons déjà évoquées:
- Absence de blindage.
- Câblage hétéroclite.
- Circuits dissymétriques, qui sont à l’origine de rayonnements pouvant perturber l’environnement.
(De nombreuses applications utilisent déjà la gamme de fréquences des ondes courtes, avec des appareils d’une très grande sensibilité qui sont très vulnérables à des sources perturbantes rapprochées).
- Impédances fantaisistes.
- Absence de cage de Faraday dans les bâtiments.
- Affaiblissement du signal très dépendant des parcours.
- Comportement variable en fonction des appareils connectés.
- Présence systématique de perturbations liées à la mise en fonctionnement et à la coupure des appareils domestiques.
- Présence également systématiques des transitoires de la tension du réseau, liés aux commutations pour l’ajustement tension et fréquence du réseau.
- Présence d’appareils qui, bien qu’homologués NF C 15-100, nuisent à la transmission des signaux CPL (Parafoudres, prises multiples, …).

Ce cumul d’inconvénients laisse penser qu’au-delà d’un certain niveau de complexité et du nombre des applications connectées, il ne sera plus possible d’assurer un fonctionnement acceptable*, sans apporter des modifications au câblage électrique.
*Notamment au niveau de la gestion des collisions et de la hiérarchie des urgences.

Et le compteur LINKY n’y sera pour rien…
_____________________

11 septembre 2016 7 11 /09 /septembre /2016 11:56

11 Septembre 2016
Depuis plus d'un siècle, la voiture électrique est plombée par l'incapacité de sa batterie à lui assurer une autonomie décente.
Les récentes tentatives de relancer ce marché se sont heurtées au même problème d'autonomie.
Malgré les progrès incontestables réalisés dans la chimie des accumulateurs au Lithium (110 Wh/Kg), la densité énergétique reste insuffisante, et une batterie de 250 Kg ne peut offrir que 150 Km d'autonomie réelle à une voiture moyenne, ce qui limite son utilisation à des parcours réduits, sauf à disposer d'un important réseau de bornes de charge, ce qui est encore très loin d'être le cas, la situation étant à peine meilleure qu'il y a un siècle, en dehors des agglomérations.
Une voiture moyenne requiert environ 15 KWh pour parcourir cent kilomètres en conduite "raisonnable" , ce qui correspond à une consommation de 6 L/100 avec un moteur thermique de rendement moyen 25%.
Pour obtenir avec un VE une autonomie du même ordre que celle d'une voiture "thermique" équivalente, soit 700 Km avec un réservoir de 50L, il faut donc une batterie de 110 KWh, dont le poids ne devra pas dépasser 350 à 400 kg, sinon la consommation augmentera à cause de la masse excessive.
L'objectif est donc clairement désigné, il faut développer une technologie capable d'offrir plus de 300 Wh par Kg, soit presque le triple de la densité énergétique des actuelles batteries LiFePO4.
Deux voies sont utilisées pour aller vers ce but:
La première voie consiste à optimiser la batterie pour obtenir la meilleure densité énergétique. On peut gagner 20 à 30% sur ce paramètre, mais au détriment de la puissance car la densité de courant max diminue ( On ne peut pas avoir le beurre et l'argent du beurre). Il faut alors ajouter un supercondensateur qui se chargera de délivrer les pointes de puissance nécessaires, au prix d'une augmentation de coût.
La deuxième voie, complémentaire de la précédente, consiste à rechercher d'autres combinaisons chimiques et d'autres architectures de matériaux d'électrodes présentant de meilleures performances énergétiques. La technologie Lithium NMC (Nickel, Manganèse, Cobalt) émerge actuellement sur le marché, et affiche des performances quasiment doublées par rapport au Li FePO4.
Pour un poids équivalent, ces nouvelles batteries offrent 60 KWh, laissant espérer une autonomie de 400 Km.
Nissan annonce un véhicule ainsi équipé, et comme d'habitude nous retrouvons la surenchère habituelle: Le constructeur annonce une autonomie de 500 Km en mode NEDC , heureusement corrigés par le cycle EPA américain qui indique 350 Km, plus réaliste.
On se demande pourquoi insister sur ce mode NEDC, complètement discrédité par les récents scandales sur les émissions et les consommations "truquées". Les constructeurs ont vraiment une piètre opinion de leurs clients, pour les supposer capables d'avaler de telles couleuvres…
La publicité n'ayant pas encore le pouvoir de changer les lois de la physique, les clients pourront compter sur 350 Km en gardant le pied très léger. Rendez-vous en 2017.
Mais 350 Km ne font pas 700 Km, il y a donc encore un facteur 2 à gagner.
_____________________
En électronique on a coutume de dire que c'est toujours le dernier décibel qui est le plus dur à gagner. C'est vrai également pour l'électrochimie. Passer de 30 KWh à 60 KWh pour un poids de batterie équivalent représente un saut technologique important qu'il faut saluer.
Le passage de 60 KWh à 120 KWh, toujours à poids égal de batterie, ne sera pas réalisé avant 2020, plutôt 2025 au plan industriel, si toutefois elle est possible. On peut alors penser que la solution 60 KWh constituera la norme pour le véhicule routier tout électrique des dix prochaines années dans le moyen de gamme.
(On voit mal les clients se "contenter" de 30 KWh avec les inconvénients d'une autonomie réduite à 200 Km voire moins, si des modèles à 60 KWh sont disponibles. Avec 30 KWh on hésitera à prendre d'autoroute. Avec 60 KWh cela devient envisageable à la rigueur).
___________________
Mais la technologie n'a pas dit son dernier mot. Peut-être l'objectif sera-t-il atteint grâce à la pile à Hydrogène, qui commence à pointer son nez et pourrait nous surprendre dans les prochaines années.
___________________________
Au début du XXè siècle, la voiture électrique a été "tuée" par le pétrole pour la simple raison qu'il était possible d'emporter quelques bidons du précieux liquide afin de ne pas tomber en panne sèche, alors qu'évidemment ceci n'était pas possible en électrique, et qu'à l'époque les bornes de recharge n'étaient qu'un rêve.
La situation est-elle réellement différente aujourd'hui ?
La réponse est ambigüe.
L'électricité est certes distribuée partout et en grandes quantités. Mais sa mise à la disposition des véhicules électriques nécessite des installations sécurisées, d'accès facile et compatibles avec les divers modèles de câbles de raccordement fournis par les constructeurs. La standardisation dans ce domaine paraît très laborieuse.
Des installations de recharge existent ici et là, dans les grandes villes essentiellement, et constituent un embryon de réseau de recharge dont l'accessibilité reste encore très problématique. La recharge au domicile est encore la solution la plus sure pour les particuliers.
C'était déjà le cas au début du XXè siècle…avant l'arrivée du pétrole.
Il ne faut donc pas se bercer d'illusions, la situation n'est guère meilleure actuellement, et il faut une certaine dose de témérité pour se lancer avec un véhicule tout électrique sur un parcours supérieur à 150 Km.
Pour les déplacements de longue distance, il vaut mieux prendre le train car le réseau routier est encore à peu près totalement dépourvu d'installations de recharge de batteries.
Dans ce contexte on peut se demander à quoi serviront les batteries de 60 KWh, d'autant plus que leur recharge posera le problème de la puissance des bornes rapides.
En effet, pour recharger une telle batterie en une demi heure, il faut une puissance de 120 KW.
Il n'existe aujourd'hui aucun réseau disposant de telles installations.
Le déploiement du marché des VE routiers reste donc encore une vue de l'esprit et le pétrole demeure incontournable pour les longs trajets.
D'autre part il faut rappeler que le tarif de l'électricité qui sera délivrée par les diverses catégories de bornes ( Recharge lente, semi-rapide, rapide) est inconnu, de même que le type et le montant des taxes qui seront appliquées.
Il faut au client une bonne dose d'abnégation pour acquérir un véhicule électrique sans connaître le prix du carburant qu'il devra utiliser.
Démarré en 2011 avec 2 626 véhicules vendus, le parc de véhicules tout électriques était de 58 379 fin Août 2016, ce qui représente 0,16% du parc de voitures particulières en France.
Les ventes de voitures électriques représentent en 2015 0,9% du total des ventes de voitures neuves. Cette très faible part, après cinq ans d'efforts des pouvoirs publics en matière de primes, d'avantages divers et de campagnes d'incitation, confirme la réticence des clients, peu enclins à investir dans une technologie en évolution permanente, et dont les avantages vantés dans les gazettes ne se vérifient pas sur le terrain.
Dans ce contexte, la voiture hybride semble avoir son avenir assuré, et seule une crise pétrolière majeure pourrait faire bouger les lignes.
______________________

6 septembre 2016 2 06 /09 /septembre /2016 17:34

6 Septembre 2016
Les CPL (Courants Porteurs en Ligne) sont au centre d'une nouvelle polémique, qui cristallise, sous la même bannière, diverses revendications de natures assez différentes.
Nous avons rappelé précédemment comment, en voulant faire du réseau domestique de distribution d'énergie électrique un réseau de communications numériques à haut débit, une boîte de Pandore a été ouverte, peut-être un peu précipitamment.
Les inconvénients, avérés, de cette audacieuse tentative de cohabitation n'ont pas manqué d'être pointés du doigt par certains groupes d'usagers qui s'estiment lésés dans leurs droits par l'intrusion "à la hussarde" de cette nouvelle application, qui induirait des "troubles de jouissance" insupportables.
________________

L'arrivée en fanfare du nouveau compteur LINKY est venue ajouter une page supplémentaire au cahier de doléances déjà bien garni.
Les principaux griefs vont du caractère agressif des courants porteurs envers les personnes électro sensibles, jusqu'au caractère jugé intrusif de l'application "Smart Grid" , en passant par les problèmes de compatibilité électromagnétiques (Qui sont bien réels) dans la bande de 1,6 à 30 Mhz utilisée par de nombreux services officiels et particuliers (Radio amateurs, mais pas seulement).
_________________

Les protocoles utilisés pour les transmissions CPL tiennent pourtant compte des risques de perturbations électromagnétiques générés par les signaux .
Les niveaux d'émission ne sont pas quelconques, leurs valeurs max sont définies dans les normes CEM, et les adaptateurs CPL intègrent obligatoirement le système de masquage des fréquences sensibles (Notching).
En clair, les CPL n'émettent pas dans les créneaux de fréquences déjà utilisés par des applications identifiées.
La liste de ces fréquences "masquées" est incluse dans la mémoire de chaque adaptateur CPL.
Certains dispositifs intègrent également la fonction de masquage dynamique, qui améliore les performances CEM.
L'homologation des dispositifs n'est accordée qu'après vérification du respect de la norme CEM , dans les conditions de mesures spécifiées.

D'autre part, la juridiction est formelle: Une installation qui génère des troubles de jouissance dans son environnement doit être démontée.
Il n'en demeure pas moins qu'un réseau électrique domestique est très éloigné des conditions de mesures de laboratoire; la longueur et la nature des câbles peuvent être quelconques, de même que l'architecture, la symétrie des trajets, la qualité des raccordements, les impédances de ligne, qui impactent fortement les rayonnements parasites du système.
En pratique il sera très difficile d'établir la responsabilité d'un "trouble de jouissance", l'expertise en la matière étant loin d'être établie.
__________________

Les perturbations générées par l'usage des CPL ( ou par les appareils "classiques" connectés à l'installation) sont de deux sortes:
- Les perturbations "subies" par l'usager.
- Les perturbations "causées" par l'usager.
A l'intérieur de ces deux catégories il faut distinguer:
- Les perturbations "conduites" par les fils.
- Les perturbations "rayonnées" ou "reçues" par une installation.
Dans la quasi-totalité des cas, l'usager se préoccupera des perturbations subies par sa propre installation. Concernant les éventuelles perturbations causées au voisinage, les précautions prises se borneront à n'utiliser que du matériel vendu dans le commerce, lequel est réputé conforme aux normes les plus récentes.
Le réseau électrique lui-même sera utilisé sans modifications particulières, dès lors qu'il est réputé conforme à la norme NF C 15-100, laquelle ne se préoccupe pas des signaux CPL.
Les mondes de l'électrotechnique et des télécommunications n'ont pas encore fusionné.
( Des modifications seront probablement apportées aux normes ultérieurement pour combler cette lacune, mais ceci est une autre histoire).
Or un réseau électrique n'est pas autre chose qu'une antenne. Une mauvaise antenne certes, mais une antenne tout de même puisque les fils ne sont pas blindés.
Lorsque l'on envoie dans une antenne des signaux HF dans la bande 1,6 à 30 MHz voire plus, cette antenne rayonne.
L'intensité du rayonnement dépendra de l'architecture du réseau, de la dissymétrie des trajets phase et neutre des différents circuits, des variations d'impédance, de la nature de la mise à la terre et des lignes équipotentielles, de la nature de la construction, et de quelques autres paramètres difficilement contrôlables.

Le contrôle effectif des rayonnements émis et/ou reçus passe par une réalisation "sérieuse" des mises à ma terre, l'idéal étant la constitution d'une quasi cage de Faraday, classique dans les bâtiments à armature métallique, mais difficile à mettre en œuvre dans une construction traditionnelles.
Aujourd'hui la loi autorise l'installation d'un réseau de communication "in-door" sans exiger une vérification de conformité du réseau électrique, et pour cause puisqu'aucune norme n'existe à ce sujet.
Du moins jusqu'à présent…
_____________________

Pour s'affranchir de ces problèmes potentiels, certains usagers décident de ne pas utiliser les CPL dans leur domicile, et de constituer éventuellement un réseau numérique interne filaire (Paire torsadée blindée ou câble coaxial, ou fibre optique), voire même pas de réseau du tout.
Les liaisons radio sont au maximum évitées, car il serait malvenu de se plaindre des émissions radio des autres et d'en émettre soi-même….
(WiFi, ZigBee, …).
Ce "repli" stratégique ne compromet nullement la mise en œuvre future du "Smart Grid" puisque le compteur LINKY communique préférentiellement par son interface filaire TIC ( Télé Information Client) selon le protocole EURIDIS, avec un débit de 9 600 Bauds, largement suffisant pour les applications envisagées.
Cette liaison TIC est alors raccordée en filaire au gestionnaire d'énergie du logement, qui commande directement les appareils sous contrôle (Chauffage, ECS, PAC, charge de batterie, gros électro ménager, etc…).
Les CPL étant bannis du domicile, il est alors logique de se prémunir d'une intrusion de CPL indésirables arrivant par le compteur.
(Le compteur LINKY ne bloque pas les CPL, il les affaiblit tout au plus d'une quantité non spécifiée, de l'ordre d'une dizaine de décibels).
En sortie du compteur, c'est-à-dire chez l'abonné, arrivent les signaux CPL de ENEDIS (ex ERDF), mais aussi ceux des abonnés voisins qui sont raccordés sur le même tronçon du transfo BT EDF, constituant ainsi un réseau CPL de quartier dont les usagers se seraient bien passé et qui ne peut que créer des troubles.
_____________________

Pour "protéger" la totalité du logement des signaux CPL indésirables arrivant via le compteur, il faudrait disposer un filtre ad-hoc derrière le disjoncteur de sécurité EDF (DDR 500 mA , qui fait également office d'organe de coupure du circuit général).
Ce filtre doit posséder une fonction de transfert procurant une atténuation supérieure à 40 dB dans les bandes de fréquences susceptibles d'être utilisées.
Typiquement il s'agit des bandes CENELEC A (bas débit) et de la bande HF de 1,6 à 80 Mhz (Haut débit), dont seulement une partie est utilisée aujourd'hui ( 1,6 à 30 MHz).
La bande à "bloquer" s'étend donc de quelques 10 KHz à 80 MHz puisque certains fabricants songent déjà à travailler sur ces fréquences extrêmes seules capables de transmettre les hauts débits binaires exigés par la TVHD (Des adaptateurs CPL affichant 1 200 Mbps sont déjà proposés sur le marché).
D'autre part, la totalité du courant soutiré par l'abonné traverse le filtre en question. Il devra donc être dimensionné pour supporter ce courant sans perdre ses performances et sans échauffement excessif.
Pour un abonnement de 18 KVA, ce courant peut atteindre 80 A.
En 15 KVA il peut atteindre 63 A.
Les éventuelles bobines du filtre devront être réalisées en fil de diamètre suffisant (> 10 mm²) pour limiter l'échauffement à quelques Watts car l'objet sera de type modulaire intégré sur un rail du tableau de distribution.
Les condensateurs de filtrage devront être du type by-pass pour minimiser la composante selfique des connexions afin d'éviter une détérioration des performances en haute fréquence.
Ce filtre sera donc un composant de hautes performances susceptible d'un coût significatif.

__________________

Le graphique suivant donne les courbes d'atténuation obtenues avec un filtre SCHAFFNER FN 2010 - 60 .
Malgré un courant max de 60 A "seulement", son poids atteint 1,1 Kg, ce qui en fait un composant difficilement intégrable dans un tableau classique.
Le prix est très élevé, c'est un produit de luxe.
On remarquera que ce filtre n'est pas efficace dans la bande A du CENELEC utilisée par EDF pour les communications bas débit. Il ne bloquera donc pas les signaux CPL du LINKY. Il conviendra par contre pour les signaux HF dans la bande 1,6 à 30 Mhz .
Les quatre courbes correspondent à quatre configurations entrées-sorties et d'impédances variables. On peut constater l'influence importante des impédances de source et de charge sur les performances "in situ".

Le filtrage des CPL.

______________________

LEGRAND propose le modèle 003609 limité également en courant à 63 A (Abonnements de 15 KVA) pour un prix public entre 120 et 150 euros.
Il se présente sous forme compatible rail DIN largeur de 4 modules.
Sa courbe d'atténuation n'est pas communiquée, seule l'atténuation dans la bande 95 à 148,5 KHz est spécifiée (> 45 dB). Cette bande de fréquence couvre les bandes CENELEC B, C, et D.
Or les CPL LINKY utilisent évidemment la bande A réservée pour les applis des distributeurs d'électricité ( 35,9 à 90,6 KHz).
Le produit LEGRAND ne convient donc pas non plus pour filtrer les CPL LINKY.
D'autre part ses performances dans la bande HF ne sont pas spécifiées.
______________________

Le produit qui conviendrait pour le blocage des signaux LINKY est donc difficile à trouver sur le marché, surtout si on lui demande de bloquer également la bande 1,6 à 30 Mhz et se supporter un courant de 80 Ampères !
Avant d'investir dans un produit du marché, il y aura donc lieu de vérifier ses performances afin de ne pas prendre des vessies pour des lanternes.
Quelle que soit la solution choisie, il sera nécessaire de mesurer sur place les performances d'atténuation, qui dépendent fortement des caractéristiques de chaque réseau, notamment les impédances de source et de charge.
Le filtrage des CPL n'est décidément pas une affaire évidente.
_____________________

26 août 2016 5 26 /08 /août /2016 19:17

26 Août 2016

Nous avons vu dans l'article précédent que les CPL sont en passe de devenir une technologie incontournable dans l'habitat moderne.
(Et pas seulement dans l'habitat, les constructeurs automobiles y viennent également pour supporter le multiplexage en faisant passer tous les signaux sur la connexion d'alimentation, économisant ainsi un câblage spécifique fastidieux et vulnérable).
Les opposants aux CPL auront donc un rude combat a mener, et sur plusieurs fronts à la fois puisque ceux-ci "sévissent" dorénavant dans le domicile, dans les bâtiments du tertiaire, sur tout le réseau EDF de distribution "outdoor", et maintenant dans nos automobiles.
Si l'issue de ce combat est hélas prévisible (Voir le téléphone cellulaire) il aura au moins le mérite d'attirer l'attention sur un certains nombre d'inconvénients réels et de susciter des mesures de protection de l'environnement et de la vie privée, comme le durcissement des protocoles de cryptage, le masquage dynamique des fréquences sensibles, une meilleure définition des conditions de mesures des performances CEM (Compatibilité Electro Magnétique) des matériels et des installations, et un encadrement plus strict de la normalisation.
_____________________

Le réseau de la téléphonie commutée n'était pas, lui non plus, conçu à l'origine pour transmettre des signaux de communication numérique à large bande comme la TVHD .
Et pourtant ces applications sont aujourd'hui devenues la norme pour une grande majorité des lignes montées à l'origine pour transmettre la voix en analogique.
Ceci a été rendu possible grâce aux progrès considérables réalisés dans les domaines du traitement numérique du signal et de la microélectronique.
Ces progrès, qui ont permis le développement de la téléphonie cellulaire et de l'internet à haut débit, sont également mis à profit pour "booster" les communications par courants porteurs.
________________________

Le réseau domestique de distribution de l'énergie électrique n'est pas conçu pour être utilisé comme réseau de communications numériques à haute fréquence et bas niveau de signal, en voici quelques raisons:
- Ce réseau n'est pas spécifique: Il implique la coexistence de signaux de communication à bas niveau et haute fréquence, avec les courants transportant l'énergie, de valeur quelconque entre zéro et quelques dizaines d'Ampères, affectés d'impulsions parasites liées au fonctionnement normal des appareils connectés, ou créées par le réseau EDF lui-même.
L'optimisation pour un type d'applications (La distribution d'énergie) n'est pas forcément compatible avec l'optimisation pour les applications réseau numérique de communications.
- Les conducteurs ne sont pas blindés, pas même torsadés, et les "goulottes" ne sont pas métalliques; il n'y a donc aucun obstacle au rayonnement d'éventuels signaux parasites, qu'ils soient émis ou reçus par le réseau.
- La continuité électrique du réseau n'est pas assurée, puisque des organes de coupure automatique sont prévus dans un but de sécurité des personnes et des biens ( Fusibles, disjoncteurs, disjoncteurs différentiels).
Les différents circuits du câblage secteur peuvent alors se trouver dans l'incapacité de communiquer.
- Certains appareils ménagers, bien que conformes à la norme NF-C 1500, peuvent nuire aux CPL, comme les parafoudres, les prises avec para surtenseurs, les appareils de cuisson à induction, les alimentations à découpage, les éclairages fluorescents, et certains filtres.
- La symétrie des liaisons n'est pas assurée, le trajet de la Phase n'a pas forcément la même longueur que le trajet du Neutre. Ceci est à l'origine des perturbations de mode commun, donc de rayonnements parasites.
- Le réseau supporte de plein fouet les perturbations électriques liées au fonctionnement normal des appareils domestiques connectés et/ou provenant du réseau de distribution EDF.
- De part l'architecture de raccordement des abonnés EDF (ENEDIS) , les différents compteurs d'abonnés constituent autant de ports de communication constituant le réseau "Outdoor" de EDF.
Le compteur ( CBE ou LINKY) n'ayant aucune fonction de blocage des signaux CPL (Tout au plus un affaiblissement du signal), l'ensemble des abonnés du même tronçon du transfo BT se trouvent malgré eux interconnectés, le réseau domestique n'est alors plus tout à fait "Indoor", avec les inconvénients que l'on peut imaginer.
( Cette "porte" ouverte à tous les vents rend indispensable l'utilisation d'un système de cryptage des données très robuste, DES aujourd'hui, AES demain).
- Le trafic CPL haut débit utilise aujourd'hui la bande 1,6 à 30 Mhz. L'impédance HF du réseau dans cette bande, vue depuis une prise électrique, peut être à peu près n'importe quoi selon la nature du réseau, le câblage, le diamètre des fils, les appareils connectés en fonctionnement, la qualité des raccordements, et bien d'autres subtilités, notamment le moment choisi pour faire la mesure. Ceci est contraire aux bonnes mœurs dans le domaine des réseaux numériques.
Il s'ensuit des phénomènes d'affaiblissement du signal et/ou de réflexion,
il sera parfois nécessaire d'installer des circuits de compensation.
La bande 1,6 à 30 Mhz, utilisée aujourd'hui pour les CPL domestiques, ne permet pas d'obtenir des débits binaires réels supérieurs à 40 Mbps dans la plupart des installations existantes. Il va donc être nécessaire d'utiliser des bandes de fréquences supérieures, typiquement jusqu'à 80 Mhz, pour passer des canaux TVHD avec un bon résultat. D'autres problèmes surgiront alors, mais chaque chose en son temps…
- Le fonctionnement du réseau CPL est interrompu en cas de panne de courant puisque les adaptateurs CPL sont alimentés par le 230 V.
Certains appareils, notamment ceux qui contribuent à la télésurveillance, à la sécurité, et aux systèmes anti intrusion, sont autoalimentés par batteries, mais ils sont inefficaces en cas de coupure de courant si les ordres leurs sont transmis par CPL. Une raison supplémentaire de ne pas négliger les liaisons radio et/ou filaires.
- Les performances du réseau CPL seront très dépendantes de sa configuration à un instant donné, selon le nombre et le types des appareils domestiques en fonctionnement.
- Le réseau de distribution électrique est exposé à la foudre et en général aux surtensions accidentelles, pouvant entraîner la destruction de plusieurs adaptateurs CPL.
- Le débit binaire efficace est fortement dépendant de la qualité du réseau. En effet, la norme prévoit que tout adaptateur CPL doit ajuster son débit de manière à garantir un TEB ( Taux d'Erreur Binaire) compatible avec l'application. Ceci est réalisé automatiquement par le choix dynamique du type de modulation.
Plus le réseau est perturbé et plus le débit est réduit.
C'est ainsi que des adaptateurs affichant un débit théorique de 1 200 Mbps par exemple, peuvent se trouver contraints de trafiquer à 30 ou 40 Mbps si le réseau est de mauvaise qualité, et cela est très fréquent sur les réseaux existants, de qualité assez médiocre.
______________________

Malgré ces inconvénients, l'intérêt pratique de ce réseau préexistant est tel qu'il a été plébiscité pour constituer LE réseau domestique chargé d'assurer les communications numériques de toutes natures et jusqu'à des débits binaires considérables (Aujourd'hui 1 200 Mbps théoriques!).
On peut cependant se demander s'il est bien raisonnable d'utiliser un support à priori non destiné à cette fonction, pour des applications aussi différentes que la commande d'une cafetière électrique, la recharge d'une batterie de voiture, l'ouverture d'un portail, le téléphone, l'internet, le multimédia, la télévision numérique haute définition, la vidéo surveillance, et bien d'autres choses encore.
L'avenir nous dira rapidement ce qu'il en est…
(Des adaptateurs CPL 1 200 Mbps sont déjà commercialisés, et pour un prix très raisonnable).
___________________

Jusqu'à présent, ERDF (Devenu ENEDIS) n'intervenait pas comme acteur CPL à l'intérieur du domicile, si l'on excepte l'application PULSADIS à très basse fréquence, destinée essentiellement à la commutation HP/HC . Mais pour la mise en œuvre du programme "SMART GRID" , il sera nécessaire d'offrir au fournisseur d'énergie la possibilité (négociée) de communiquer avec certains équipements de puissance afin de gérer les appels de puissance de pointe et/ou de négocier en temps réel certains aménagements tarifaires .
Il s'agit par exemple de gérer à distance la charge d'une batterie de voiture électrique, l'effacement de Zones de chauffage si celui-ci a été souscrit (Ancien abonnement EJP), négociations tarifaires en temps réels, etc.
Cette communication avec le domicile pourra utiliser différents supports: les CPL, un réseau filaire spécifique, ou une liaison radio.
Le nouveau compteur LINKY peut gérer ces trois modes.
Chaque compteur LINKY est équipé d'une interface filaire, et un logement est prévu pour insérer un module ERL (Emetteur Radio Linky), ceci afin de permettre à l'abonné d'échanger avec ENEDIS sur un réseau domotique résidentiel filaire ou radio, si l'usage des CPL ne lui convient pas).
ENEDIS va donc devenir un nouveau partenaire sur les réseaux énergétiques domestiques, pas seulement sur le support CPL, mais également en filaire et en radio.
Certains usagers se sont insurgés contre ce qu'ils considèrent comme une "intrusion" dans un domaine qu'ils pensaient réservé à leur usage personnel, voire intime. D'autres protestent contre une pollution insupportable des ondes Radio, ou contre des perturbations de leur propre réseau CPL.
Nous laissons aux juristes le soin de traiter ces conflits, et de faire le tri entre les problèmes de protection de la vie privée, les problèmes de compatibilité électromagnétique, et les problèmes touchant l'électro sensibilité de certaines personnes.
Nous leurs souhaitons bien du plaisir.
Rappelons cependant que l'abonné peut toujours placer un filtre passe-bas en sortie du compteur pour bloquer les signaux CPL indésirables, et utiliser les signaux disponibles sur la sortie filaire du compteur (Comme sur l'actuel CBE) ou utiliser la liaison radio, pour faire transiter les communications extérieures par le gestionnaire d'énergie du domicile.
Après tout on a toujours le droit d'être allergique aux CPL, et de leur préférer la bonne vieille paire torsadée ou l'imbattable câble coaxial, voire même la fibre optique, et pourquoi pas la liaison radio Zigbee ?
Mais pour cette dernière il faudra se méfier des rayonnements intempestifs qui peuvent bien valoir ceux des CPL…

________________________

Les CPL tout seuls ne pourront évidemment pas tout faire.
Le réseau domestique intègrera les différents systèmes de communication: Radio, Filaire, CP, Fibre optique, Infrarouge.
Les organismes de normalisation travaillent sur l'harmonisation des différentes normes afin d'assurer l'inter opérabilité entre les différents systèmes.
La norme IEEE 1905-1 / Avril 2013, définit les dispositions pour assurer la convergence des différentes normes spécifiques telles que:
IEEE 802-3 / Ethernet
IEEE 802-11 /WiFi
IEEE 1901 / CPL / HomePlug
MoCA / Multimedia over CoAxial.
Et quelques autres…
Afin de garantir à l'usager un niveau acceptable de compatibilité et d'interopérabilité entre les produits du marché.
Affaire à suivre…
________________________

14 août 2016 7 14 /08 /août /2016 19:11

14 Août 2016
Citation:
"L'une des principales limitations liées à la technologie CPL est le rayonnement non intentionnel de signaux électromagnétiques.
Ce phénomène est principalement dû à la nature asymétrique du réseau électrique.
La variation d'impédance des charges connectées au réseau, ainsi que les longueurs inégales des fils de phase et de neutre contribuent à la conversion du signal différentiel CPL en courant de mode commun traversant le réseau.
Dès lors, les fils de cuivre utilisés pour la transmission du signal utile réagissent comme une antenne et une partie de la puissance transmise est rayonnée.
Cela entraîne non seulement une forte atténuation du signal au niveau des récepteurs, mais génère également des problèmes de compatibilité électromagnétique (CEM).
Le signal rayonné peut interférer avec d'autres services existants tels que les communications Radio amateurs et/ou la Radiodiffusion ondes courtes".
Tout est dit dans cet en-tête de la thèse de Amilcar Mesco, présentée en 2013 sous le N° 2013 telb 0288 à l'Université de Bretagne, et portant sur l'étude des émissions électromagnétiques des CPL et des moyens de mitigation.
Travaux réalisés dans le cadre du Lab. RESA/DEAN, "Elecromagnetic Compatibility", ORANGE Labs (ex France Télécom R&D) à Lannion.
_______________________

Les CPL (Courants Porteurs en Ligne) sont utilisés depuis la nuit des temps ( Enfin, presque…) pour acheminer des communications de services à très bas débit binaire sur le réseau de distribution de l'énergie électrique, Haute et basse tension, sans créer de souci majeur au sein des populations, branchées ou pas.
Mais les progrès considérables réalisés dans les domaines des communications numériques ont donné des idées pour l'ouverture d'un marché des communications hautes fréquences sur le réseau domestique de distribution d'énergie.
En effet, les systèmes de codage et de modulation développés pour l'acheminement de la TV numérique, et pour la mise en œuvre du réseau téléphonique cellulaire, se sont révélés tellement performants qu'ils permettent de créer un réseau numérique de communication pratiquement avec n'importe quel support, même de très médiocre qualité.
Et justement, le réseau domestique électrique de distribution d'énergie, c'est bien n'importe quoi du point de vue réseau numérique.
Les travaux lancés dans les années 90 en Amérique, en Europe et au Japon, ont permis de mettre sur le marché des produits CPL permettant des débits binaires de plus en plus élevés.
De 10 Mbps au début, les meilleurs produits d'aujourd'hui affichent jusqu'à 1 200 Mbps, débit nominal théorique, est-il besoin de préciser.
On peut désormais transmettre sur les fils électriques des signaux numériques de la TVHD, de l'Internet, et du Multimédia, et réaliser ainsi un HAN , Home Area Network, dans lequel chaque prise électrique devient potentiellement un "Port" de communication à très haut débit.
Les applications visées étant évidemment le Multimédia incluant la TVHD, l'Internet, le son, la vidéo, et toutes les applications domotiques.
_________________

Les CPL de Grand'Papa, qui ne transmettaient que du très bas débit, se contentaient de fréquences porteuses de quelques dizaines de Kilohertz.
Mais pour transmettre 1 200 Mbps, il faut travailler en VHF.
Aujourd'hui on utilise la gamme 1,6 à 30 Mhz, qui permet de faire passer quelques dizaines de Mégabits par seconde, débit limité par la mauvaise qualité du support et la nécessité de partager la ressource.
(C'est tout ce que permet un réseau électrique domestique moyen, même avec des adaptateurs CPL affichant 200 Mbps et plus).
Pour faire mieux il faut monter en fréquences porteuses, on pense aller vers 80 Mhz, et probablement travailler non plus sur deux fils (Phase et Neutre) mais sur trois fils en mobilisant le fil de Terre pour compenser en partie les déséquilibres du réseau.
Comme indiqué dans la citation en en-tête, le réseau domestique devient un émetteur VHF dont le rayonnement est source de perturbations pour les autres usagers de ces gammes de fréquences:
Radiodiffusion, Radioamateurs, Aéronautique, Police, Armée, etc…
La chasse aux perturbations électromagnétiques devient donc un sport collectif avec ses règles et ses sanctions.
Le maître mot est CEM , Compatibilité Electro Magnétique.
________________

La "bronca" soulevée au sein des milieux des radioamateurs et des utilisateurs de la Radiodiffusion à ondes courtes ne sera pas apaisée par des bonnes paroles, même provenant des organismes comme l'UIT ou l'UER. Des résultats concrets devront être constatés.
Les personnes électro sensibles ne sont pas en reste et n'ont pas tardé à se faire entendre afin que leur cause ne soit pas glissée sous le tapis.
Leur ire est médiatiquement dirigée vers le nouveau compteur LINKY, mais celui-ci ne représente qu'une des sources possibles de perturbations, les principales étant les rayonnements haute fréquences émis par les installations domestiques elles-mêmes, qui trafiquent sur le réseau électrique dans la bande VHF (Bonjour les adaptateurs CPL @ 1,2 Gbps !!!).
Nous devons donc nous attendre à voir pleuvoir des normes imposant des limites drastiques aux rayonnements, limites qui ne pourront être respectées qu'en apportant au câblage électrique et aux matériels connectés des modifications sensibles susceptibles d'impacter la norme NF-C 1500.
_______________________

Les CPL haute fréquence se trouvent alors à la charnière de deux domaines: l'Electrotechnique et les Télécommunications, qui sont régis par des normes et des réglementations spécifiques.
Désormais toute norme émise pour l'un des domaines devra être compatible et complémentaire des normes de l'autre domaine.
_________________________

Les réseaux domestiques CPL sont par nature de la classe des réseaux privés "Indoor" ( Réseaux résidentiels) utilisant des signaux à faible puissance dont le rayonnement est "censé" être de faible portée.
A ce titre il n'est pas exigé d'autorisation préalable à la mise en service, par contre il est impératif de respecter les normes concernant les rayonnements électromagnétiques.
Une installation ne respectant pas les normes CEM sera purement et simplement démontée, sans préjudice des suites juridiques.
Les perturbations apportées ou subies par les CPL sont du ressort de la CEI ( Commission Electrotechnique Internationale) et plus particulièrement du CISPR ( Comité International Spécial des Perturbations Radioélectriques), créé en 1934 et actif dans tous les domaines concernés par la CEM ( Compatibilité Electro Magnétique).
Les CPL sont concernés par les normes CISPR 22 et 24 principalement.
D'autres normes existent concernant des domaines présentant des recouvrements, issues de la CEI, de la FCC (Federal Communication Commission), de l' ISO, et des normes européennes diverses.
__________________

La dernière norme Européenne concernant spécifiquement les perturbations électromagnétiques des CPL indoor hautes fréquence est la EN 50 561-1 publiée au JO du 25/02/2014.
Norme issue des travaux du CENELEC et approuvée par l'UER.
Cette norme spécifie les limites et les méthodes de mesure des perturbations électromagnétiques des appareils utilisant l'installation domestique basse tension comme réseau de transmission dans la gamme de fréquences de 1,6 à 30 Mhz.
Les détails sont disponibles sur le Net.
Il reste maintenant à confronter cette norme aux applications de terrain, et en particulier concernant les nuisances vis-à-vis des autres applications comme la radiodiffusion et les communications des radio amateurs, et à statuer sur le traitement à appliquer aux installations CPL déjà existantes.
___________________

Le réseau domestique est donc appelé à devenir multi services. On peut définir deux grandes catégories d'applications:
- D'une part les applications relatives au "Smart Grid", qui ne nécessitent pas un débit très élevé mais exigent une fiabilité et une qualité de service maximales. Il s'agit par exemple de la gestion des consommations énergétiques de puissance, et particulièrement les installations de charge des batteries de VE, et les installations individuelles de production d'énergie solaire ou éolienne.
- D'autre part les applications multimédia numériques comme la TVHD et Internet, qui ont besoin de très hauts débits binaires, et doivent faire appel à des procédés de codage et modulation très robustes et adaptatifs pour gérer "à minima" les perturbations électromagnétiques dans la bande VHF déjà occupée.
Les deux types d'applications doivent évidemment coexister sur le même réseau, ce qui implique une convergence au niveau des standards, au moins pour les couches basses du modèle de l'ISO.
En particulier au niveau de la cohabitation, de l'interopérabilité, de la rétrocompatibilité, de la gestion des collisions et des priorités, et bien sûr des CEM.
__________________

On imagine sans peine que la coexistence, sur un même réseau physique imparfait, d'une multitude d'applications domestiques incluant la TVHD et Internet, auxquelles viendront s'ajouter les communications CPL du fournisseur d'énergie dans le cadre du "Smart Grid", n'ira pas sans poser de nombreux problèmes de cohabitation et d'interopérabilité, aggravés par la diversité des technologies utilisées par les différents fournisseurs de matériel ( Adaptateurs CPL) ayant choisi des protocoles pas toujours en accord entre eux.
Le protocole le plus populaire est aujourd'hui HPP, Home Plug & Play, supporté par la HomePlug Alliance, créée en 2 000, par association de constructeurs, de distributeurs d'énergie électrique, d'instituts et d'universités (Plus de 80 membres ) pour le développement d'un standard CPL à vocation internationale.
Une première version ( HomePlug 1.0) est sortie en 2001 et depuis, différentes versions sont venues enrichir les possibilités, jusqu'à la version HomePlug AV2 qui affiche un débit théorique de 600 Mbps.
On parle maintenant de débits binaires dépassant 1 200 Mbps, débits théoriques évidemment, avec un réseau non plus à deux fils (Phase et Neutre ) mais à trois fils , le fil de Terre étant utilisé pour la compensation des modes communs.
Le débit pratique dépend de la qualité du réseau et des contraintes de partage de la ressource.
Il existe d'autres protocoles, notamment DHS, Digital Home Standard, issu à l'origine de l'UPA (Universal Powerline Association), créée en 2004, qui est implémenté sur un "Chipset" pas compatible avec certaines versions de Home Plug.
Il existe donc un certain flou au niveau des normes et la nécessité d'harmoniser ce domaine n'a pas échappé aux industriels.
Ces problèmes sont pris en charge par deux projets européens:
Projet OMEGA ( hOME Gigabits Access), lancé en 2008, avec 24 partenaires (Industriels, Opérateurs Télécom, Instituts, Universités). L'objectifs est d'établir les bases d'un réseau très haute fréquence intégrant des technologies multiples: CPL, Radio, Fibre optique.
Ce projet est relayé par un autre projet européen: "Acemind", 2013-2016,
"Advanced Convergent and Easily Manageable Innovative Desing"
basé sur les acquis du projet OMEGA, et dont l'objectif est l'intégration des applications d'usages multimédias et le contrôle des objets connectés.
Y participent: Orange, SAGECOM, Devolo, IHP Microelectronics.
On comprend alors que, dans l'avenir, le réseau électrique domestique devra tenir compte de cette nouvelle fonction de communication hautes fréquences. On ne pourra plus "tirer des fils" n'importe comment, il faudra respecter certaines règles, et peut-être blinder certaines parties du réseau. Les appareils connectés devront respecter le signal CPL afin d'une part de limiter les perturbations électromagnétiques créées, et d'autre part de ne pas introduire de ruptures d'impédance HF excessives, pour préserver les débits binaires.
La norme NF-C 1500 devra comporter un volet relatif à la compatibilité CPL.
_____________________

La situation actuelle des CPL n'est donc pas "gravée dans le marbre", une certaine harmonisation des normes et des protocoles n'interviendra pas avant plusieurs années, notamment pour ce qui concerne les applications "Smart grid" et la convergence vers le concept multisupports (Radio, CPL, Fibre optique, paire torsadée) pour les objets connectés.
En attendant, il nous faudra porter attention à la compatibilité des divers appareils achetés ici et là, et se souvenir que le réseau Ethernet, ce n'est pas mal non plus, de même qu'un bon WiFi.
Comme disait feu ma grand-mère,
c'est dans les vieux pots qu'on fait la meilleure soupe…

2 août 2016 2 02 /08 /août /2016 11:49

2 Août 2016
Nous avons vu précédemment que le remplacement des carburants fossiles dans les transports, essence, gazole, et GNV, se fera sous la forme d'une synergie entre différentes solutions:
- Par la substitution pure et simple des carburants fossiles par des biocarburants de seconde et troisième générations, dans des moteurs thermiques "classiques", grâce aux filières BtL (Biomass to Liquid) et BtG ( Biomass to Gas).
Les véhicules "Flex fuel" en sont la préfiguration.
- Par la croissance de la part de marché des véhicules électriques purs à batteries, qui circulent déjà aujourd'hui.
- Par la croissance de la part des véhicules hybrides à bi motorisation, électrique et thermique, utilisant l'électricité d'une batterie associée à un biocarburant .
- Par le développement des véhicules électriques à Hydrogène et pile à combustible, avec stockage du Gaz dans des réservoirs sous très haute pression, ou à faible pression sur des matériaux adsorbants réversibles.
- Par le développement des véhicules électriques à Hydrogène, ce gaz étant généré in situ à partir d'un biocarburant liquide comme l'Ethanol.
Ces différentes solutions (Et éventuellement d'autres non encore émergentes) sont condamnées à cohabiter avec plus ou moins de bonheur, durant le temps de la transition énergétique à l'issue de laquelle émergeront une ou deux solutions privilégiées par le marché et les impératifs technologiques.
____________________

La clarification de ce futur marché n'interviendra pas avant 2040 dans le meilleur des cas, et il faudra probablement attendre 2050 si le pétrole fait de la résistance, ce qui semble être le cas comme on peut le constater chaque jour à la pompe.
En attendant de connaître le ou les vainqueurs, les constructeurs qui souhaitent rester dans la course, ou y participer comme nouveaux entrants, ne doivent négliger aucune piste et garder plusieurs fers au feu, au besoin grâce à des alliances leur permettant de "manger au bon râtelier" le moment venu.
Quant au consommateur, il lui faudra beaucoup d'abnégation pour supporter ces changements perpétuels de technologies et de normes, avec tous ces plâtres qu'il lui faudra essuyer, et des voitures invendables au bout de trois ans pour crime d'obsolescence.
Les moins patients auront choisi de délaisser l'investissement désormais illusoire, et de s'orienter plutôt vers la location.
_________________

Aujourd'hui en France, le secteur des transports consomme annuellement 50 Mtep de produits pétroliers, ce qui correspond à un total de 70 Milliards de litres de carburants (Essence et Gazole), soit une énergie de 700 TWh environ (10 KWh par Litre).
( 700 000 000 000 KWh).
Qui représentent environ le tiers de la consommation totale d'énergie du Pays, et 40% de plus que la seule consommation d'énergie électrique.
L'énormité du chiffre est souvent sous estimée car ce flot d'énergie n'est pas visible; aucun derrick dans nos campagnes, des raffineries peu nombreuses, un environnement très peu agressé, des circuits de distribution discrets, tout concourt à jeter un voile pudique sur cette orgie de pétrole.
La réalité nous apparaîtra lorsqu'il s'agira de remplacer ce pétrole par des Biocarburants que nous devront fabriquer nous-mêmes, et probablement importer comme nous le verrons plus loin.
Les trois quarts de l'énergie des transports sont perdus sous forme de chaleur dissipée par les moteurs thermiques dont les rendements moyens ne dépassent pas 25%.
Ce formidable gaspillage nous met devant l'obligation de réformer ce secteur, dès lors que l'on prétend mettre en œuvre une transition énergétique efficace.
Il est primordial de viser un rendement énergétique global supérieur à 50% dans le secteur des transports.
Si les Biocarburants sont une solution pour lutter contre l'effet de serre, par contre ils ne contribuent pas à l'amélioration du rendement énergétique.
On pense alors évidement à substituer au moteur thermique le moteur électrique, qui échappe au désastre thermodynamique du moteur à combustion.
La substitution par des motorisations électriques avec batteries, dont le rendement atteint 80 %, ramènerait la consommation énergétique des transports à 16 Mtep (220 TWh), soit trois fois moins qu'aujourd'hui !!
Un tel gain d'efficacité énergétique est sans appel, et montre à l'évidence que l'avenir est à la traction électrique, qui offre le mérite supplémentaire de n'émettre aucun polluant.
Désormais, aucun projet sérieux de transition énergétique ne sera recevable s'il ne comporte pas l'objectif de la suppression à terme des moteurs thermiques.
(Nous disons bien "à terme", car les biocarburants vont leurs donner une seconde jeunesse qui pourra se prolonger longtemps si les problèmes de la traction électrique tardent à se résoudre).
__________________

Le moteur électrique a donc la préférence, mais la quête du Saint Graal comporte bien des embûches, le principal obstacle étant ici celui des batteries.
Les progrès incontestables apportés par les nouvelles batteries n'a pas permis d'obtenir la capacité énergétique spécifique suffisante pour envisager une généralisation du procédé.
Rappelons ici que la capacité énergétique d'une batterie et la puissance maximale qu'elle peut fournir sont des paramètres contradictoires. On ne peut avoir l'un et l'autre, il faut choisir l'un ou l'autre, c'est-à-dire chercher le bon compromis.
Aujourd'hui le compromis s'est établi à 100 Wh/kg pour la capacité des éléments Lithium-ion utilisés dans l'automobile, ce qui donne pour une batterie de 30 KWh un poids de 300 kg, et une puissance max d'environ 60 KW , soit 150 Ampères sous 400 Volts.
(Les moteurs thermiques nous ont familiarisés avec des puissances beaucoup plus flatteuses, supérieures à 100 KW, qui sont hélas inaccessibles avec des batteries de 30 KWh).
Le lecteur familier de la règle de trois aura mis le doigt sur le problème:
Une batterie de 30 KWh qui fournit 60 KW de puissance, sera vidée en une demi-heure!
C'est là le triste sort de la voiture électrique à batterie.
On peut aller vite, mais pas bien loin.
En roulant "pépère" une voiture moyenne a besoin d'une énergie de 15 KWh aux roues motrices pour parcourir 100 km.
Avec 30 KWh, et en gardant le pied léger, très léger, sur l'accélérateur, on peut donc espérer faire 200 km, à condition de pouvoir récupérer une partie de l'énergie du freinage.
De toutes façon l'engin ne sera jamais capable de faire bonne figure devant une voiture moderne à moteur thermique, le fameux test de 0 à 100 km/h est sans appel, même s'il est stupide en soi, c'est la publicité qui l'impose.
Pour permettre aux voitures électriques de ne pas être ridicules vis-à-vis des thermiques qui affichent des puissances deux ou trois fois supérieures, les constructeurs se sont crus obligés de les équiper de moteurs surpuissants tout à fait disproportionnés par rapport aux capacités de la batterie.
Alors on obtient certes des tests de 0 à 100 km/h flatteurs, mais l'autonomie en est drastiquement réduite, au grand dam de certains clients qui se retrouvent en "panne sèche" au bout de 80 km, alors qu'ils espéraient en faire 200, comme c'est écrit dans la notice!
(Ici on peut s'indigner de constater que les constructeurs profitent de l'incapacité des consommateurs non avertis à faire la différence entre un KiloWatt et un KiloWattheure, pour leur faire prendre des vessies pour des lanternes).
En face des 100 Wh/kg d'une batterie "standard" actuelle, le carburant pétrolier affiche 12 000 Wh/kg, ce qui, même en tenant compte du mauvais rendement thermique (25%), donne un avantage de x 40 au carburant liquide.
Bien sûr, moyennant un surcoût substantiel, on peut augmenter la capacité des batteries en les associant à un supercondensateur, ce qui permet d'optimiser la batterie pour améliorer sa capacité spécifique énergétique, les pointes de puissance étant alors prises en charge par le supercondensateur. On peut ainsi quasiment doubler la capacité à poids égal, et passer à 200 Wh/kg, mais au prix d'un supplément de coût significatif.
(Une batterie ne peut pas être optimisée à la fois pour avoir la plus grande capacité, et pour avoir le courant le plus fort, elle est le résultat d'un compromis entre ces deux qualités).
Quelques modèles récents de voitures sont ainsi équipés avec une batterie de 60 KWh associée à un supercondensateur, mais avec un surcoût qui a pour résultat de tirer vers le haut le prix des voitures électriques.
Le ratio de capacité au kg par rapport au carburant liquide est alors ramené à 20, en tenant compte du rendement des moteurs thermiques (25%).
__________________

Un poids de supercarburant de 50 kg (70 Litres) confère une autonomie de 1000 km à une voiture moyenne à moteur thermique, selon les standards actuels.
70 Litres contiennent une énergie de 700 KWh.
Avec un rendement moyen de 25%, l'énergie "utile" est donc de 175 KWh.
Pour avoir la même autonomie avec une voiture électrique à batterie, il faudrait donc que celle-ci délivre à la roue la même quantité d'énergie utile, soit 175 KWh. (A égalité de poids et de dimensions).
Le rendement de la propulsion électrique étant voisin de 80%, l'énergie totale à fournir sera de 218 KWh.
Une batterie au Lithium ne peut être complètement déchargée, 10% de la charge doivent être préservés sous peine de détérioration, ce qui nous conduit à une capacité nominale nécessaire de 240 KWh.
Dans l'hypothèse d'une batterie couplée à un supercondensateur (hypothèse la plus favorable) on peut envisager une capacité spécifique de 200 Wh/kg, ce qui nous donne un poids nécessaire de 1 200 kg pour la batterie.
Ce qui est évidemment absurde pour une voiture particulière, qui se trouverait complètement plombée par cette surcharge.
En effet, sur les voitures électriques particulières, le poids de batterie est généralement limité à 300 kg (le poids de quatre personnes adultes, ce qui est déjà un surpoids considérable), et donc une capacité de 240/4 = 60 KWh, toujours dans l'hypothèse haute d'une batterie couplée à un supercondensateur.
L'autonomie est alors réduite à 250 km, puisque la capacité de batterie est divisée par quatre.
Cette autonomie pourra atteindre 300 km dans les conditions favorables permettant la récupération d'énergie au freinage. Ces conditions existent en agglomération, mais pas sur autoroute, là où l'on en a justement besoin.
C'est ce qu'on peut constater sur les quelques modèles récents équipés de batteries de 60 KWh.
Il est donc impossible, avec la technologie de batteries d'aujourd'hui, d'atteindre une autonomie de 1000 km, ni même la moitié, et de loin.
(Certains dépliants publicitaires peuvent affirmer le contraire, mais les essais en conditions "normales" montrent que les lois de la Physique ne sont jamais violées).
D'autre part, il est vite apparu que l'augmentation des capacités de ces batteries conduirait à des problèmes de puissance des stations de recharge, susceptibles de perturber l'équilibre des réseaux de distribution. Enfin, la généralisation de la propulsion électrique entraînerait une consommation énergétique à hauteur de 250 TWh (Consommations augmentées des pertes de rendement), soit la production de 21 réacteurs EPR, ou encore 17 000 éoliennes offshore de 5 MW, avec les installations de compensation de l'intermittence (STEP) indispensables.
Pour toutes ces raisons cumulées, il semble que la solution tout électrique à batterie restera réservée à une "niche" de véhicules pouvant se satisfaire d'une autonomie réduite (Taxis, véhicules de livraisons à circuits courts, véhicules de transport collectif locaux, véhicules particuliers à usage limité, ou de services publics, véhicules en libre service, véhicules de loisirs, ou de luxe*).
Ce qui pourrait correspondre à une part de marché de 15 à 20%, soit 5 à 7 millions de véhicules en France.
* Nous classons la Tesla dans la catégorie véhicule de luxe, qui sont faits plus pour être exhibés que pour tailler la route.
" Chauffeur, ce soir vous sortirez la Tesla, nous allons au casino…"

_________________

Pour s'affranchir des problèmes liés à la batterie, tout en conservant les avantages décisifs de la traction électrique, les ingénieurs ont imaginé de fabriquer l'électricité dans le véhicule lui-même, à partir d'une pile à combustible, puisque les combustibles liquides ou gazeux ont une capacité énergétique spécifique beaucoup plus grande que celle d'une batterie.
On utilise alors soit de l'Hydrogène, soit un biocarburant comme l'Ethanol.
De tels véhicules roulent déjà sur nos routes.
L'autonomie ne dépend alors plus que de la contenance du réservoir d'éthanol, ou d'Hydrogène.
Malgré quelques pertes de rendement au niveau du vaporeformage de l'Hydrogène et au niveau de la pile, l'efficacité énergétique demeure très supérieure à celle de la motorisation thermique ( la valeur de 60% est généralement avancée).
Le coût de la pile à combustible ne sera pas plus élevé que le coût d'une batterie au Lithium de 60 KWh avec supercondensateur, ce qui en fait une solution compétitive, d'autant plus qu'elle permet de répondre au critère d'autonomie exigée.
___________________

Sur la base de ces considérations on peut tenter de se projeter à moyen terme (2040-2050) pour évaluer la répartition des différentes solutions dans deux ou trois décennies:
La solution à biocarburants liquides avec moteur thermique est de loin la plus simple à mettre en oeuvre puisque qu'elle n'exige aucun saut technologique coté motorisation, et que les biocarburants de première génération (1G) sont déjà disponibles et largement utilisés dans certaines régions du Globe, et en Europe.
La seconde génération (2G) atteint le stade industriel et pourrait être proposée rapidement aux automobilistes.
(La génération 3G est encore en phase de validation).
Compte tenu de cette facilité d'utilisation, mais en tenant compte des problèmes de croissance de la production des carburants 2G et de la concurrence des produits pétroliers toujours disponibles, on peut estimer à 50% la part du secteur des transports convertie aux biocarburants 2G à l'horizon 2040.
Même si on peut le regretter, le moteur thermique ne cédera donc pas facilement le terrain.
On peut également estimer que 20% resteront fidèles aux carburants fossiles, gazole et super ( S'ils existent encore à un prix abordable).
Le pétrole n'est pas prêt de dire son dernier mot.
Les 30% restant seront partagés entre la solution électrique à batterie, et la solution à pile à combustible.
(Cette dernière solution exige encore une longue phase de validation et d'optimisation des rendements et des coûts de fabrication, qui peut s'étendre sur deux décennies).
En gardant toujours présent à l'esprit l'objectif ultime de suppression des moteurs thermiques, mais sans pouvoir en fixer l'échéance.
Par la suite, au-delà de 2050, l'avenir du moteur thermique dépendra d'une part de l'efficacité technico-économique des solutions à pile à combustible, et d'autre part de la disponibilité et du prix des biocarburants de seconde et troisième générations issus de la Biomasse terrestre et aquatique.
____________________

Quelles que soit les prévisions tentées en 2016, l'évolution réelle du marché et sa physionomie en 2050, seront conditionnées par le maintien ou non de la suprématie des combustibles fossiles sur le secteur de l'énergie.
Aucune transition de grande ampleur ne pourra être entreprise tant que le coût du pétrole restera à son niveau actuel de braderie.
Le prix de vente HT du KWh de supercarburant pétrolier est de 5 centimes d'euro ( Extraction, raffinage, distribution, marge), soit 50 centimes HT le Litre environ.
Le reste est composé de taxes ( TICPE et TVA en France).
Compte tenu du rendement des moteurs thermique (# 25%) et de celui de la propulsion électrique à pile à combustible (# 65%), la parité de prix serait obtenue pour un prix de vente HT de 13 centimes d'euro pour le KWh de biocombustible utilisé.
Soit 90 centimes par litre pour de l'Ethanol (prix HT).
(Un litre d'Ethanol contient 7 KWh d'énergie, contre 10 KWh pour du super).
Aujourd'hui le Bioéthanol de première génération est distribué à la pompe à un prix HT encore supérieur à la limite de parité avec le supercarburant. Cette différence est compensée par une réduction des taxes sur les émissions de CO2.
Mais cette première génération est condamnée puisqu'elle utilise des produits de cultures vivrières.
La génération G2, utilisant les résidus lignocellulosiques et des produits de cultures dédiées, est prête pour l'industrialisation, mais l'énergie est produite à un coût très supérieur à la limite de parité.
Cette production devra donc être abondamment subventionnée, sans certitude d'atteindre la parité dans un délai raisonnable.
Il en est bien sûr de même pour la troisième génération, qui en est aujourd'hui au stade des démonstrateurs industriels.
__________________

On constate donc que le pétrole reste toujours le maître du jeu.
Seule une lourde taxe carbone pourrait faire bouger les lignes, mais au prix d'une augmentation très significative du coût de l'énergie pour le consommateur, qui n'est évidemment pas prêt à l'accepter.
Le prix de la transition sera décidément difficile à avaler…
___________________

La véritable volonté des Etats de lutter contre le réchauffement se mesurera aux moyens qu'ils mettront en œuvre pour "plomber" financièrement les combustibles fossiles afin de permettre le déploiement des solutions à énergie renouvelable.
Cette manœuvre nécessitera un grand discernement car il faudra éviter, en "plombant" le pétrole, de plomber aussi l'économie…
Il suffit de constater les difficultés rencontrées en France pour harmoniser les taxes sur les carburants, pour comprendre qu'une action sur le levier des taxes n'est jamais exempte d'effets secondaires non souhaitables.
__________________

Aujourd'hui, avec # 100 % de moteurs thermiques, la consommation est de 700 TWh, pour 70 Milliards de litres.
Dans un futur à moyen terme, et selon les hypothèses proposées plus haut, la répartition en 2040 pourrait être la suivante:
20% Moteurs thermiques, carburants pétroliers inchangés.
50% Moteurs thermiques, Biocarburants( Ethanol, Biodiesel, Bio GV).
15% Moteurs électriques à Batterie.
15% Moteurs électriques à pile à combustible.

Les Biocarburants devraient alors fournir environ 400 TWh, soit l'équivalent de 50 Milliards de litres si l'on tient compte du PCI de l'Ethanol, inférieur à celui du super.
Tous ces chiffres sont évidemment des ordres de grandeur reposant sur des hypothèses de travail, aussi réalistes que possible, mais qui demeurent des hypothèses.
___________________

Les Biocarburants ne seront pas obtenus en creusant quelques puits dans le sol. Il faudra les fabriquer.
Pour savoir d'où sortiront ces milliards de litres, Il est essentiel de dresser un bilan des ressources éligibles de Biomasse, afin de prévoir le degré d'autosuffisance qu'elles pourront garantir au Pays, et mettre sur pied, si nécessaire, des accords de coopération avec les pays susceptibles de compléter nos approvisionnements.
Sans oublier que les transports ne sont pas les seuls consommateurs d'énergie, et que les ressources de la biomasse devront être partagées avec les secteurs de l'Industrie, du résidentiel-tertiaire et de la Chimie.
___________________

L'ADEME et L'INRA se sont évidemment intéressés à la chose, car il est essentiel d'identifier nos possibilités d'indépendance énergétique, celle-ci étant l'un des objectifs du remplacement des énergies fossiles.
Les chiffres ci-dessous sont tirés du rapport de L'INRA:
"Semer aujourd'hui les carburants de demain"
Il faut d'abord oublier les biocarburants de première génération, non conformes à l'esprit de la transition énergétique, qui impose de ne pas porter préjudice aux capacités de production de produits alimentaires, que ce soit sur le territoire national ou ailleurs.
Le seul intérêt des biocarburants 1G est de permettre le rodage d'une filière, d'en voir les avantages et les inconvénients, et de développer les matériels adaptés, que ce soit pour la production ou pour l'utilisation.
_____________________

Les Biocarburants 2G , qui nous intéressent ici, utilisent la matière ligno-cellulosique, considérée comme non concurrentielle vis-à-vis des productions agricoles vivrières, comme les céréales, la betterave, le maïs, les oléagineux consommables.
La 2G utilise en gros les résidus agricoles et les cultures dédiées pratiquées sur des sols infertiles ou délaissés.
Ceci doit être nuancé puisqu'une partie des rémanents agricoles sont utilisés pour le bétail, et une autre partie reste sur le terrain pour contribuer à l'amendement des sols; que serait l'agriculture Bio sans un bon fumier ? On pourrait aussi évoquer une troisième partie utilisée à des fins non agricoles, par exemple dans des matériaux de construction ou d'isolation.
Donc, l'évaluation de la quantité de matière lignocellulosique pouvant être consacrée aux biocarburants doit tenir compte de ces autres utilisations qui ne doivent pas en souffrir.
On ne peut déshabiller Pierre pour habiller Paul.
Cette évaluation doit également tenir compte de la facilité d'accès à la ressource (Récupération, conditionnement, transport, séchage), qui impacte le prix évidemment, lequel ne doit pas plomber de prix de revient du carburant.
Il faudra également évaluer le coût énergétique de ces différentes opérations. Il n'y aurait aucun sens à dépenser un litre de gazole pour produire un litre de Biodiesel !
Ces considérations valent également pour les résidus de sylviculture, qui doivent être évalués en tenant compte des autres usages du bois (Bois énergie, pellets, bois de trituration, de construction, d'ameublement, etc..).
Tenant compte de toutes ces contraintes, le rapport en question évalue la masse de matière sèche lignocellulosique accessible à environ 15 Millions de tonnes par an, en comptant les résidus de l'agriculture et de la sylviculture.
Cette masse pourrait être doublée en ajoutant les cultures dédiées sur les sols non utilisés par l'agriculture "vivrière".
Soit un total de 30 Millions de tonnes MS (Matière Sèche).
Cette évaluation devra être affinée évidemment, mais elle constitue un bon ordre de grandeur.
Toutes les matières sèches lignocellulosiques présentent une composition à peu près semblable quelque soit le produit: C6-H9-O4
Et une valeur énergétique sensiblement constante.
Leur transformation en Biocarburant s'obtient avec un rendement d'environ 20%, soit 200 kg par tonne MS.
30 Mt/MS permettent donc d'obtenir environ 8 Milliards de litres de Biocarburant de densité 0,7.
Dans notre hypothèse ci-dessus, pour alimenter 50% du parc roulant en biocarburants, il nous faudrait 50 Milliards de litres.
La production intérieure de 8 Milliards de litres, telle qu'elle est évaluée ci-dessus, ne représente que 16% des besoins du seul transport, Il faudrait donc importer le reste, soit 84%.
Les autres secteurs, comme le Résidentiel/Tertiaire et l'Industrie, devront également se convertir aux biocarburants, lequel devra être importé en totalité.
Cette évaluation, grossière mais réaliste, donne la mesure du problème à résoudre pour remplacer les produits pétroliers.
La seule exploitation de la matière lignocellulosique disponible sur le territoire national ne suffira pas, et de loin, puisqu'elle ne permettra de couvrir que 4 à 5% des besoins intérieurs.
L'apport des Biocarburants de troisième génération, obtenus à partir de cultures d'algues, atténuera la pénurie mais ne permettra pas combler le déficit, et de loin.
Ces Biocarburants de troisième génération sont en cours de développement depuis plusieurs décennies. Différents programmes soutenus par les Gouvernements et l'Union Européenne ont permis de valider plusieurs voies de fabrication. Quelques unités industrielles sont en cours de validation.
__________________

Le remplacement pur et simple du pétrole par des biocarburants dans des moteurs thermiques, s'il permet de verdir le CO2 émis, n'améliore pas le rendement énergétique.
Le rendement des moteurs demeure minable, voisin de 25%, et la quantité de carburant nécessaire est augmentée de 20% dans le cas de l'Ethanol dont un litre ne contient que 7 KWh contre 10 KWh pour du Super.
Quant au Biodiesel, il présente les mêmes inconvénients que le pétrole, les émissions de Nox sont difficiles à maîtriser.
Ces considérations justifient de s'intéresser à la solution pile à combustible avec moteur électrique.
Le rendement global peut y atteindre 60%, ce qui permet de réduire considérablement la quantité de carburant nécessaire, dans un rapport 2,3,
Ce qui représente une économie de 200 TWh !
___________________

La transition énergétique devra atteindre deux objectifs:
- Supprimer les émissions de CO2 fossile.
- Réduire drastiquement la dépense énergétique.
Dans les transports, il semble bien que le moteur électrique soit un passage obligé, associé à une batterie et/ou une pile à combustible.
Le moteur électrique apporte son excellent rendement et son absence d'émissions polluantes ou de GES.
La pile à combustible utilise un carburant propre de très haute capacité énergétique, garant d'une grande autonomie.
La solution à batterie seule restant dédiée aux applications se satisfaisant d'une autonomie réduite.
La généralisation de ces solutions permettrait à terme d'économiser 400 TWh, de supprimer les émissions de GES , et de s'affranchir des problèmes de pollution générés par les moteurs thermiques, même utilisant des biocarburants.
La solution à batterie seule a montré ses limites, à la fois technologiques, et surtout logistiques à cause des problèmes de recharge de batteries de très grandes capacité.
Reste la solution à pile à combustible, qui peut constituer une planche de salut pour l'après pétrole.
Mais le combustible en question, obligatoirement renouvelable, devra être majoritairement importé, ce qui ne va pas dans le sens de l'indépendance énergétique.
Mais peut-on faire autrement ?

26 juillet 2016 2 26 /07 /juillet /2016 09:47

Quelle vie après le pétrole ?

26 Juillet 2016
Dans les pays dits développés, et depuis quatre générations, la Société et l'Economie se sont structurées sur la base du machinisme, lequel a été rendu possible par la découverte de sources fossiles d'énergie disponible en quantités illimitées, et donc à bas coût.
Aujourd'hui le KWh de carburant prêt à l'emploi est vendu 5 centimes HT à la pompe. Le prix du Gaz naturel est du même ordre.
Un seul paquet de cigarette est vendu CINQ fois plus cher qu'un litre de super ( 7 euro TTC contre 1,4 euro TTC).
Un fumeur "moyen" ( Un paquet par jour) dépense TROIS fois plus d'argent pour ses cigarettes qu'un automobiliste moyen parcourant 12 000 km par an ne dépense pour son gazole !!
L'abondance de ces ressources naturelles fossiles à bas coût nous a conduits à ignorer délibérément pendant un siècle la démarche de recherche de l'efficacité énergétique.
L'exploitation de cette énergie repose, pour l'essentiel encore, sur des cycles thermodynamiques dont le rendement est bien souvent déplorable, rarement supérieur à 30%, et parfois 25% dans les transports.
(Même l'électricité nucléaire n'échappe pas au cycle thermodynamique puisqu'un réacteur à fission n'est qu'une chaudière un peu sophistiquée dont la vapeur actionne une turbine, en somme une machine à vapeur modernisée).
Quasiment les trois quart de cette énergie sont donc perdus sous forme de chaleur dissipée en pure perte.
La cogénération, qui permet de récupérer une partie de la chaleur perdue, n'est encore que faiblement utilisée.
___________________

Les énergéticiens savent évidemment depuis longtemps que ces ressources naturelles fossiles ne sont pas inépuisables. Leur existence résulte de l'enfouissement catastrophique d'énormes quantités de matières organiques ayant subi un processus de transformation au cours des millions d'années écoulées.
Une fois ce stock épuisé, la pénurie surviendra inéluctablement.
Oui mais, quelle est l'échéance ?
__________________

Ici l'honnêteté intellectuelle nous impose de signaler l'existence d'un courant d'opinion minoritaire qui soutient l'idée d'une possible origine abiotique d'une partie au moins des Hydrocarbures puisés dans le sol.
Abiotiques signifie que ces produits se sont formés non pas à partir de matières organiques, mais par des réactions chimiques entre composés minéraux présents dans la croute terrestre, donc potentiellement inépuisables.
Des géologues ont effectivement constaté que des Hydrocarbures abiotiques (Donc non fossiles) peuvent se former spontanément dans le sous-sol à grande profondeur, sous les effets conjugués des très fortes pressions et des très hautes températures, en présence de certains composés minéraux présents dans le substrat. Ces produits remonteraient ensuite à travers les fissures de la croute terrestre.
Si ce processus de formation a bien été constaté et expliqué par les scientifiques, et reproduit partiellement en laboratoire, les recherches en cours n'ont pas encore confirmé l'existence de quantités significatives justifiant une exploitation industrielle.
(On trouvera un excellent article référencé sur la question sur le site de Médiapart).
Ce qui vient d'être dit vaut également pour les sources naturelles d'Hydrogène signalées ici et là, et dont l'étude pourrait révéler l'intérêt comme sources décarbonées.
Bien sûr cette "affaire" de pétrole abiotique fait l'objet de débats acharnés où il est question de "complot" au bénéfice des pétroliers, toujours la théorie du complot, objet de sarcasmes de la part de ceux "à qui on ne la fait pas".
La meilleure ruse du diable n'est-elle pas de faire croire qu'il n'existe pas ?
Si l'une ou l'autre de ces "Hypothèses" s'avérait exacte, il en résulterait évidemment un changement considérable affectant la notion de réserve énergétique.
Mais jusqu'à nouvel ordre, les réserves d'Hydrocarbures accessibles demeurent officiellement un résidu décomposé de Biomasse ancienne non renouvelable et donc appelé à s'épuiser. C'est vrai aussi pour le charbon.
L'échéance fatale dépendra de l'évolution du profil de consommation des
pays émergents, qui aspirent à améliorer leurs conditions de vie.
_______________

Le remplacement de ces sources fossiles est donc une nécessité inéluctable qui fait consensus, du moins dans les réunions internationales, la seule inconnue étant le calendrier de cette transition que, faute de mieux, on s'accorde à fixer à un ou deux siècles, ce qui nous laisse un temps "raisonnable" d'adaptation (On n'a pas parlé de Calendes Grecques, mais certains y ont pensé très fort).
____________________

Sur ce problème d'épuisement des ressources fossiles, somme toute peu urgent, est venu se greffer un problème beaucoup plus pressant, celui du changement climatique dû (attribué) aux émissions anthropiques de GES, liées à la combustion des énergies fossiles.
Il ne s'agit alors plus de gérer "en bon père de famille" la baisse des réserves fossiles, mais bien de freiner de tout urgence la montée des taux atmosphériques de GES et de CO2 en particulier.
(Le Méthane est lui aussi fortement concerné, mais nos automobiles n'en rejettent pas, c'est donc beaucoup moins médiatique).
Les éventuels hydrocarbures abiotiques seront eux aussi condamnés puisqu'ils émettent en brûlant autant de CO2 non renouvelable que les autres.
Ce n'est plus une question de siècle, mais de décennie pour amorcer une transition énergétique vertueuse susceptible de limiter une éventuelle catastrophe climatique.
Il va donc nous falloir fermer prématurément les robinets du pétrole et du gaz naturel (Abiotiques ou pas) et cesser de brûler du charbon, et ceci dans des délais beaucoup plus courts que prévus initialement.
C'est du moins le consensus proclamé "urbi et orbi" par les Etats périodiquement réunis en Assemblée constituante de notre futur énergétique.
Cette courageuse décision étant proclamée, il reste à rechercher la ou les solutions de rechange, et à les mettre en œuvre.
L'énormité d'un tel projet n'a évidemment pas échappé à ceux qui ont pris cet engagement.
Jusqu'à présent il "suffisait" de faire des trous dans le sol pour se procurer cette énergie dont nous avons fait le sang de nos sociétés. Demain il faudra un peu plus d'imagination et d'efforts, de sacrifices aussi, pour "fabriquer" ces Kilowattheures désormais indispensables.
Le sevrage ne se fera pas sans douleur. Le bébé n'accepte pas sans protester l'abandon du lait maternel pour des nourritures qu'il devra fabriquer lui-même.
____________________

Certains ont cru trouver le salut dans l'énergie nucléaire.
Energétiquement parlant, elle a fait ses preuves. Mais hélas à un prix que l'Humanité n'est peut-être pas disposée à continuer de payer.
Quelques voix protestataires commencent à se faire entendre au sein de la génération montante, dont la descendance devra gérer les déchets radioactifs dont nous leurs faisons "cadeau".
Tchernobyl et Fukushima ont démontré la réalité des risques encourus, la leçon finira bien par être retenue.
La génération des réacteurs à fission devrait logiquement s'éteindre avec ce siècle, mais il faudra probablement un autre Fukushima pour emporter la décision d'arrêt.
D'autres procédés nucléaires sont mis en avant, soi-disant moins dangereux, et plus efficaces, comme la fusion. La preuve de leur innocuité n'a pas encore été fournie.
Le Nucléaire "propre" reste donc, jusqu'à nouvel ordre, une vision utopiste, qui ne devrait en aucun cas constituer une base pour la transition énergétique vertueuse à laquelle nous sommes contraints.
Cette technologie est cependant toujours soutenue par une fraction puissante des énergéticiens, qui lui prédisent un avenir brillant, eu égard à ses capacités d'assurer une production de base non intermittente, et sans émission de GES.
Près de 450 réacteurs nucléaires sont en service dans le monde, et 70 sont en construction.
Le lobby nucléaire constitue, par sa puissance industrielle et politique, un sérieux obstacle au développement des énergies renouvelables, reléguées au rang d'énergies d'appoint incapables d'assurer une production de base de manière continue.
___________________

Entre la résistance du pétrole, du Gaz naturel, et du Charbon, et la puissance du lobby nucléaire, les énergies renouvelables auront la tâche difficile de démontrer qu'il y a une autre voie énergétique et que c'est la seule capable d'écarter la menace d'un bouleversement climatique.
Il ne faut pas attendre des énergéticiens du pétrole, du Gaz naturel, du charbon et du nucléaire, qu'ils acceptent de se saborder à la seule vue d'une courbe d'augmentation prévisionnelle des températures, fut-elle bénie par le GIEC.
Jusqu'à nouvel ordre, c'est toujours la loi du marché qui s'applique.
Les énergies solaire, éolienne, et de biomasse, ne seront admises de plein droit que si elles apportent la preuve de leur rentabilité financière.
Or, jusqu'à aujourd'hui, personne ne sait produire un KWh à 5 centimes avec du Soleil, du Vent, ou de la biomasse.
Pour débloquer la situation les Etats tentent d'agir sur deux leviers:
- Imposer une lourde taxe sur les émissions de CO2 fossile.
(Qualifiée d'Arlésienne, tant on en parle sans jamais la voir).
- Détaxer les énergies nouvelles (Electricité verte, Biogaz, Biocarburants).
Ces deux leviers doivent être actionnés avec la plus grande circonspection sous peine de provoquer des dégâts collatéraux dans tout le système économique mondial.
(Inutile de rappeler que la transition énergétique ne peut être que planétaire).
____________________

Nonobstant les remarques et réserves ci-dessus, il faut y croire et forger les outils qui permettront de démontrer la rentabilité des énergies renouvelables, au besoin en soutenant financièrement la phase d'industrialisation à grands coups de subventions, de tarifs de rachat préférentiels, de détaxations diverses, d'incitations fiscales, et de projets internationaux de nature à fédérer les enthousiasmes des entrepreneurs.
_____________________

C'est dans cet esprit de conquête que le déploiement des énergies renouvelables est mis en œuvre.
Il faut faire feu de tout bois:
Le rayonnement solaire direct, la Biomasse terrestre et aquatique, l'énergie cinétique atmosphérique macroscopique ( Le vent…), le cycle de l'eau (Fleuves, marées, chutes d'eau, courants marins,…), la chaleur solaire emmagasinée dans le sol (Géothermie de surface), l'énergie cinétique atmosphérique microscopique (Pompes à chaleur), etc…
A cette énergie solaire, on peut ajouter l'énergie interne du Globe qui nous parvient sous forme de volcanisme de surface, et de géothermie profonde.
Ces manifestations énergétiques multiples peuvent subvenir amplement aux besoins de l'Humanité.
Encore faut-il aller les chercher.
Les technologies nécessaires existent déjà et ont été mises en œuvre, certaines à grande échelle.
Le problème est maintenant de les développer à l'échelle industrielle, ce qui implique de se placer en concurrence avec les vieux produits bon marché.
Et c'est là l'obstacle principal.

_____________________

S'agissant de technologies nouvelles, leur mise en œuvre sur sites industriels est nécessairement très onéreuse, conformément à tous les cycles industriels, qui doivent passer par une "courbe d'apprentissage" pour monter en puissance et atteindre la maturité et donc la rentabilité.
Pendant la période d'apprentissage, le produit (Ici de l'énergie électrique verte ou des biocarburants) se heurte à la concurrence de produits énergétiquement équivalents, qui ont depuis longtemps atteint leur rentabilité (Pétrole, Gaz naturel, charbon, électricité nucléaire) et sont donc proposés à bas prix.
(Nous avons déjà cité le KWh de super à 5 centimes HT!)
Le seul avantage des nouveaux produits est leur caractère renouvelable et décarboné ou à carbone recyclable.
Si cet avantage n'est pas considéré d'emblée comme décisif par le marché, le nouveau produit n'a aucune chance de s'imposer.
Rappelons que le "marché" est sans moralité et sans vertu; la régulation y est apportée par les Etats. La fameuse "main invisible du marché", chère à certain gourou, nous a déjà montré ce dont elle est capable.
Le problème de la transition énergétique ne sera donc pas technologique, mais économique, voire même politique.
_________________

Tant que le trio Pétrole-Gaz-Charbon sera disponible (Tant que les réserves ne seront pas effectivement déclinantes), les autres sources d'énergies ne pourront s'imposer que grâce au soutien d'une politique commerciale à base de taxation sélective.
Une telle taxation (Taxe Carbone) permet effectivement de compenser des différences de prix de revient, et/ou de favoriser telle solution pour des raisons comme leur intérêt écologique, mais à condition de faire l'objet d'un consensus mondial et d'un encadrement effectif, sous peine de créer un gisement d'escroqueries, on en a vu un exemple récemment à propos des quotas de CO2.
Par ailleurs une taxation se traduit par un accroissement des coûts, qui ne doit pas résulter en une mesure discriminatoire à l'encontre des classes défavorisées et/ou des pays émergents.
______________________

Devant ces problèmes d'ajustements de marchés par "forçage" du principe de concurrence "pure et parfaite", les Etats hésitent à prendre le risque de déstabiliser des pans entiers du secteur de l'énergie.
Il peut alors en résulter une situation de la poule et de l'œuf, dans laquelle les investisseurs rechignent à lancer une production dont il savent qu'elle ne sera pas concurrentielle par rapport aux anciens produits qui sont toujours disponibles à bas prix.
Quant à la production subventionnée, elle n'est qu'un encouragement à profiter d'un effet d'aubaine, et constitue de toutes manières une distorsion de concurrence qui se saurait être longtemps tolérée par les partenaires commerciaux.
Sauf à changer de modèle économique, ce qui n'est pas dans l'air du temps, il faut nous attendre à une guerre de tranchées qui se livrera pour tenter de réduire à merci le trio PGC ( Pétrole-Gaz-Charbon) , qui ne cesse de recevoir des renforts comme les Gaz de schiste, et qui bénéficie de l'appui du Nucléaire qui n'a pas du tout l'intention de rendre les armes.
Allons-nous vers une nouvelle guerre de cent ans ?
_____________________

Heureusement le clan des optimistes voient, plutôt qu'une guerre, une occasion qui nous est offerte de relever un nouveau défi pour résoudre un fois pour toutes ce problème d'énergie sans nécessairement recourir à des solutions incontrôlables comme le Nucléaire.
Après tout, nos combustibles ne sont que des arrangements de quelques briques élémentaires. Le diagramme ci-dessous montre qu'un chimiste un peu dégourdi peut obtenir aisément des combustibles de bonne facture avec du vent ou du soleil.

Quelle vie après le pétrole ?

En ajoutant quelques cornues on peut fabriquer des carburants liquides à base de Biomasse comme l'ETBE qui remplace le super et l'EMHV qui se substitue au Diesel avec de meilleures performances.
La réaction de Méthanation consomme du CO2, qui peut être prélevé en sortie des cheminées d'usines.
________________

Avec du vent et du Soleil la technologie actuelle permet donc de "fabriquer" n'importe quel combustible liquide ou gazeux, sans faire appel aux sources énergétiques fossiles.
Le problème est uniquement économique:
Comment concurrencer des produits d'origine fossile offerts sur le marché à 5 centimes d'euro HT le KWh ?
Il n'y a plus d'autre obstacle que celui-là…
Nous n'avons donc plus le droit de nous cacher derrière des problèmes technologiques imaginaires, puisqu'ils sont déjà résolus.
Il nous appartient désormais de nous attaquer aux vrais problèmes, qui sont politiques et planétaires, et du ressort de l'ONU.
Tâchons de ne pas attendre la COP75 pour prendre enfin les bonnes décisions.

23 juillet 2016 6 23 /07 /juillet /2016 19:01

1er Juillet 2016
Le renoncement aux carburants fossiles n'ira pas sans quelques sacrifices.
Entrer en religion écologique suppose un noviciat au cours duquel le prétendant découvre le monde auquel il aspire, ses joies, mais aussi ses souffrances.
L'automobiliste d'aujourd'hui entreprend un noviciat.
Renoncer à ce qui fut la sainte huile durant un siècle, pour embrasser la nouvelle religion du Soleil et du vent, c'est un peu comme, pour un alpiniste, détacher sa corde d'assurance et faire de l'escalade libre.
Quelle voie choisir entre le Bio Ethanol, le Bio diesel, l'Hydrogène, le Bio Méthane, l'électricité d'une batterie, l'électricité d'une pile à Hydrogène, ou quelques savants mélanges de plusieurs d'entre eux ?
Vers quelle obédience se diriger ? Le moteur thermique ? Le moteur électrique ? Ou bien une solution œcuménique qui serait un mélange des deux ?
Cette période de noviciat risque de durer quelques décennies, eu égard au caractère assez approximatif des diverses propositions auxquelles, comme dirait ma grand'mère,
"il manque toujours dix-neuf sous pour faire un franc".
Aussi, il n'est pas inutile de chercher à identifier quelques-uns des dix-neuf sous manquants, peut-être alors y verrons-nous plus clair.
____________________

En matière d'automobile, la transition énergétique est soutenue par deux écoles:
D'une part les pragmatiques, qui considèrent qu'il suffira de remplacer super et gasoil par du Bio Ethanol ou du Bio Diesel, sans rien changer d'autre que quelques réglages par ci par là.
D'autre part les idéalistes, qui veulent non seulement remplacer le pétrole, mais aussi améliorer significativement l'efficacité énergétique, la dite énergie risquant fort de devenir une denrée rare et chère.
Les premiers ont raison et les seconds n'ont pas tort, de là vient tout le problème du choix.
_____________________

La première école a pour elle la simplicité apparente. Même type de moteurs thermiques, on se "contente" de changer le produit que l'on verse dans le réservoir.
Mais cette solution présente deux inconvénients majeurs:
Le premier est son rendement énergétique très faible, proche des 25% en usage normal, ce qui est indécent dans un contexte d'économie d'énergie.
Le second inconvénient est lié à la fabrication des nouveaux carburants.
Prenons un exemple:
On dit grand bien de l'huile de Jatropha pour remplacer le gasoil. Cette plante pousse paraît-il n'importe où, même sur des terres impropres aux culture alimentaires, et se contente de très peu d'eau. Le produit idéal ?
Pas tout à fait.
Le rendement de production de cette huile est de 1 900 L/ha sur une terre "normale" bien irriguée. Il tombe à 600 L/ha sur ces fameuses terres dites incultes. Considérons un rendement moyen de 1000 L/ha.
Le transport routier en France consomme 40 Milliards de litres de gazole chaque année (Oui, vous avez bien lu quarante Milliards).
Pour remplacer ce produit par l'huile de Jatropha, il faudrait donc cultiver environ 40 Millions d'hectares, ce qui représente plus de 70% du territoire national métropolitain de 550 000 km2.
( Il en faudrait même bien davantage car, pour fabriquer du biocarburant il faut dépenser de l'énergie, nos 40 millions d'ha devront donc passer à 50, voire davantage).
Ce n'est donc pas demain que nous verrons les biocarburants "Made in France" remplacer le pétrole.
Il nous faudra donc importer la très grande majorité de nos besoins, ce qui n'est pas sans quelques soucis:
D'une part notre dépendance au pétrole d'importation sera remplacée par une dépendance au Bio Diesel également importé, pas sûr que nous y gagnions au change.
D'autre part, la forte demande suscitera bien des convoitises dans les pays défavorisés qui y verront une nouvelle source de revenus. Les meilleurs rendements étant obtenus sur les bonnes terres, nul doute que les cultures alimentaires en souffriront, avec les conséquences que l'on peut imaginer.
Donc, si l'on n'y prend pas garde, notre comportement écologique risque fort de provoquer un désastre humanitaire dans les pays à l'agriculture déjà précaire. Les maigres cultures vivrières ne pèseront pas lourd devant les dollars du Bio carburant.
________________________

La deuxième école nous précipite de plein pied dans un monde de complexité à première vue peu réaliste.
L'amélioration du rendement énergétique implique le remplacement du moteur thermique par un moteur électrique, dont le rendement peut être supérieur à 85%.
Dans un premier temps ce moteur électrique est alimenté par une batterie, solution bien connue, déjà expérimentée aux tout débuts du XXè siècle.
Mais, la capacité énergétique spécifique des batteries n'ayant que peu progressé, les problèmes d'autonomie et de poids demeurent des obstacles rédhibitoires qui ne peuvent être contournés que grâce à des infrastructures de recharge peu réalistes.
Il faut donc trouver autre chose.
L'idée nouvelle est non pas d'embarquer l'électricité dans une batterie, mais d'embarquer plutôt de l'hydrogène à partir duquel l'électricité serait fabriquée grâce à une pile à combustible.
La capacité énergétique spécifique d'un réservoir d'Hydrogène étant 50 fois supérieure à celle d'une batterie, le problème d'autonomie sera résolu.
C'est vrai, mais il faut d'abord surmonter quelques difficultés:
En effet, il faut d'abord produire de l'Hydrogène renouvelable, par électrolyse de l'électricité elle-même renouvelable évidemment. Le rendement énergétique de cette opération est de l'ordre de 80%.
Ensuite il faut stocker cet Hydrogène, ce stockage devant être rapidement réversible et sécurisé.
Pour cela il est possible d'en injecter dans le réseau du Gaz naturel, en faibles quantités, de l'ordre de quelques pourcents. Il peut ensuite en être extrait à l'aide d'un séparateur.
Pour le stockage de grosses quantités il n'existe pas encore de solution satisfaisante, sinon transformer l'Hydrogène en Méthane pour le substituer au Gaz naturel pour lequel les capacités de stockage existantes sont énormes. C'est faisable, avec un rendement énergétique correct.
Puis il faut distribuer cet Hydrogène à travers un réseau national, qui reste entièrement à construire.
Après quoi il faut des stations services capable de procéder au remplissage des réservoirs des voitures à la pression de 700 kg, ce qui est un autre défi.
Enfin il y a lieu de mettre au point des piles à Hydrogène satisfaisant les normes automobiles, et d'un coût acceptable.
Tout cela est fort compliqué et entièrement à construire.
(Les quelques démonstrateurs visibles ici et là ne représentent pas la phase industrielle de grandes séries à prix grand public ).
C'est pourquoi cette deuxième solution peut être qualifiée d'idéaliste, mais sans pour autant lui dénier tout intérêt car la filière Hydrogène est une réalité incontournable et les constructeurs y travaillent activement.
Des simplifications sont possibles: On peut par exemple fabriquer l'hydrogène par électrolyse dans la station service, et le stocker sur place dans des réservoirs de dimensions raisonnables. On peut alors se passer d'un réseau de distribution national, et le stockage de masse est remplacé par un stockage distribué.
___________________________

Les 40 Milliards de litres de carburant diesel consommés en France représentent une énergie d'environ 400 TWh.
Le rendement énergétique des motorisations thermiques étant de l'ordre de 25%, l'énergie "utile" est donc de 100 TWh.
Le reste est dissipé en chaleur perdue.
Dans l'hypothèse d'une généralisation de la motorisation électrique, l'énergie utile nécessaire serait évidemment toujours de 100 TWh.
Selon la façon dont l'électricité est fournie au moteur, Batterie, ou
Hydrogène + Pile à combustible, le rendement global serait non pas de 25% mais plutôt de 50%.
( Il faut compter les rendements énergétiques de ces diverses solutions, y compris l'étape d'électrolyse pour obtenir l'Hydrogène).
L'énergie d'entrée serait donc d'environ 200 TWh.
200 TWh, c'est 40% de la consommation électrique nationale actuelle, ou encore la production de 13 000 éoliennes offshore de 5 MW.

_________________________

Donc, d'un côté on remplace les importations de pétrole par des importations de biocarburants, en fermant les yeux sur les méthodes de production.
D'un autre côté on construit des parcs éoliens offshore à hauteur de 13000 éoliennes de 5 MW, les installations d'électrolyse nécessaires pour produire l'Hydrogène, le réseau de distribution de cet Hydrogène, et les stations services capables de le délivrer sous une pression de 700 kg.
_____________________

Le diagramme suivant montre ces deux voies.

Biocarburants, pas si Bio que çà…

La tentation est grande de choisir le raccourci du haut, qui n'exige aucun effort à condition de trouver du Biocarburant sur le marché, ce qui est déjà le cas aujourd'hui.
Le choix de la voie Hydrogène exigera beaucoup d'abnégation, et un sens aigu de l'écologie. Des investissements importants sont à prévoir, pour un succès problématique car certains obstacles ne sont pas encore levés:
- La mise au point d'une pile à Hydrogène pour l'automobile doit tenir compte d'un cahier des charges très sévère sur la sécurité, la gamme de températures, la facilité de maintenance, la durée de vie, le poids, et par-dessus tout le prix.
- Le réservoir d'Hydrogène à haute pression ( 700 kg) pose en lui-même des problèmes de sécurité, de conformité aux réglementations, de robustesse, de résistance aux chocs, d'étanchéité, dans la durée de vie du véhicule.
- Le remplissage de ce réservoir nécessite un réseau de stations services équipées de compresseurs adéquats et de réservoirs de stockage sécurisés.
- La ou les installations d'électrolyse sont à développer selon des cahiers des charges qui ne sont pas encore écrits.
- les règles de sécurité pour ce type d'utilisation sont à définir, pour l'usage du véhicule, son stationnement ( sur la voie publique, dans les parkings souterrains, au domicile, etc.), les visites de sécurité (modalités, calendrier, procédures, responsabilités, pénalités, etc.), les contrats d'assurance, et bien d'autres encore à découvrir.
___________

La méthode qui consisterait à fabriquer l'Hydrogène dans la voiture à partie d'Ethanol, est certes séduisante puisqu'elle supprime le problème de transport, de distribution, et de stockage de l'Hydrogène sous haute pression, mais elle a ses inconvénients:
D'une part elle rajoute un module de vaporeformage pour obtenir l'Hydrogène, ce qui augment la complexité et le coût.
D'autre part le rendement global diminue à cause de tous ces étages successifs dont chacun engendre une perte d'énergie.
On peut espérer quand même un rendement global de 50%, soit le double de ce qu'offre une motorisation thermique utilisant directement du bioéthanol ou du bio diesel.
Diviser par deux la consommation énergétique, c'est une performance remarquable qui justifie de s'intéresser de près à cette solution, même si au premier abord elle peut sembler une usine à gaz, ce qu'elle est d'ailleurs effectivement.
Après tout, il s'agit d'économiser annuellement 20 Milliards de litres de carburant, soit pas moins de 20 Milliards d'euros au prix unitaire de un euro .
__________________

Si l'on n'est pas très regardant sur la manière écologique ou non de fabriquer les biocarburants, et s'ils sont disponibles sur le marché à un prix "raisonnable", nul doute qu'ils auront du succès.
A plus forte raison s'il est démontré qu'ils ne mettent pas en péril les cultures vivrières.
Dans ce cas la filière Hydrogène + pile à combustible a du souci à se faire.
Seule une réglementation imposant un rendement énergétique supérieur à 50% pourrait lui redonner tout son intérêt.
(Après tout la transition énergétique c'est aussi la recherche de l'efficacité énergétique).
La situation pourrait changer s'il était démontré que les moteurs thermiques polluent autant avec des biocarburants qu'avec des carburants fossiles.
(Leur caractère Bio ne leur confère pas une immunité contre les oxydes d'Azote ou les nanoparticules).
L'Hydrogène deviendrait alors le recours ultime et règlerait le problème du choix une fois pour toutes.
Les cinquante prochaines années seront riches en rebondissements et les bureaux d'études ne manqueront pas de travail.