Overblog Suivre ce blog
Administration Créer mon blog
27 septembre 2016 2 27 /09 /septembre /2016 18:17

27 Septembre 2016
Ce titre en forme de provocation voudrait souligner la mauvaise qualité de la communication, non pas du compteur, mais de son promoteur EDF.
__________

Pour faire accepter le remplacement des anciens compteurs par le LINKY, couvert d’opprobre avant même d’être installé, EDF a cru bon d’adopter une stratégie de marchand de lessive, jugeant sans doute que le niveau intellectuel du consommateur moyen ne lui permet pas de comprendre les motivations profondes de cette opération.
__________

La « promotion » du nouveau produit a donc été axée sur des promesses d’avantages immédiats, et en premier lieu évidemment une probable baisse des factures d’électricité.
___________

Linky est donc le père Noël que vous attendiez, votre facture va fondre comme neige au Soleil.
Par quel miracle ?
C’est simple, car Linky lave plus blanc.
« Avec lui la ménagère accède à un véritable tableau de bord et devient gestionnaire avisée de l’énergie du foyer. Plus de gaspillage, plus de chaleur perdue, les KWh ne s’envolent plus par les fenêtres, finies les factures angoissantes ».
Hélas, que de déconvenues attendent les « heureux » bénéficiaires de la boîte verte.
Car tout cela, sans être totalement faux, n’est vrai que sous certaines conditions.
Et surtout, l’intérêt du LINKY se trouve ailleurs, comme nous l’allons montrer.
______________

L’argumentaire principal des promoteurs du LINKY est que l’abonné aura désormais la possibilité de mieux connaître son profil de consommation et donc de mieux répartir celle-ci sur les tranches horaires afin de réduire significativement la puissance maximale appelée, et de pouvoir ainsi souscrire un abonnement inférieur, moins onéreux.
Ce n’est pas faux, mais encore faut-il préciser que pour arriver à ce résultat il faudra préalablement installer un gestionnaire d’énergie qui prendra en charge la programmation des différents appareils gros consommateurs, car le Linky ne sait pas faire cela tout seul.
Et de plus, le dépliant publicitaire oublie de dire que l’on peut déjà faire la même chose avec n’importe quel compteur, y compris les vieux trucs électromécaniques, ceux avec la roue qui tourne. Cela s’appelle la Domotique, et cela existe depuis vingt ans. Parmi les abonnés, ceux qui sont sensibles aux problèmes de l’énergie l’ont déjà adoptée depuis longtemps.
Il faut donc chercher ailleurs des arguments plus convaincants pour faire accepter ce nouveau compteur.
Et pourquoi ne pas dire simplement la vérité ?
____________________

En réalité, l’objectif premier du LINKY n’est pas de réduire aujourd’hui la facture du client, mais de faire en sorte qu’il puisse encore demain disposer d’une électricité de bonne qualité et en quantité suffisante pour ses besoins.
Et cela n’ira pas de soi, car il y a des vérités sous-jacentes qu’il ne faut plus cacher.
A force d’occuper le devant de la scène médiatique et de mobiliser les forces politiques dans des meetings internationaux triomphants et onéreux, sans résultat concret, la transition énergétique a fini par acquérir le statut de projet politique, sorte de programme électoral qu’il est de bon ton d’évoquer dans un programme de gouvernement, mais auquel plus personne ne croit vraiment.
Grosse erreur de jugement.
La transition énergétique n’est pas une alternative politique, elle est une obligation vitale, un passage obligé sous peine de revenir au moyen-âge énergétique.
Les énergéticiens en ont heureusement bien conscience et l’ont depuis longtemps intégrée dans leurs plans de développement.
Les hommes politiques passent, les ingénieurs restent…
___________________

Le retrait des énergies fossiles et du nucléaire sale, pour leur remplacement par des énergies propres et durables sera une opération extrêmement coûteuse, et qui peut mettre en péril l’équilibre énergétique du pays si l’opération n’est pas conduite dans le bon ordre.
Les énergies nouvelles produisant essentiellement de l’électricité, celle-ci verra inéluctablement sa participation augmenter dans le mix énergétique, avec une part croissante de sporadicité qu’il faudra absolument maîtriser.
L’intermittence du solaire et de l’éolien impose de développer de grandes capacités de stockage, y compris domestiques, ce qui nécessitera des investissements importants.
Affirmer le contraire relève de l’imposture politique et d’une tentative d’anesthésie de l’opinion.
Outre le colossal changement de portage industriel exigé pour la mise en œuvre de la transition, il est devenu indispensable de changer également le concept du modèle de production et de distribution de l’énergie électrique.
D’illimitée, l’énergie va devenir parcimonieuse.
De centralisée, la production va devenir décentralisée.
De chasse gardée de EDF, elle va dépendre d’une constellation de producteurs non inféodés.
De continue, elle va devenir en partie intermittente.
De libre d’emploi, elle devra être placée en liberté surveillée.

Le paradigme ancien imposait d’adapter la production à la demande, eu égard à la disponibilité illimitée des énergies fossiles.
Dans le nouveau paradigme, c’est la demande qui devra s’adapter à l’offre.
L’abonné verra son statut de consommateur remplacé par celui d’acteur et éventuellement de producteur décentralisé.
Affirmer que tous ces bouleversements pourront se réaliser sans y mettre le prix, et un prix très élevé, est un mensonge coupable qui cherche à entretenir l’illusion d’une énergie bon marché, mensonge qui ne peut que préparer des réveils difficiles.
Si toutes ces vérités ne sont pas admises comme incontournables, il est impossible de comprendre la finalité de certaines opérations comme la mise en place de compteurs communicants.
_____________________

Le réseau intelligent (« Smart Grid ») dont il est question ici et là n’est pas un gadget destiné à camoufler une quelconque « arnaque », ni une obscure manœuvre inquisitrice, dont le but caché serait la mise en place d’un outil d’espionnage au service d’un « Big Brother », scénario conforme à la meilleure tradition des théories du complot.
Il est simplement la seule méthode permettant de gérer le futur réseau de distribution de l’énergie de manière à assurer une transition sans black-out.
Car vous l’ignorez peut-être, mais notre principal problème aujourd’hui, c’est de conjurer le risque de black-out.
______________________

Le Black-out électrique, qu’est-ce encore que ce fantasme ?

Le pays n’est pas en guerre, nos centrales nucléaires tournent rond (trop pour certains), plusieurs centaines de barrages nous abreuvent d’électricité hydraulique, de nombreuse unités de production avec turbines à cycles combinés sont construites, le pétrole et le gaz coulent à flots, et l’énergie renouvelable se porte bien, du moins dans la presse spécialisée.
Comment peut-on parler de risque de black-out ?
Le problème est simple, si l’on se donne la peine de comprendre.
Aujourd’hui nous produisons beaucoup d’énergie électrique, mais nous l’utilisons mal.
_______________________

Nous consommons bon an mal an 500 TWh d’énergie primaire électrique.
500 000 000 000 000 Wattheures.
Cette énorme quantité, difficilement concevable, correspond d’une part à l’énergie électrique utilisée dans les secteurs résidentiel-tertiaire, les transports, l’industrie hors production d’énergie, l’agriculture, et d’autre part l’énergie électrique utilisée dans le secteur énergétique lui-même (Centrales, raffineries, distribution, transformation, pertes en lignes, etc.).
Ce qui représente une puissance moyenne de 57 Gigawatt (GW).
( 250 millions d’Ampères en 230 V par exemple).
_______________

Cette puissance soutirée n’est pas constante; au gré du consommateur, elle dépend du moment de la journée, de la saison, de la météo, et varie continuellement entre des valeurs dont les extrêmes dépendent des conditions extérieures et de l’activité économique du pays.
Elle évolue selon des rythmes horaires, journaliers, saisonniers, annuels, entre environ 30 GW et 90 GW , avec des pointes hivernales qui dépassent parfois les 100 Gigawatts.
Le record a été de 102 GW en 2012. Le black-out ne fut évité que de justesse.
____________________

Jusqu’à présent, et encore aujourd’hui, c’est la production qui doit s’adapter à cette demande variable sous peine de déclencher le fameux « Black-out », qui nous a été épargné jusqu’à présent, mais qui n’est pas passé bien loin à une ou deux reprises.
EDF doit donc faire face à une demande de puissance qui peut évoluer entre 30 et 90 Gigawatts.
__________________

Pour faire face à ces pics de demande de puissance, le pays doit disposer des moyens de production adéquats en réserve, en plus des moyens assurant la production de base.
Ainsi, selon le niveau de la puissance demandée à un moment donné, le gestionnaire peut faire intervenir différents échelons de moyens:
- les moyens de production de base, dont la production peut être continue aussi longtemps que le besoin existe. Il s’agit en l’occurrence du parc nucléaire opérationnel, et du parc de centrales thermiques sollicitées jusqu’à mobilisation totale.
Ces installations sont assurées de recevoir le combustible nécessaire grâce aux réserves opérationnelles stratégiques d’énergie imposées par les accords internationaux.
(Ces réserves physiques correspondent à trois mois de consommation).
Le parc français peut ainsi assurer en continu une puissance électrique d’environ 80 Gigawatts, dont 53 Gigawatts de nucléaire et 27 Gigawatt de thermique.
- Lorsque la puissance demandée dépasse cette valeur, il faut faire intervenir les moyens de production constitués des stocks de réserve des barrages hydrauliques et/ou des STEP, dont la participation est évidemment limitée en durée puisque ce stock est épuisable rapidement.
Cette phase est limitée dans la durée par la valeur du stock, elle intervient sur une base de quelques heures à hauteur d’un apport de puissance d’une dizaine de GW maximum.
- Le troisième échelon est constitué des énergies intermittentes dont la disponibilités en puissance n’est jamais assurée puisqu’elle dépend des conditions météo et de l’ensoleillement.
Lorsque ces énergies sont en partie adossées à des installations de stockage, celles-ci interviennent au même titre que l’énergie de stock des barrages ou des STEP, c’est-à-dire pour une faible durée.
(Aujourd’hui il n’existe encore pratiquement aucune ressource de stockage spécifique pour le parc renouvelable installé en solaire et éolien).
- Le quatrième échelon est constitué des importations d’énergie électrique. La puissance correspondante dépend des disponibilités du marché Européen, et des capacités d’échanges des connexions transfrontalières.
(Ces capacités d’échange sont de l’ordre de 8 GW).
- Si, malgré la mobilisation de tous ces moyens, la demande reste supérieure à l’offre, on fait intervenir le cinquième échelon, l’effacement programmé.
Un certains nombre de gros consommateurs adhèrent au programme d’effacement, moyennant des compensations tarifaires évidemment, et sont appelés avec préavis dans les situations critiques. On imagine sans peine le prix du MWh « effacé ».
- En dernier lieu il faut recourir au délestage partiel, qui est toujours le dernier recours évidemment.
Aujourd’hui le concours de tous ces moyens permet d’offrir au réseau une puissance maximale d’environ 100 Gigawatt qui peut être soutenue une heure ou deux, pas davantage.
____________________

Aujourd’hui, alors que la transition énergétique n’est pas encore vraiment commencée, nous sommes déjà dans une situation critique puisque ce seuil de 100 GW a été dépassé plusieurs fois depuis 2010.
Or la situation va s’aggraver dans un futur à moyen terme:
D’une part, la consommation d’électricité va augmenter pour diverses raisons:
- Accroissement de la population.
- Augmentation du nombre des ménages.
- Augmentation du niveau de confort, et donc du parc électrique des ménages.
- accroissement du nombre des matériels liés aux applications audiovisuelles, informatiques et de communication.
- Développement de la demande de climatisation et de pompes à chaleur.
- Déploiement de l’application charge de batteries des véhicules électriques.
- On peut également espérer une reprise de l’activité économique, qui ira de pair avec une augmentation de la demande d’énergie.
Les gains en efficacité énergétique, notamment sur le chauffage des bâtiments, ne suffira pas à compenser les hausses de consommation.

Dans le même temps, la mise en œuvre de la transition énergétique se traduira par une réduction des moyens de production à base d’énergies fossiles ou nucléaire, et leur « remplacement » par des moyens à base d’énergies renouvelables essentiellement intermittentes.
On imagine mal de compenser l’intermittence des renouvelables par de nouvelles centrales à combustibles fossiles !!!
Par ailleurs, arrêter deux centrales nucléaires revient à se priver d’une puissance de 2 GW .
Qui est volontaire pour s’inscrire au programme d’effacement-Délestage ?
La réponse à la demande de puissance de pointe deviendra donc de plus en plus aléatoire, jusqu’à une situation de blocage si rien n’est fait pour y porter remède.
__________________

Ce diagnostic est celui des meilleurs experts du secteur gestionnaire du réseaux électrique.
On peut apporter deux types de réponses à ce problème:
- Une réponse politique, de court terme, qui consiste à nier l’évidence et à considérer que les menaces de black-out sont des fariboles émanant de techniciens irresponsables toujours prompts à réclamer des crédits supplémentaires.
- Ou bien une réponse de stratèges responsables habitués à se colleter non pas avec des illusions électorales, mais avec les réalités du terrain.

Heureusement, c’est la deuxième solution qui a été retenue, et qui consiste à réorganiser le réseau de distribution électrique pour mieux en contrôler la gestion, avec en point de mire l’intégration des nouvelles énergies et des nouvelles applications tout en écartant le risque de black-out.
Reconnaissons aux responsables politiques le mérite de s’être ralliés à cette solution de bon sens.
___________________

Le schéma suivant présente l’organisation générique de ce que sera un futur réseau décentralisé.

Compteur LINKY, pas assez communicant ?

Ce réseau intègre les moyens de production centralisés et locaux, de consommation, et de stockage, y compris des particuliers qui sont appelés à y jouer un rôle important.
L’organe clé permettant de raccorder tous les utilisateurs au réseau intelligent est le compteur LINKY.
Les principales fonctions sont rappelées ci-dessous.

Compteur LINKY, pas assez communicant ?

Le rôle de ce nouveau compteur va bien au-delà du simple comptage de la consommation, avec coupure au-delà de la puissance souscrite.
Il est la première brique du réseau intelligent, dont l’existence est conditionnée par le succès du remplacement des anciens compteurs.
__________________

Ramener le rôle du LINKY à sa fonction d’enregistrement en continu de la consommation des abonnés et à la surveillance stricte de la puissance soutirée, est extraordinairement réducteur.
Certes, aujourd’hui le remplacement d’un compteur Bleu par un LINKY sans autre forme de procès peut déconcerter un abonné non averti.
L’intérêt de ce nouveau compteur apparaîtra au cours de la prochaine décennie, et d’ici 2020 auront lieu quelques expérimentations du concept « Smart Grid ». Le grand public ne sera vraiment concerné qu’à partir de 2020 dans le meilleur des cas, ne serait-ce qu’à cause du délai nécessaire à l’installation de 35 millions de compteurs.
En attendant il est toujours possible de suivre les expérimentations en cours, notamment le démonstrateur « GreenLys » que l’on trouvera ici:
http://greenlys.fr/discover-the-greenlys-projects-reference-sheets/
__________________

Repost 0
21 septembre 2016 3 21 /09 /septembre /2016 11:53

21 Septembre 2016
Avant l’arrivée du LINKY, les compteurs électromécaniques ou électroniques comme le CBE (Compteur Bleu Electronique) ne comportaient aucun interrupteur ou disjoncteur.
Cette fonction était à la charge d’un dispositif externe développé dans les temps anciens par l’honorable maison BACO ( Baumgartner & Compagnie) pour remplir plusieurs tâches:
- Disjonction oléo magnétique protégeant l’installation en cas de court circuit.
- Disjonction différentielle, coupant le courant en présence d’une différence supérieure à 500 mA entre Phase et neutre (DDR 500mA).
- Sectionnement à commande manuelle réarmable, avec témoin.
Ce dispositif, appelé familièrement « Baco », a persisté dans l’histoire, et est aujourd’hui encore exigé par la norme NF C 15 100.
Sa fonction essentielle est de participer à la protection des personnes et des biens.
________________

Le seuil de disjonction de courant du Baco était fixé par l’installateur, en rapport avec la puissance souscrite par l’abonné. Les valeurs de seuils étant ajustables par pas appelés « calibres », séparés de 15 KVA.
Par exemple 15, 30, 45 A ou 30, 45, 60 A, ou 60, 75, 90 A selon le type de DDR.
Le calibre choisi étant le plus proche du courant max correspondant à l’abonnement en KVA sous 230 V, plus 10%.
La coupure du courant intervient au terme d’un délai qui dépend de l’importance de la surcharge, le délai étant ici apporté par le déplacement d’un noyau plongeur dans de l’huile (Oleo).
Pour tenir compte de l’imprécision de l’électromécanique, une marge de sécurité d’au moins 20% est allouée, en dessous de laquelle le courant n’est pas coupé, malgré le dépassement du courant calibré.
Cela signifie que, pour un DDR sur le calibre 45 A, le courant devra être supérieur à 54 A pour provoquer un déclenchement, dans le meilleur des cas.
_______________________

Beaucoup de clients « profitent » de cette tolérance depuis des dizaines d’années, certains sans vraiment s’en rendre compte, d’autres en toute connaissance de cause.
Hélas, l’arrivée du compteur LINKY sonne la fin de la récréation.
__________________

Avec le nouveau compteur, EDF en a « profité » pour mettre fin à une situation qui, il faut bien le reconnaître, n’était pas à son avantage, surtout dans une période où l’on prône les économies d’énergie et où l’on est contraints de réduire les pointes de puissance appelée sur le réseau.
Aujourd’hui la puissance électrique disponible nous est comptée. Nous disposons de 60 à 70 Gigawatts, peut-être moins s’il nous faut demain arrêter quelques centrales nucléaires. Si la demande excède cette valeur, il faut recourir à des moyens de production polluants (Centrales à combustibles fossiles).
La puissance instantanée consommée par le réseau est donc devenue un paramètre critique, surtout avec l’arrivée des énergies nouvelles intermittentes, qui ajouteront une composante de sporadicité difficilement gérable si les abonnés n’y mettent pas un peu de bonne volonté.
Jusqu’à présent EDF ajustait l’offre à la demande; désormais il faudra faire l’inverse, au moins de temps en temps. L’heure n’est plus au gaspillage, mais à l’économie, voire même à l’avarice.
Et, pour faire des économies, il faut commencer par compter avec précision.
_______________

C’est le rôle du nouveau compteur LINKY, à qui rien n’échappe.
C’est lui désormais qui sera le gendarme chargé, entre autres fonctions, de veiller au respect des limitations de puissance.
Et il dispose pour cela de moyens à la hauteur de la technologie moderne.
D’une part le courant et la tension sont mesurés avec précision (Mieux que 0,1%), ainsi que leur déphasage, et les trois composantes de la puissance sont calculées avec la même précision ( Puissance active, réactive, apparente).
D’autre part, un interrupteur télécommandé embarqué, d’une capacité de coupure de 100 A, peut être actionné soit automatiquement par l’électronique de comptage embarquée, soit à distance par le gestionnaire de réseau, pour des raisons diverses.
(Notamment pour la gestion des risques de black-out et de la pointe mobile, par des délestages ciblés ).
La fonction « coupure pour dépassement de la puissance souscrite » est donc maintenant prise en charge par le LINKY, et la marge de 20% du baco disparaît.
(La précision de l’électronique permet de s’en passer, ou du moins de la réduire à quelques pourcents).
Le BACO doit cependant être conservé car il continue à assurer les fonctions de sectionnement et de disjonction différentielle 500 mA exigées par la norme NF C 15 100.
_____________________

Les données mesurées par le compteur sont stockées dans une mémoire locale, à disposition du gestionnaire qui établit la facture.
Historiquement c’est la puissance active qui est affichée et facturée.
(La puissance réactive n’est facturée qu’aux professionnels pour les abonnements supérieurs à 36 KVA).
Avec les anciens compteurs, le calibre du BACO était positionné sur une valeur de courant correspondant à l’Abonnement souscrit, augmenté de 10% pour tenir compte des variations de tension secteur.
(Le courant est en général proportionnel à la tension).
Par exemple, pour un abonnement de 12 KVA, le courant max permis est de 52A sous 230 V, soit 57 A avec la marge de 10%. Le BACO était alors positionné sur 60 A.
Grâce à la marge supplémentaire de 20% au-dessus du calibre, la disjonction ne se produisait que pour un courant supérieur à 72 A, ce qui correspond à un puissance de 16,5 KW sous 230 V, qui est la valeur la plus courante du secteur.
Donc, un abonnement de 12 KVA permettait en fait de soutirer plus de 16 KW avant disjonction, avec un secteur nominal à 230 V.
Avec le nouveaux compteur LINKY , cette marge supplémentaire de 20% disparaît.
En effet la précision des mesures de courant et de tension, et celle des calculs effectués après numérisation des signaux, permet de se passer de cette marge supplémentaire.
Les abonnés qui, Involontairement ou en toute connaissance de cause, « profitaient » de cette marge supplémentaire accordée par le BACO, vont se trouver non pas pénalisés, mais « régularisés ».
Il leur sera proposé soit un changement d’abonnement, soit une meilleure gestion de leur installation, par exemple en utilisant un délesteur sélectif.
______________________

Le LINKY permet d’ajuster l’abonnement par pas de 1 KVA, au lieu de 3 KVA avec l’ancien système, le coût de l’abonnement étant également au pas de 1 KVA, du moins on le suppose.
Les abonnés ayant « bénéficié » des largesses du BACO verront leur abonnement augmenter légèrement, sauf s’ils installent un délesteur.
Par contre les autres pourront éventuellement réduire leur abonnement s’il s’avère que la puissance de leur installation reste toujours significativement inférieure à la valeur précédemment souscrite.
(Le LINKY fournit à l’abonné le relevé des puissances au cours du temps).
Cette plus grande rigueur du gestionnaire de réseau aura au moins le mérite d’attirer concrètement l’attention du public sur le problème critique de la maîtrise de la puissance électrique soutirée.
A l’échelon national les pics de puissance soutirée sont de plus en plus critiques, et nous rapprochent de la menace de black-out.
La consommation d’énergie ( Les KWh ) est une chose, mais la puissance ( Les KW ) en est une autre aussi importante, puisque c’est elle qui décide du nombre et de la puissance des centrales à construire.
Une meilleure maîtrise de nos installations électriques passe par une répartition intelligente des périodes d’utilisation des appareils les plus gourmands. Ceci peut être réalisé à moindre coût et le compteur LINKY est là pour nous faciliter la tâche, voire à nous y inciter.
10% de réduction du pic hivernal de puissance représentent l’équivalent de la puissance de six centrales EPR.
Cela vaut au moins la peine de réfléchir à la démarche de gestion de l’énergie, à laquelle contribue le nouveau compteur, et de comprendre qu’il n’est pas forcément une arnaque destinée à escroquer le consommateur.
L’expérience du passé nous a montré qu’il n’est pas nécessaire de remplacer les compteurs pour augmenter les tarifs…
_______________________

Repost 0
17 septembre 2016 6 17 /09 /septembre /2016 19:15

17 Septembre 2016
Certains sujets sont tabous et ne sont jamais abordés dans les réunions de familles.
« On ne parle pas de corde dans la maison d’un pendu… »
Dans la famille du véhicule électrique, les sujets de discorde ne manquent pas: l’autonomie réelle, les performances, l’obsolescence rapide de la technologie, la concurrence des voitures hybrides, les bornes de recharge, le prix du KWh vendu à ces bornes, l’avenir de la batterie vs la pile à combustible, de quoi occuper les longues soirées d’hiver.
Mais il y a un autre sujet, rarement évoqué dans les gazettes et qui pourtant pourrait bien conditionner la survie de cette technologie.
Il s’agit du coût des batteries.
Des voitures électriques circulent sur nos routes depuis quelques années. Elles sont équipées de batteries de capacités diverses, entre 20 KWh et 30 KWh, et il est question de 60 KWh pour 2017, avec 120 KWh en ligne de mire pour donner au VE la même autonomie que la voiture à moteur thermique.
Une voiture à moteur thermique normalement conduite et entretenue peut parcourir 200 000 Km sans gros soucis mécaniques.
A raison de 12 000 Km par an (Moyenne nationale), ce n’est qu’au terme de 16 ans de bons et loyaux services que le moteur devra être remplacé, ou reconditionné, et pour un coût raisonnable.
Certains véhicules sont même prolongés très au-delà de trente ans, sans être forcément des pièces de musées.
Cette durée de vie permet l’existence d’un marché de l’occasion prospère. Aujourd’hui, sur trois transactions, deux portent sur un véhicule d’occasion. L’acheteur d’un véhicule thermique neuf est assuré de le revendre un bon prix quelques années plus tard, et un achat neuf est souvent conditionné par sa cote à la revente, d’autant plus qu’en cinq ans la technologie « thermique » n’aura que peu évolué.
Sur un véhicule électrique, la mécanique est au moins aussi endurante, sinon plus. Mais le point faible est la batterie.
Même utilisée selon les préconisations du constructeur, une batterie Lithium-ion perd en capacité et en courant max au fil du temps et selon le nombre de cycles, le type des recharges ( Lente, semi-rapide, rapide, super rapide), l’amplitude et le nombre de ces recharges, les conditions climatiques, etc...
Compte tenu de la nouveauté de ce marché, du faible volume du parc de VE, et du renouvellement rapide de la technologie, le REX (Retour sur Expérience) est insuffisant pour connaître la durée de vie moyenne de la batterie en usage réel.
Les constructeurs annoncent une durée de cinq à dix ans, assortie de conditions d’utilisation assez sévères portant sur les conditions de recharge, le nombre de cycles, etc…
Si l’on s’en tient à ces valeurs (Très approximatives), lorsque le véhicule sera mis sur le marché de l’occasion, au bout de quatre ou cinq ans, la batterie sera proche de sa mise à la retraite et son remplacement devra être envisagé.
La cote de revente du véhicule devra donc tenir compte de ce remplacement.
Et il n’est pas certain que le modèle de batterie soit encore disponible en magasin au-delà de dix ans.
Le coût actuel des batteries Lithium-ion est de l’ordre de 250 euros le KWh, soit 7 500 euros pour une batterie de 30 KWh, et bien sûr
15 000 euros pour les 60 KWh annoncés pour 2017.
Les prévisions de baisse de coût sont certes encourageantes: 150 euros/KWh en 2025, sous conditions de développement du marché.
Mais le remplacement d’une batterie de 60 KWh atteindra tout de même alors encore près de 9 000 euros, ce qui pénalisera lourdement le VE d’occasion.
Et qui irait acheter un véhicule neuf dont la revente serait ainsi plombée ?
Aujourd’hui le coût très élevé des batteries est « camouflé » par le système des primes à l’achat d’un VE. Mais un tel artifice ne saurait être pérennisé car il ne correspond à aucun modèle économique et constitue en volume une distorsion de concurrence.
Les constructeurs sont conscients de ce problème, qui ne peut qu’être aggravé par la course à la capacité, puisqu’on parle aujourd’hui de 120 KWh pour obtenir l’autonomie voulue.
L’avenir du VE peut être compromis si les fabricants ne parviennent pas à réduire drastiquement les prix de revient des batteries.
Deux voies sont empruntées pour tenter d’améliorer la situation:
D’une part la recherche de nouveaux matériaux pour augmenter les performances et réduire les coûts d’approvisionnements.
D’autre part, concentrer les moyens de production pour bénéficier de l’économie d’échelle.
En sachant que le marché ne se développera que si les coûts baissent, et que les coûts ne baisseront que s’il y a un marché important…
A capacité énergétique constante, la quantité de Lithium utilisé est proportionnelle à la capacité de la batterie.
A 120 Wh/Kg, la situation ne sera pas tenable au plan des approvisionnements en Lithium si la part de marché du VE devient significative, d’autant plus que la demande sera augmentée des autres applications relatives à la mise en œuvre des énergies nouvelles et du Smart Grid.
Il est donc impératif d’améliorer ce rendement énergétique sous peine de rencontrer une situation de pénurie qui mettrait fin au déploiement du véhicule électrique à batterie.
D’autre part si la techno n’évolue pas, le poids de la batterie à forte capacité deviendra prohibitif !
Dans ce contexte la voiture hybride rechargeable ( PHEV), qui se « contente » d’une batterie de faible capacité, pourra conserver sa position dominante actuelle, et constituer le bon compromis pour l’avenir.
En attendant l’éventuelle mise au point d’une nouvelle technologie de batterie, comme la Zinc-air dont on dit grand bien.
Et sans oublier les autres solutions « durables » que sont la pile à combustible et les bio carburants de seconde et troisième générations.
Les dix prochaines années verront ces secteurs se décanter, les éléments clé étant l’évolution des réglementations antipollution, la montée en puissance de la taxe carbone, et le cours du pétrole qui reste le maître du jeu.

Repost 0
14 septembre 2016 3 14 /09 /septembre /2016 12:07

14 Septembre 2016
Nous avons rappelé dans un précédent article (6 Septembre) que la polémique autour du compteur LINKY est alimentée par plusieurs revendications :
- Les relevés détaillés en temps réel de la consommation des usagers sont considérés par certains abonnés comme une violation de l'espace privé.
- Les nouveaux compteurs LINKY seraient à l'origine de troubles de jouissance en raison des perturbations électromagnétiques émises, particulièrement pour les personnes "électro sensibles".
- Les signaux CPL émis par ces nouveaux compteurs induiraient des perturbations au sein des réseaux "in door" de certains abonnés.
- Etc.
D’autres revendications font l’objet de plaintes concernant les perturbations engendrées par les réseaux CPL « en général ». Elles ne visent pas spécialement le compteur LINKY. Il s’agit des usagers de la bande 1,6 - 30 Mhz pour les transmissions Radio, qui se plaignent de voir les ondes polluées par le rayonnement CPL.
_______________________

Chacun de ces domaines de revendications requiert une approche juridique différente, devant être traitée spécifiquement pour éviter tout amalgame incompréhensible.
Le problème de violation de l'espace privé n'a à l'évidence rien à voir avec l'électro sensibilité, ni avec d’éventuelles perturbations des applications clients.
________________________

Les domaines de l'électrotechnique et des télécommunications sont étroitement régis par des normes.
Nul n'est censé pouvoir échapper à ces normes, pas plus les particuliers que les professionnels producteurs et distributeurs d'électricité.
Le nouveau compteur LINKY n'échappe évidemment pas à la règle, mais certains usagers contestataires n'en sont pas convaincus.
C'est pourquoi il nous a paru intéressant de signaler un document d'expertise de l'ANFR susceptible d'apporter des éclaircissements sur ce fameux nouveau compteur et surtout sur sa conformité aux normes en vigueur.
Ces résultats constituent au moins un point de départ solide pour de futures argumentations.
Ce document est accessible ici:

http://www.anfr.fr/fileadmin/mediatheque/documents/expace/2016-05-30_Rapport_technique_compteur_vdef2.pdf
___________________________

L'essentiel des résultats peut se résumer dans le tableau suivant, qui donne les valeurs mesurées des champs électrique et magnétique émis par le compteur LINKY, dans les conditions de mesures définies par la norme.
Les mesures sont effectuées dans les diverses configurations de CPL (Versions G1 et G3), et en comparaison avec les émissions des anciens compteurs, dans la gamme des fréquences utilisées par les compteurs (Bande A du CENELEC, réservée aux distributeurs d'énergie).
Ces mesures montrent que les niveaux d'émissions sont considérablement inférieurs aux limites de la norme, parfois dans un rapport de plusieurs ordres de grandeur.

On peut conclure que, au moins au niveau du respect des normes d'émissions électromagnétiques, le compteur LINKY est largement en dessous des seuils limites imposés.
Le rapport indique par ailleurs que les valeurs relevées pour ce compteur sont comparables à celles d'un écran TV 19" , 17 fois plus faibles qu'une lampe fluo-compacte, et 56 fois plus faibles qu'une plaque à induction.
Voilà qui devrait rassurer les usagers de bonne foi, au moins sur le plan des perturbations EM émises par le compteur lui-même.
___________________

Par ailleurs il est utile de rappeler que le compteur LINKY utilise des signaux CPL dont les fréquences porteuses sont situées dans la bande A du CENELEC, bande dédiée aux fournisseurs d’énergie électrique, pour les applications de Télé relevé.
Deux versions sont développées:
LINKY G1
A commutation de porteuses ( 63,3 KHz et 74 KHz)
Modulation S-FSK (Spread - Frequency Shift Keying)
Niveaux de sortie: Décroissant de 134 dBuV ( 5V) à 63,3 KHz Jusqu’à 120 dBuV (1V) à 74 KHz.
Cette première version équipe les premières implantations du nouveau compteur.

LINKY G3 (Deuxième génération de compteurs)
Codage OFDM (Orthogonal Frequency Division Multiplexing)
36 sous-porteuses réparties entre 35,9 KHz et 90,6 KHz.
Niveaux de sortie id. G1.
Cette génération doit normalement prendre la suite du G1.

Il faut ici remarquer que les fréquences utilisées sont en Kilo-Hertz et non en MHz comme souvent cité ici et là.
La bande HF 1,6 à 30 MHZ, n’est pas utilisée par EDF.
Pour le moment…

Les signaux CPL échangés entre le compteur et le concentrateur EDF, ainsi que les signaux CPL affaiblis des voisins de quartier de l’abonné, ne sont pas arrêtés par le compteur, et se retrouvent donc à l’intérieur du domicile, à des niveaux relativement faibles, mais non négligeables.

Les interactions entre ces signaux externes, en principe non désirés, et le réseau domotique CPL de l’abonné appartiennent à un domaine non encore parfaitement exploré.
La distribution de l’énergie électrique appartient au domaine de l’Electrotechnique.
Les réseaux d’échange de données appartiennent au domaine des Télécommunications.
Ces deux domaines sont régis par des organismes différents, des standards et des normes différentes. Leur rapprochement est souhaitable mais ne peut se réaliser qu’à moyen ou long terme.
Or la mise en œuvre d’un réseau CPL constitue un rapprochement forcé entre ces deux domaines qui n’ont pas vocation à faire converger leurs cahiers des charges, du moins à cours terme.
_________________

Ce rapprochement « sauvage » fait apparaître des problèmes à priori sans solutions évidentes.
Un réseau électrique domestique conforme à la norme NF C 15-100 ne convient pas à la réalisation d’un réseau de télécommunications, pour les raisons déjà évoquées:
- Absence de blindage.
- Câblage hétéroclite.
- Circuits dissymétriques, qui sont à l’origine de rayonnements pouvant perturber l’environnement.
(De nombreuses applications utilisent déjà la gamme de fréquences des ondes courtes, avec des appareils d’une très grande sensibilité qui sont très vulnérables à des sources perturbantes rapprochées).
- Impédances fantaisistes.
- Absence de cage de Faraday dans les bâtiments.
- Affaiblissement du signal très dépendant des parcours.
- Comportement variable en fonction des appareils connectés.
- Présence systématique de perturbations liées à la mise en fonctionnement et à la coupure des appareils domestiques.
- Présence également systématiques des transitoires de la tension du réseau, liés aux commutations pour l’ajustement tension et fréquence du réseau.
- Présence d’appareils qui, bien qu’homologués NF C 15-100, nuisent à la transmission des signaux CPL (Parafoudres, prises multiples, …).

Ce cumul d’inconvénients laisse penser qu’au-delà d’un certain niveau de complexité et du nombre des applications connectées, il ne sera plus possible d’assurer un fonctionnement acceptable*, sans apporter des modifications au câblage électrique.
*Notamment au niveau de la gestion des collisions et de la hiérarchie des urgences.

Et le compteur LINKY n’y sera pour rien…
_____________________

Repost 0
11 septembre 2016 7 11 /09 /septembre /2016 11:56

11 Septembre 2016
Depuis plus d'un siècle, la voiture électrique est plombée par l'incapacité de sa batterie à lui assurer une autonomie décente.
Les récentes tentatives de relancer ce marché se sont heurtées au même problème d'autonomie.
Malgré les progrès incontestables réalisés dans la chimie des accumulateurs au Lithium (110 Wh/Kg), la densité énergétique reste insuffisante, et une batterie de 250 Kg ne peut offrir que 150 Km d'autonomie réelle à une voiture moyenne, ce qui limite son utilisation à des parcours réduits, sauf à disposer d'un important réseau de bornes de charge, ce qui est encore très loin d'être le cas, la situation étant à peine meilleure qu'il y a un siècle, en dehors des agglomérations.
Une voiture moyenne requiert environ 15 KWh pour parcourir cent kilomètres en conduite "raisonnable" , ce qui correspond à une consommation de 6 L/100 avec un moteur thermique de rendement moyen 25%.
Pour obtenir avec un VE une autonomie du même ordre que celle d'une voiture "thermique" équivalente, soit 700 Km avec un réservoir de 50L, il faut donc une batterie de 110 KWh, dont le poids ne devra pas dépasser 350 à 400 kg, sinon la consommation augmentera à cause de la masse excessive.
L'objectif est donc clairement désigné, il faut développer une technologie capable d'offrir plus de 300 Wh par Kg, soit presque le triple de la densité énergétique des actuelles batteries LiFePO4.
Deux voies sont utilisées pour aller vers ce but:
La première voie consiste à optimiser la batterie pour obtenir la meilleure densité énergétique. On peut gagner 20 à 30% sur ce paramètre, mais au détriment de la puissance car la densité de courant max diminue ( On ne peut pas avoir le beurre et l'argent du beurre). Il faut alors ajouter un supercondensateur qui se chargera de délivrer les pointes de puissance nécessaires, au prix d'une augmentation de coût.
La deuxième voie, complémentaire de la précédente, consiste à rechercher d'autres combinaisons chimiques et d'autres architectures de matériaux d'électrodes présentant de meilleures performances énergétiques. La technologie Lithium NMC (Nickel, Manganèse, Cobalt) émerge actuellement sur le marché, et affiche des performances quasiment doublées par rapport au Li FePO4.
Pour un poids équivalent, ces nouvelles batteries offrent 60 KWh, laissant espérer une autonomie de 400 Km.
Nissan annonce un véhicule ainsi équipé, et comme d'habitude nous retrouvons la surenchère habituelle: Le constructeur annonce une autonomie de 500 Km en mode NEDC , heureusement corrigés par le cycle EPA américain qui indique 350 Km, plus réaliste.
On se demande pourquoi insister sur ce mode NEDC, complètement discrédité par les récents scandales sur les émissions et les consommations "truquées". Les constructeurs ont vraiment une piètre opinion de leurs clients, pour les supposer capables d'avaler de telles couleuvres…
La publicité n'ayant pas encore le pouvoir de changer les lois de la physique, les clients pourront compter sur 350 Km en gardant le pied très léger. Rendez-vous en 2017.
Mais 350 Km ne font pas 700 Km, il y a donc encore un facteur 2 à gagner.
_____________________
En électronique on a coutume de dire que c'est toujours le dernier décibel qui est le plus dur à gagner. C'est vrai également pour l'électrochimie. Passer de 30 KWh à 60 KWh pour un poids de batterie équivalent représente un saut technologique important qu'il faut saluer.
Le passage de 60 KWh à 120 KWh, toujours à poids égal de batterie, ne sera pas réalisé avant 2020, plutôt 2025 au plan industriel, si toutefois elle est possible. On peut alors penser que la solution 60 KWh constituera la norme pour le véhicule routier tout électrique des dix prochaines années dans le moyen de gamme.
(On voit mal les clients se "contenter" de 30 KWh avec les inconvénients d'une autonomie réduite à 200 Km voire moins, si des modèles à 60 KWh sont disponibles. Avec 30 KWh on hésitera à prendre d'autoroute. Avec 60 KWh cela devient envisageable à la rigueur).
___________________
Mais la technologie n'a pas dit son dernier mot. Peut-être l'objectif sera-t-il atteint grâce à la pile à Hydrogène, qui commence à pointer son nez et pourrait nous surprendre dans les prochaines années.
___________________________
Au début du XXè siècle, la voiture électrique a été "tuée" par le pétrole pour la simple raison qu'il était possible d'emporter quelques bidons du précieux liquide afin de ne pas tomber en panne sèche, alors qu'évidemment ceci n'était pas possible en électrique, et qu'à l'époque les bornes de recharge n'étaient qu'un rêve.
La situation est-elle réellement différente aujourd'hui ?
La réponse est ambigüe.
L'électricité est certes distribuée partout et en grandes quantités. Mais sa mise à la disposition des véhicules électriques nécessite des installations sécurisées, d'accès facile et compatibles avec les divers modèles de câbles de raccordement fournis par les constructeurs. La standardisation dans ce domaine paraît très laborieuse.
Des installations de recharge existent ici et là, dans les grandes villes essentiellement, et constituent un embryon de réseau de recharge dont l'accessibilité reste encore très problématique. La recharge au domicile est encore la solution la plus sure pour les particuliers.
C'était déjà le cas au début du XXè siècle…avant l'arrivée du pétrole.
Il ne faut donc pas se bercer d'illusions, la situation n'est guère meilleure actuellement, et il faut une certaine dose de témérité pour se lancer avec un véhicule tout électrique sur un parcours supérieur à 150 Km.
Pour les déplacements de longue distance, il vaut mieux prendre le train car le réseau routier est encore à peu près totalement dépourvu d'installations de recharge de batteries.
Dans ce contexte on peut se demander à quoi serviront les batteries de 60 KWh, d'autant plus que leur recharge posera le problème de la puissance des bornes rapides.
En effet, pour recharger une telle batterie en une demi heure, il faut une puissance de 120 KW.
Il n'existe aujourd'hui aucun réseau disposant de telles installations.
Le déploiement du marché des VE routiers reste donc encore une vue de l'esprit et le pétrole demeure incontournable pour les longs trajets.
D'autre part il faut rappeler que le tarif de l'électricité qui sera délivrée par les diverses catégories de bornes ( Recharge lente, semi-rapide, rapide) est inconnu, de même que le type et le montant des taxes qui seront appliquées.
Il faut au client une bonne dose d'abnégation pour acquérir un véhicule électrique sans connaître le prix du carburant qu'il devra utiliser.
Démarré en 2011 avec 2 626 véhicules vendus, le parc de véhicules tout électriques était de 58 379 fin Août 2016, ce qui représente 0,16% du parc de voitures particulières en France.
Les ventes de voitures électriques représentent en 2015 0,9% du total des ventes de voitures neuves. Cette très faible part, après cinq ans d'efforts des pouvoirs publics en matière de primes, d'avantages divers et de campagnes d'incitation, confirme la réticence des clients, peu enclins à investir dans une technologie en évolution permanente, et dont les avantages vantés dans les gazettes ne se vérifient pas sur le terrain.
Dans ce contexte, la voiture hybride semble avoir son avenir assuré, et seule une crise pétrolière majeure pourrait faire bouger les lignes.
______________________

Repost 0
6 septembre 2016 2 06 /09 /septembre /2016 17:34

6 Septembre 2016
Les CPL (Courants Porteurs en Ligne) sont au centre d'une nouvelle polémique, qui cristallise, sous la même bannière, diverses revendications de natures assez différentes.
Nous avons rappelé précédemment comment, en voulant faire du réseau domestique de distribution d'énergie électrique un réseau de communications numériques à haut débit, une boîte de Pandore a été ouverte, peut-être un peu précipitamment.
Les inconvénients, avérés, de cette audacieuse tentative de cohabitation n'ont pas manqué d'être pointés du doigt par certains groupes d'usagers qui s'estiment lésés dans leurs droits par l'intrusion "à la hussarde" de cette nouvelle application, qui induirait des "troubles de jouissance" insupportables.
________________

L'arrivée en fanfare du nouveau compteur LINKY est venue ajouter une page supplémentaire au cahier de doléances déjà bien garni.
Les principaux griefs vont du caractère agressif des courants porteurs envers les personnes électro sensibles, jusqu'au caractère jugé intrusif de l'application "Smart Grid" , en passant par les problèmes de compatibilité électromagnétiques (Qui sont bien réels) dans la bande de 1,6 à 30 Mhz utilisée par de nombreux services officiels et particuliers (Radio amateurs, mais pas seulement).
_________________

Les protocoles utilisés pour les transmissions CPL tiennent pourtant compte des risques de perturbations électromagnétiques générés par les signaux .
Les niveaux d'émission ne sont pas quelconques, leurs valeurs max sont définies dans les normes CEM, et les adaptateurs CPL intègrent obligatoirement le système de masquage des fréquences sensibles (Notching).
En clair, les CPL n'émettent pas dans les créneaux de fréquences déjà utilisés par des applications identifiées.
La liste de ces fréquences "masquées" est incluse dans la mémoire de chaque adaptateur CPL.
Certains dispositifs intègrent également la fonction de masquage dynamique, qui améliore les performances CEM.
L'homologation des dispositifs n'est accordée qu'après vérification du respect de la norme CEM , dans les conditions de mesures spécifiées.

D'autre part, la juridiction est formelle: Une installation qui génère des troubles de jouissance dans son environnement doit être démontée.
Il n'en demeure pas moins qu'un réseau électrique domestique est très éloigné des conditions de mesures de laboratoire; la longueur et la nature des câbles peuvent être quelconques, de même que l'architecture, la symétrie des trajets, la qualité des raccordements, les impédances de ligne, qui impactent fortement les rayonnements parasites du système.
En pratique il sera très difficile d'établir la responsabilité d'un "trouble de jouissance", l'expertise en la matière étant loin d'être établie.
__________________

Les perturbations générées par l'usage des CPL ( ou par les appareils "classiques" connectés à l'installation) sont de deux sortes:
- Les perturbations "subies" par l'usager.
- Les perturbations "causées" par l'usager.
A l'intérieur de ces deux catégories il faut distinguer:
- Les perturbations "conduites" par les fils.
- Les perturbations "rayonnées" ou "reçues" par une installation.
Dans la quasi-totalité des cas, l'usager se préoccupera des perturbations subies par sa propre installation. Concernant les éventuelles perturbations causées au voisinage, les précautions prises se borneront à n'utiliser que du matériel vendu dans le commerce, lequel est réputé conforme aux normes les plus récentes.
Le réseau électrique lui-même sera utilisé sans modifications particulières, dès lors qu'il est réputé conforme à la norme NF C 15-100, laquelle ne se préoccupe pas des signaux CPL.
Les mondes de l'électrotechnique et des télécommunications n'ont pas encore fusionné.
( Des modifications seront probablement apportées aux normes ultérieurement pour combler cette lacune, mais ceci est une autre histoire).
Or un réseau électrique n'est pas autre chose qu'une antenne. Une mauvaise antenne certes, mais une antenne tout de même puisque les fils ne sont pas blindés.
Lorsque l'on envoie dans une antenne des signaux HF dans la bande 1,6 à 30 MHz voire plus, cette antenne rayonne.
L'intensité du rayonnement dépendra de l'architecture du réseau, de la dissymétrie des trajets phase et neutre des différents circuits, des variations d'impédance, de la nature de la mise à la terre et des lignes équipotentielles, de la nature de la construction, et de quelques autres paramètres difficilement contrôlables.

Le contrôle effectif des rayonnements émis et/ou reçus passe par une réalisation "sérieuse" des mises à ma terre, l'idéal étant la constitution d'une quasi cage de Faraday, classique dans les bâtiments à armature métallique, mais difficile à mettre en œuvre dans une construction traditionnelles.
Aujourd'hui la loi autorise l'installation d'un réseau de communication "in-door" sans exiger une vérification de conformité du réseau électrique, et pour cause puisqu'aucune norme n'existe à ce sujet.
Du moins jusqu'à présent…
_____________________

Pour s'affranchir de ces problèmes potentiels, certains usagers décident de ne pas utiliser les CPL dans leur domicile, et de constituer éventuellement un réseau numérique interne filaire (Paire torsadée blindée ou câble coaxial, ou fibre optique), voire même pas de réseau du tout.
Les liaisons radio sont au maximum évitées, car il serait malvenu de se plaindre des émissions radio des autres et d'en émettre soi-même….
(WiFi, ZigBee, …).
Ce "repli" stratégique ne compromet nullement la mise en œuvre future du "Smart Grid" puisque le compteur LINKY communique préférentiellement par son interface filaire TIC ( Télé Information Client) selon le protocole EURIDIS, avec un débit de 9 600 Bauds, largement suffisant pour les applications envisagées.
Cette liaison TIC est alors raccordée en filaire au gestionnaire d'énergie du logement, qui commande directement les appareils sous contrôle (Chauffage, ECS, PAC, charge de batterie, gros électro ménager, etc…).
Les CPL étant bannis du domicile, il est alors logique de se prémunir d'une intrusion de CPL indésirables arrivant par le compteur.
(Le compteur LINKY ne bloque pas les CPL, il les affaiblit tout au plus d'une quantité non spécifiée, de l'ordre d'une dizaine de décibels).
En sortie du compteur, c'est-à-dire chez l'abonné, arrivent les signaux CPL de ENEDIS (ex ERDF), mais aussi ceux des abonnés voisins qui sont raccordés sur le même tronçon du transfo BT EDF, constituant ainsi un réseau CPL de quartier dont les usagers se seraient bien passé et qui ne peut que créer des troubles.
_____________________

Pour "protéger" la totalité du logement des signaux CPL indésirables arrivant via le compteur, il faudrait disposer un filtre ad-hoc derrière le disjoncteur de sécurité EDF (DDR 500 mA , qui fait également office d'organe de coupure du circuit général).
Ce filtre doit posséder une fonction de transfert procurant une atténuation supérieure à 40 dB dans les bandes de fréquences susceptibles d'être utilisées.
Typiquement il s'agit des bandes CENELEC A (bas débit) et de la bande HF de 1,6 à 80 Mhz (Haut débit), dont seulement une partie est utilisée aujourd'hui ( 1,6 à 30 MHz).
La bande à "bloquer" s'étend donc de quelques 10 KHz à 80 MHz puisque certains fabricants songent déjà à travailler sur ces fréquences extrêmes seules capables de transmettre les hauts débits binaires exigés par la TVHD (Des adaptateurs CPL affichant 1 200 Mbps sont déjà proposés sur le marché).
D'autre part, la totalité du courant soutiré par l'abonné traverse le filtre en question. Il devra donc être dimensionné pour supporter ce courant sans perdre ses performances et sans échauffement excessif.
Pour un abonnement de 18 KVA, ce courant peut atteindre 80 A.
En 15 KVA il peut atteindre 63 A.
Les éventuelles bobines du filtre devront être réalisées en fil de diamètre suffisant (> 10 mm²) pour limiter l'échauffement à quelques Watts car l'objet sera de type modulaire intégré sur un rail du tableau de distribution.
Les condensateurs de filtrage devront être du type by-pass pour minimiser la composante selfique des connexions afin d'éviter une détérioration des performances en haute fréquence.
Ce filtre sera donc un composant de hautes performances susceptible d'un coût significatif.

__________________

Le graphique suivant donne les courbes d'atténuation obtenues avec un filtre SCHAFFNER FN 2010 - 60 .
Malgré un courant max de 60 A "seulement", son poids atteint 1,1 Kg, ce qui en fait un composant difficilement intégrable dans un tableau classique.
Le prix est très élevé, c'est un produit de luxe.
On remarquera que ce filtre n'est pas efficace dans la bande A du CENELEC utilisée par EDF pour les communications bas débit. Il ne bloquera donc pas les signaux CPL du LINKY. Il conviendra par contre pour les signaux HF dans la bande 1,6 à 30 Mhz .
Les quatre courbes correspondent à quatre configurations entrées-sorties et d'impédances variables. On peut constater l'influence importante des impédances de source et de charge sur les performances "in situ".

Le filtrage des CPL.

______________________

LEGRAND propose le modèle 003609 limité également en courant à 63 A (Abonnements de 15 KVA) pour un prix public entre 120 et 150 euros.
Il se présente sous forme compatible rail DIN largeur de 4 modules.
Sa courbe d'atténuation n'est pas communiquée, seule l'atténuation dans la bande 95 à 148,5 KHz est spécifiée (> 45 dB). Cette bande de fréquence couvre les bandes CENELEC B, C, et D.
Or les CPL LINKY utilisent évidemment la bande A réservée pour les applis des distributeurs d'électricité ( 35,9 à 90,6 KHz).
Le produit LEGRAND ne convient donc pas non plus pour filtrer les CPL LINKY.
D'autre part ses performances dans la bande HF ne sont pas spécifiées.
______________________

Le produit qui conviendrait pour le blocage des signaux LINKY est donc difficile à trouver sur le marché, surtout si on lui demande de bloquer également la bande 1,6 à 30 Mhz et se supporter un courant de 80 Ampères !
Avant d'investir dans un produit du marché, il y aura donc lieu de vérifier ses performances afin de ne pas prendre des vessies pour des lanternes.
Quelle que soit la solution choisie, il sera nécessaire de mesurer sur place les performances d'atténuation, qui dépendent fortement des caractéristiques de chaque réseau, notamment les impédances de source et de charge.
Le filtrage des CPL n'est décidément pas une affaire évidente.
_____________________

Repost 0
26 août 2016 5 26 /08 /août /2016 19:17

26 Août 2016

Nous avons vu dans l'article précédent que les CPL sont en passe de devenir une technologie incontournable dans l'habitat moderne.
(Et pas seulement dans l'habitat, les constructeurs automobiles y viennent également pour supporter le multiplexage en faisant passer tous les signaux sur la connexion d'alimentation, économisant ainsi un câblage spécifique fastidieux et vulnérable).
Les opposants aux CPL auront donc un rude combat a mener, et sur plusieurs fronts à la fois puisque ceux-ci "sévissent" dorénavant dans le domicile, dans les bâtiments du tertiaire, sur tout le réseau EDF de distribution "outdoor", et maintenant dans nos automobiles.
Si l'issue de ce combat est hélas prévisible (Voir le téléphone cellulaire) il aura au moins le mérite d'attirer l'attention sur un certains nombre d'inconvénients réels et de susciter des mesures de protection de l'environnement et de la vie privée, comme le durcissement des protocoles de cryptage, le masquage dynamique des fréquences sensibles, une meilleure définition des conditions de mesures des performances CEM (Compatibilité Electro Magnétique) des matériels et des installations, et un encadrement plus strict de la normalisation.
_____________________

Le réseau de la téléphonie commutée n'était pas, lui non plus, conçu à l'origine pour transmettre des signaux de communication numérique à large bande comme la TVHD .
Et pourtant ces applications sont aujourd'hui devenues la norme pour une grande majorité des lignes montées à l'origine pour transmettre la voix en analogique.
Ceci a été rendu possible grâce aux progrès considérables réalisés dans les domaines du traitement numérique du signal et de la microélectronique.
Ces progrès, qui ont permis le développement de la téléphonie cellulaire et de l'internet à haut débit, sont également mis à profit pour "booster" les communications par courants porteurs.
________________________

Le réseau domestique de distribution de l'énergie électrique n'est pas conçu pour être utilisé comme réseau de communications numériques à haute fréquence et bas niveau de signal, en voici quelques raisons:
- Ce réseau n'est pas spécifique: Il implique la coexistence de signaux de communication à bas niveau et haute fréquence, avec les courants transportant l'énergie, de valeur quelconque entre zéro et quelques dizaines d'Ampères, affectés d'impulsions parasites liées au fonctionnement normal des appareils connectés, ou créées par le réseau EDF lui-même.
L'optimisation pour un type d'applications (La distribution d'énergie) n'est pas forcément compatible avec l'optimisation pour les applications réseau numérique de communications.
- Les conducteurs ne sont pas blindés, pas même torsadés, et les "goulottes" ne sont pas métalliques; il n'y a donc aucun obstacle au rayonnement d'éventuels signaux parasites, qu'ils soient émis ou reçus par le réseau.
- La continuité électrique du réseau n'est pas assurée, puisque des organes de coupure automatique sont prévus dans un but de sécurité des personnes et des biens ( Fusibles, disjoncteurs, disjoncteurs différentiels).
Les différents circuits du câblage secteur peuvent alors se trouver dans l'incapacité de communiquer.
- Certains appareils ménagers, bien que conformes à la norme NF-C 1500, peuvent nuire aux CPL, comme les parafoudres, les prises avec para surtenseurs, les appareils de cuisson à induction, les alimentations à découpage, les éclairages fluorescents, et certains filtres.
- La symétrie des liaisons n'est pas assurée, le trajet de la Phase n'a pas forcément la même longueur que le trajet du Neutre. Ceci est à l'origine des perturbations de mode commun, donc de rayonnements parasites.
- Le réseau supporte de plein fouet les perturbations électriques liées au fonctionnement normal des appareils domestiques connectés et/ou provenant du réseau de distribution EDF.
- De part l'architecture de raccordement des abonnés EDF (ENEDIS) , les différents compteurs d'abonnés constituent autant de ports de communication constituant le réseau "Outdoor" de EDF.
Le compteur ( CBE ou LINKY) n'ayant aucune fonction de blocage des signaux CPL (Tout au plus un affaiblissement du signal), l'ensemble des abonnés du même tronçon du transfo BT se trouvent malgré eux interconnectés, le réseau domestique n'est alors plus tout à fait "Indoor", avec les inconvénients que l'on peut imaginer.
( Cette "porte" ouverte à tous les vents rend indispensable l'utilisation d'un système de cryptage des données très robuste, DES aujourd'hui, AES demain).
- Le trafic CPL haut débit utilise aujourd'hui la bande 1,6 à 30 Mhz. L'impédance HF du réseau dans cette bande, vue depuis une prise électrique, peut être à peu près n'importe quoi selon la nature du réseau, le câblage, le diamètre des fils, les appareils connectés en fonctionnement, la qualité des raccordements, et bien d'autres subtilités, notamment le moment choisi pour faire la mesure. Ceci est contraire aux bonnes mœurs dans le domaine des réseaux numériques.
Il s'ensuit des phénomènes d'affaiblissement du signal et/ou de réflexion,
il sera parfois nécessaire d'installer des circuits de compensation.
La bande 1,6 à 30 Mhz, utilisée aujourd'hui pour les CPL domestiques, ne permet pas d'obtenir des débits binaires réels supérieurs à 40 Mbps dans la plupart des installations existantes. Il va donc être nécessaire d'utiliser des bandes de fréquences supérieures, typiquement jusqu'à 80 Mhz, pour passer des canaux TVHD avec un bon résultat. D'autres problèmes surgiront alors, mais chaque chose en son temps…
- Le fonctionnement du réseau CPL est interrompu en cas de panne de courant puisque les adaptateurs CPL sont alimentés par le 230 V.
Certains appareils, notamment ceux qui contribuent à la télésurveillance, à la sécurité, et aux systèmes anti intrusion, sont autoalimentés par batteries, mais ils sont inefficaces en cas de coupure de courant si les ordres leurs sont transmis par CPL. Une raison supplémentaire de ne pas négliger les liaisons radio et/ou filaires.
- Les performances du réseau CPL seront très dépendantes de sa configuration à un instant donné, selon le nombre et le types des appareils domestiques en fonctionnement.
- Le réseau de distribution électrique est exposé à la foudre et en général aux surtensions accidentelles, pouvant entraîner la destruction de plusieurs adaptateurs CPL.
- Le débit binaire efficace est fortement dépendant de la qualité du réseau. En effet, la norme prévoit que tout adaptateur CPL doit ajuster son débit de manière à garantir un TEB ( Taux d'Erreur Binaire) compatible avec l'application. Ceci est réalisé automatiquement par le choix dynamique du type de modulation.
Plus le réseau est perturbé et plus le débit est réduit.
C'est ainsi que des adaptateurs affichant un débit théorique de 1 200 Mbps par exemple, peuvent se trouver contraints de trafiquer à 30 ou 40 Mbps si le réseau est de mauvaise qualité, et cela est très fréquent sur les réseaux existants, de qualité assez médiocre.
______________________

Malgré ces inconvénients, l'intérêt pratique de ce réseau préexistant est tel qu'il a été plébiscité pour constituer LE réseau domestique chargé d'assurer les communications numériques de toutes natures et jusqu'à des débits binaires considérables (Aujourd'hui 1 200 Mbps théoriques!).
On peut cependant se demander s'il est bien raisonnable d'utiliser un support à priori non destiné à cette fonction, pour des applications aussi différentes que la commande d'une cafetière électrique, la recharge d'une batterie de voiture, l'ouverture d'un portail, le téléphone, l'internet, le multimédia, la télévision numérique haute définition, la vidéo surveillance, et bien d'autres choses encore.
L'avenir nous dira rapidement ce qu'il en est…
(Des adaptateurs CPL 1 200 Mbps sont déjà commercialisés, et pour un prix très raisonnable).
___________________

Jusqu'à présent, ERDF (Devenu ENEDIS) n'intervenait pas comme acteur CPL à l'intérieur du domicile, si l'on excepte l'application PULSADIS à très basse fréquence, destinée essentiellement à la commutation HP/HC . Mais pour la mise en œuvre du programme "SMART GRID" , il sera nécessaire d'offrir au fournisseur d'énergie la possibilité (négociée) de communiquer avec certains équipements de puissance afin de gérer les appels de puissance de pointe et/ou de négocier en temps réel certains aménagements tarifaires .
Il s'agit par exemple de gérer à distance la charge d'une batterie de voiture électrique, l'effacement de Zones de chauffage si celui-ci a été souscrit (Ancien abonnement EJP), négociations tarifaires en temps réels, etc.
Cette communication avec le domicile pourra utiliser différents supports: les CPL, un réseau filaire spécifique, ou une liaison radio.
Le nouveau compteur LINKY peut gérer ces trois modes.
Chaque compteur LINKY est équipé d'une interface filaire, et un logement est prévu pour insérer un module ERL (Emetteur Radio Linky), ceci afin de permettre à l'abonné d'échanger avec ENEDIS sur un réseau domotique résidentiel filaire ou radio, si l'usage des CPL ne lui convient pas).
ENEDIS va donc devenir un nouveau partenaire sur les réseaux énergétiques domestiques, pas seulement sur le support CPL, mais également en filaire et en radio.
Certains usagers se sont insurgés contre ce qu'ils considèrent comme une "intrusion" dans un domaine qu'ils pensaient réservé à leur usage personnel, voire intime. D'autres protestent contre une pollution insupportable des ondes Radio, ou contre des perturbations de leur propre réseau CPL.
Nous laissons aux juristes le soin de traiter ces conflits, et de faire le tri entre les problèmes de protection de la vie privée, les problèmes de compatibilité électromagnétique, et les problèmes touchant l'électro sensibilité de certaines personnes.
Nous leurs souhaitons bien du plaisir.
Rappelons cependant que l'abonné peut toujours placer un filtre passe-bas en sortie du compteur pour bloquer les signaux CPL indésirables, et utiliser les signaux disponibles sur la sortie filaire du compteur (Comme sur l'actuel CBE) ou utiliser la liaison radio, pour faire transiter les communications extérieures par le gestionnaire d'énergie du domicile.
Après tout on a toujours le droit d'être allergique aux CPL, et de leur préférer la bonne vieille paire torsadée ou l'imbattable câble coaxial, voire même la fibre optique, et pourquoi pas la liaison radio Zigbee ?
Mais pour cette dernière il faudra se méfier des rayonnements intempestifs qui peuvent bien valoir ceux des CPL…

________________________

Les CPL tout seuls ne pourront évidemment pas tout faire.
Le réseau domestique intègrera les différents systèmes de communication: Radio, Filaire, CP, Fibre optique, Infrarouge.
Les organismes de normalisation travaillent sur l'harmonisation des différentes normes afin d'assurer l'inter opérabilité entre les différents systèmes.
La norme IEEE 1905-1 / Avril 2013, définit les dispositions pour assurer la convergence des différentes normes spécifiques telles que:
IEEE 802-3 / Ethernet
IEEE 802-11 /WiFi
IEEE 1901 / CPL / HomePlug
MoCA / Multimedia over CoAxial.
Et quelques autres…
Afin de garantir à l'usager un niveau acceptable de compatibilité et d'interopérabilité entre les produits du marché.
Affaire à suivre…
________________________

Repost 0
14 août 2016 7 14 /08 /août /2016 19:11

14 Août 2016
Citation:
"L'une des principales limitations liées à la technologie CPL est le rayonnement non intentionnel de signaux électromagnétiques.
Ce phénomène est principalement dû à la nature asymétrique du réseau électrique.
La variation d'impédance des charges connectées au réseau, ainsi que les longueurs inégales des fils de phase et de neutre contribuent à la conversion du signal différentiel CPL en courant de mode commun traversant le réseau.
Dès lors, les fils de cuivre utilisés pour la transmission du signal utile réagissent comme une antenne et une partie de la puissance transmise est rayonnée.
Cela entraîne non seulement une forte atténuation du signal au niveau des récepteurs, mais génère également des problèmes de compatibilité électromagnétique (CEM).
Le signal rayonné peut interférer avec d'autres services existants tels que les communications Radio amateurs et/ou la Radiodiffusion ondes courtes".
Tout est dit dans cet en-tête de la thèse de Amilcar Mesco, présentée en 2013 sous le N° 2013 telb 0288 à l'Université de Bretagne, et portant sur l'étude des émissions électromagnétiques des CPL et des moyens de mitigation.
Travaux réalisés dans le cadre du Lab. RESA/DEAN, "Elecromagnetic Compatibility", ORANGE Labs (ex France Télécom R&D) à Lannion.
_______________________

Les CPL (Courants Porteurs en Ligne) sont utilisés depuis la nuit des temps ( Enfin, presque…) pour acheminer des communications de services à très bas débit binaire sur le réseau de distribution de l'énergie électrique, Haute et basse tension, sans créer de souci majeur au sein des populations, branchées ou pas.
Mais les progrès considérables réalisés dans les domaines des communications numériques ont donné des idées pour l'ouverture d'un marché des communications hautes fréquences sur le réseau domestique de distribution d'énergie.
En effet, les systèmes de codage et de modulation développés pour l'acheminement de la TV numérique, et pour la mise en œuvre du réseau téléphonique cellulaire, se sont révélés tellement performants qu'ils permettent de créer un réseau numérique de communication pratiquement avec n'importe quel support, même de très médiocre qualité.
Et justement, le réseau domestique électrique de distribution d'énergie, c'est bien n'importe quoi du point de vue réseau numérique.
Les travaux lancés dans les années 90 en Amérique, en Europe et au Japon, ont permis de mettre sur le marché des produits CPL permettant des débits binaires de plus en plus élevés.
De 10 Mbps au début, les meilleurs produits d'aujourd'hui affichent jusqu'à 1 200 Mbps, débit nominal théorique, est-il besoin de préciser.
On peut désormais transmettre sur les fils électriques des signaux numériques de la TVHD, de l'Internet, et du Multimédia, et réaliser ainsi un HAN , Home Area Network, dans lequel chaque prise électrique devient potentiellement un "Port" de communication à très haut débit.
Les applications visées étant évidemment le Multimédia incluant la TVHD, l'Internet, le son, la vidéo, et toutes les applications domotiques.
_________________

Les CPL de Grand'Papa, qui ne transmettaient que du très bas débit, se contentaient de fréquences porteuses de quelques dizaines de Kilohertz.
Mais pour transmettre 1 200 Mbps, il faut travailler en VHF.
Aujourd'hui on utilise la gamme 1,6 à 30 Mhz, qui permet de faire passer quelques dizaines de Mégabits par seconde, débit limité par la mauvaise qualité du support et la nécessité de partager la ressource.
(C'est tout ce que permet un réseau électrique domestique moyen, même avec des adaptateurs CPL affichant 200 Mbps et plus).
Pour faire mieux il faut monter en fréquences porteuses, on pense aller vers 80 Mhz, et probablement travailler non plus sur deux fils (Phase et Neutre) mais sur trois fils en mobilisant le fil de Terre pour compenser en partie les déséquilibres du réseau.
Comme indiqué dans la citation en en-tête, le réseau domestique devient un émetteur VHF dont le rayonnement est source de perturbations pour les autres usagers de ces gammes de fréquences:
Radiodiffusion, Radioamateurs, Aéronautique, Police, Armée, etc…
La chasse aux perturbations électromagnétiques devient donc un sport collectif avec ses règles et ses sanctions.
Le maître mot est CEM , Compatibilité Electro Magnétique.
________________

La "bronca" soulevée au sein des milieux des radioamateurs et des utilisateurs de la Radiodiffusion à ondes courtes ne sera pas apaisée par des bonnes paroles, même provenant des organismes comme l'UIT ou l'UER. Des résultats concrets devront être constatés.
Les personnes électro sensibles ne sont pas en reste et n'ont pas tardé à se faire entendre afin que leur cause ne soit pas glissée sous le tapis.
Leur ire est médiatiquement dirigée vers le nouveau compteur LINKY, mais celui-ci ne représente qu'une des sources possibles de perturbations, les principales étant les rayonnements haute fréquences émis par les installations domestiques elles-mêmes, qui trafiquent sur le réseau électrique dans la bande VHF (Bonjour les adaptateurs CPL @ 1,2 Gbps !!!).
Nous devons donc nous attendre à voir pleuvoir des normes imposant des limites drastiques aux rayonnements, limites qui ne pourront être respectées qu'en apportant au câblage électrique et aux matériels connectés des modifications sensibles susceptibles d'impacter la norme NF-C 1500.
_______________________

Les CPL haute fréquence se trouvent alors à la charnière de deux domaines: l'Electrotechnique et les Télécommunications, qui sont régis par des normes et des réglementations spécifiques.
Désormais toute norme émise pour l'un des domaines devra être compatible et complémentaire des normes de l'autre domaine.
_________________________

Les réseaux domestiques CPL sont par nature de la classe des réseaux privés "Indoor" ( Réseaux résidentiels) utilisant des signaux à faible puissance dont le rayonnement est "censé" être de faible portée.
A ce titre il n'est pas exigé d'autorisation préalable à la mise en service, par contre il est impératif de respecter les normes concernant les rayonnements électromagnétiques.
Une installation ne respectant pas les normes CEM sera purement et simplement démontée, sans préjudice des suites juridiques.
Les perturbations apportées ou subies par les CPL sont du ressort de la CEI ( Commission Electrotechnique Internationale) et plus particulièrement du CISPR ( Comité International Spécial des Perturbations Radioélectriques), créé en 1934 et actif dans tous les domaines concernés par la CEM ( Compatibilité Electro Magnétique).
Les CPL sont concernés par les normes CISPR 22 et 24 principalement.
D'autres normes existent concernant des domaines présentant des recouvrements, issues de la CEI, de la FCC (Federal Communication Commission), de l' ISO, et des normes européennes diverses.
__________________

La dernière norme Européenne concernant spécifiquement les perturbations électromagnétiques des CPL indoor hautes fréquence est la EN 50 561-1 publiée au JO du 25/02/2014.
Norme issue des travaux du CENELEC et approuvée par l'UER.
Cette norme spécifie les limites et les méthodes de mesure des perturbations électromagnétiques des appareils utilisant l'installation domestique basse tension comme réseau de transmission dans la gamme de fréquences de 1,6 à 30 Mhz.
Les détails sont disponibles sur le Net.
Il reste maintenant à confronter cette norme aux applications de terrain, et en particulier concernant les nuisances vis-à-vis des autres applications comme la radiodiffusion et les communications des radio amateurs, et à statuer sur le traitement à appliquer aux installations CPL déjà existantes.
___________________

Le réseau domestique est donc appelé à devenir multi services. On peut définir deux grandes catégories d'applications:
- D'une part les applications relatives au "Smart Grid", qui ne nécessitent pas un débit très élevé mais exigent une fiabilité et une qualité de service maximales. Il s'agit par exemple de la gestion des consommations énergétiques de puissance, et particulièrement les installations de charge des batteries de VE, et les installations individuelles de production d'énergie solaire ou éolienne.
- D'autre part les applications multimédia numériques comme la TVHD et Internet, qui ont besoin de très hauts débits binaires, et doivent faire appel à des procédés de codage et modulation très robustes et adaptatifs pour gérer "à minima" les perturbations électromagnétiques dans la bande VHF déjà occupée.
Les deux types d'applications doivent évidemment coexister sur le même réseau, ce qui implique une convergence au niveau des standards, au moins pour les couches basses du modèle de l'ISO.
En particulier au niveau de la cohabitation, de l'interopérabilité, de la rétrocompatibilité, de la gestion des collisions et des priorités, et bien sûr des CEM.
__________________

On imagine sans peine que la coexistence, sur un même réseau physique imparfait, d'une multitude d'applications domestiques incluant la TVHD et Internet, auxquelles viendront s'ajouter les communications CPL du fournisseur d'énergie dans le cadre du "Smart Grid", n'ira pas sans poser de nombreux problèmes de cohabitation et d'interopérabilité, aggravés par la diversité des technologies utilisées par les différents fournisseurs de matériel ( Adaptateurs CPL) ayant choisi des protocoles pas toujours en accord entre eux.
Le protocole le plus populaire est aujourd'hui HPP, Home Plug & Play, supporté par la HomePlug Alliance, créée en 2 000, par association de constructeurs, de distributeurs d'énergie électrique, d'instituts et d'universités (Plus de 80 membres ) pour le développement d'un standard CPL à vocation internationale.
Une première version ( HomePlug 1.0) est sortie en 2001 et depuis, différentes versions sont venues enrichir les possibilités, jusqu'à la version HomePlug AV2 qui affiche un débit théorique de 600 Mbps.
On parle maintenant de débits binaires dépassant 1 200 Mbps, débits théoriques évidemment, avec un réseau non plus à deux fils (Phase et Neutre ) mais à trois fils , le fil de Terre étant utilisé pour la compensation des modes communs.
Le débit pratique dépend de la qualité du réseau et des contraintes de partage de la ressource.
Il existe d'autres protocoles, notamment DHS, Digital Home Standard, issu à l'origine de l'UPA (Universal Powerline Association), créée en 2004, qui est implémenté sur un "Chipset" pas compatible avec certaines versions de Home Plug.
Il existe donc un certain flou au niveau des normes et la nécessité d'harmoniser ce domaine n'a pas échappé aux industriels.
Ces problèmes sont pris en charge par deux projets européens:
Projet OMEGA ( hOME Gigabits Access), lancé en 2008, avec 24 partenaires (Industriels, Opérateurs Télécom, Instituts, Universités). L'objectifs est d'établir les bases d'un réseau très haute fréquence intégrant des technologies multiples: CPL, Radio, Fibre optique.
Ce projet est relayé par un autre projet européen: "Acemind", 2013-2016,
"Advanced Convergent and Easily Manageable Innovative Desing"
basé sur les acquis du projet OMEGA, et dont l'objectif est l'intégration des applications d'usages multimédias et le contrôle des objets connectés.
Y participent: Orange, SAGECOM, Devolo, IHP Microelectronics.
On comprend alors que, dans l'avenir, le réseau électrique domestique devra tenir compte de cette nouvelle fonction de communication hautes fréquences. On ne pourra plus "tirer des fils" n'importe comment, il faudra respecter certaines règles, et peut-être blinder certaines parties du réseau. Les appareils connectés devront respecter le signal CPL afin d'une part de limiter les perturbations électromagnétiques créées, et d'autre part de ne pas introduire de ruptures d'impédance HF excessives, pour préserver les débits binaires.
La norme NF-C 1500 devra comporter un volet relatif à la compatibilité CPL.
_____________________

La situation actuelle des CPL n'est donc pas "gravée dans le marbre", une certaine harmonisation des normes et des protocoles n'interviendra pas avant plusieurs années, notamment pour ce qui concerne les applications "Smart grid" et la convergence vers le concept multisupports (Radio, CPL, Fibre optique, paire torsadée) pour les objets connectés.
En attendant, il nous faudra porter attention à la compatibilité des divers appareils achetés ici et là, et se souvenir que le réseau Ethernet, ce n'est pas mal non plus, de même qu'un bon WiFi.
Comme disait feu ma grand-mère,
c'est dans les vieux pots qu'on fait la meilleure soupe…

Repost 0
2 août 2016 2 02 /08 /août /2016 11:49

2 Août 2016
Nous avons vu précédemment que le remplacement des carburants fossiles dans les transports, essence, gazole, et GNV, se fera sous la forme d'une synergie entre différentes solutions:
- Par la substitution pure et simple des carburants fossiles par des biocarburants de seconde et troisième générations, dans des moteurs thermiques "classiques", grâce aux filières BtL (Biomass to Liquid) et BtG ( Biomass to Gas).
Les véhicules "Flex fuel" en sont la préfiguration.
- Par la croissance de la part de marché des véhicules électriques purs à batteries, qui circulent déjà aujourd'hui.
- Par la croissance de la part des véhicules hybrides à bi motorisation, électrique et thermique, utilisant l'électricité d'une batterie associée à un biocarburant .
- Par le développement des véhicules électriques à Hydrogène et pile à combustible, avec stockage du Gaz dans des réservoirs sous très haute pression, ou à faible pression sur des matériaux adsorbants réversibles.
- Par le développement des véhicules électriques à Hydrogène, ce gaz étant généré in situ à partir d'un biocarburant liquide comme l'Ethanol.
Ces différentes solutions (Et éventuellement d'autres non encore émergentes) sont condamnées à cohabiter avec plus ou moins de bonheur, durant le temps de la transition énergétique à l'issue de laquelle émergeront une ou deux solutions privilégiées par le marché et les impératifs technologiques.
____________________

La clarification de ce futur marché n'interviendra pas avant 2040 dans le meilleur des cas, et il faudra probablement attendre 2050 si le pétrole fait de la résistance, ce qui semble être le cas comme on peut le constater chaque jour à la pompe.
En attendant de connaître le ou les vainqueurs, les constructeurs qui souhaitent rester dans la course, ou y participer comme nouveaux entrants, ne doivent négliger aucune piste et garder plusieurs fers au feu, au besoin grâce à des alliances leur permettant de "manger au bon râtelier" le moment venu.
Quant au consommateur, il lui faudra beaucoup d'abnégation pour supporter ces changements perpétuels de technologies et de normes, avec tous ces plâtres qu'il lui faudra essuyer, et des voitures invendables au bout de trois ans pour crime d'obsolescence.
Les moins patients auront choisi de délaisser l'investissement désormais illusoire, et de s'orienter plutôt vers la location.
_________________

Aujourd'hui en France, le secteur des transports consomme annuellement 50 Mtep de produits pétroliers, ce qui correspond à un total de 70 Milliards de litres de carburants (Essence et Gazole), soit une énergie de 700 TWh environ (10 KWh par Litre).
( 700 000 000 000 KWh).
Qui représentent environ le tiers de la consommation totale d'énergie du Pays, et 40% de plus que la seule consommation d'énergie électrique.
L'énormité du chiffre est souvent sous estimée car ce flot d'énergie n'est pas visible; aucun derrick dans nos campagnes, des raffineries peu nombreuses, un environnement très peu agressé, des circuits de distribution discrets, tout concourt à jeter un voile pudique sur cette orgie de pétrole.
La réalité nous apparaîtra lorsqu'il s'agira de remplacer ce pétrole par des Biocarburants que nous devront fabriquer nous-mêmes, et probablement importer comme nous le verrons plus loin.
Les trois quarts de l'énergie des transports sont perdus sous forme de chaleur dissipée par les moteurs thermiques dont les rendements moyens ne dépassent pas 25%.
Ce formidable gaspillage nous met devant l'obligation de réformer ce secteur, dès lors que l'on prétend mettre en œuvre une transition énergétique efficace.
Il est primordial de viser un rendement énergétique global supérieur à 50% dans le secteur des transports.
Si les Biocarburants sont une solution pour lutter contre l'effet de serre, par contre ils ne contribuent pas à l'amélioration du rendement énergétique.
On pense alors évidement à substituer au moteur thermique le moteur électrique, qui échappe au désastre thermodynamique du moteur à combustion.
La substitution par des motorisations électriques avec batteries, dont le rendement atteint 80 %, ramènerait la consommation énergétique des transports à 16 Mtep (220 TWh), soit trois fois moins qu'aujourd'hui !!
Un tel gain d'efficacité énergétique est sans appel, et montre à l'évidence que l'avenir est à la traction électrique, qui offre le mérite supplémentaire de n'émettre aucun polluant.
Désormais, aucun projet sérieux de transition énergétique ne sera recevable s'il ne comporte pas l'objectif de la suppression à terme des moteurs thermiques.
(Nous disons bien "à terme", car les biocarburants vont leurs donner une seconde jeunesse qui pourra se prolonger longtemps si les problèmes de la traction électrique tardent à se résoudre).
__________________

Le moteur électrique a donc la préférence, mais la quête du Saint Graal comporte bien des embûches, le principal obstacle étant ici celui des batteries.
Les progrès incontestables apportés par les nouvelles batteries n'a pas permis d'obtenir la capacité énergétique spécifique suffisante pour envisager une généralisation du procédé.
Rappelons ici que la capacité énergétique d'une batterie et la puissance maximale qu'elle peut fournir sont des paramètres contradictoires. On ne peut avoir l'un et l'autre, il faut choisir l'un ou l'autre, c'est-à-dire chercher le bon compromis.
Aujourd'hui le compromis s'est établi à 100 Wh/kg pour la capacité des éléments Lithium-ion utilisés dans l'automobile, ce qui donne pour une batterie de 30 KWh un poids de 300 kg, et une puissance max d'environ 60 KW , soit 150 Ampères sous 400 Volts.
(Les moteurs thermiques nous ont familiarisés avec des puissances beaucoup plus flatteuses, supérieures à 100 KW, qui sont hélas inaccessibles avec des batteries de 30 KWh).
Le lecteur familier de la règle de trois aura mis le doigt sur le problème:
Une batterie de 30 KWh qui fournit 60 KW de puissance, sera vidée en une demi-heure!
C'est là le triste sort de la voiture électrique à batterie.
On peut aller vite, mais pas bien loin.
En roulant "pépère" une voiture moyenne a besoin d'une énergie de 15 KWh aux roues motrices pour parcourir 100 km.
Avec 30 KWh, et en gardant le pied léger, très léger, sur l'accélérateur, on peut donc espérer faire 200 km, à condition de pouvoir récupérer une partie de l'énergie du freinage.
De toutes façon l'engin ne sera jamais capable de faire bonne figure devant une voiture moderne à moteur thermique, le fameux test de 0 à 100 km/h est sans appel, même s'il est stupide en soi, c'est la publicité qui l'impose.
Pour permettre aux voitures électriques de ne pas être ridicules vis-à-vis des thermiques qui affichent des puissances deux ou trois fois supérieures, les constructeurs se sont crus obligés de les équiper de moteurs surpuissants tout à fait disproportionnés par rapport aux capacités de la batterie.
Alors on obtient certes des tests de 0 à 100 km/h flatteurs, mais l'autonomie en est drastiquement réduite, au grand dam de certains clients qui se retrouvent en "panne sèche" au bout de 80 km, alors qu'ils espéraient en faire 200, comme c'est écrit dans la notice!
(Ici on peut s'indigner de constater que les constructeurs profitent de l'incapacité des consommateurs non avertis à faire la différence entre un KiloWatt et un KiloWattheure, pour leur faire prendre des vessies pour des lanternes).
En face des 100 Wh/kg d'une batterie "standard" actuelle, le carburant pétrolier affiche 12 000 Wh/kg, ce qui, même en tenant compte du mauvais rendement thermique (25%), donne un avantage de x 40 au carburant liquide.
Bien sûr, moyennant un surcoût substantiel, on peut augmenter la capacité des batteries en les associant à un supercondensateur, ce qui permet d'optimiser la batterie pour améliorer sa capacité spécifique énergétique, les pointes de puissance étant alors prises en charge par le supercondensateur. On peut ainsi quasiment doubler la capacité à poids égal, et passer à 200 Wh/kg, mais au prix d'un supplément de coût significatif.
(Une batterie ne peut pas être optimisée à la fois pour avoir la plus grande capacité, et pour avoir le courant le plus fort, elle est le résultat d'un compromis entre ces deux qualités).
Quelques modèles récents de voitures sont ainsi équipés avec une batterie de 60 KWh associée à un supercondensateur, mais avec un surcoût qui a pour résultat de tirer vers le haut le prix des voitures électriques.
Le ratio de capacité au kg par rapport au carburant liquide est alors ramené à 20, en tenant compte du rendement des moteurs thermiques (25%).
__________________

Un poids de supercarburant de 50 kg (70 Litres) confère une autonomie de 1000 km à une voiture moyenne à moteur thermique, selon les standards actuels.
70 Litres contiennent une énergie de 700 KWh.
Avec un rendement moyen de 25%, l'énergie "utile" est donc de 175 KWh.
Pour avoir la même autonomie avec une voiture électrique à batterie, il faudrait donc que celle-ci délivre à la roue la même quantité d'énergie utile, soit 175 KWh. (A égalité de poids et de dimensions).
Le rendement de la propulsion électrique étant voisin de 80%, l'énergie totale à fournir sera de 218 KWh.
Une batterie au Lithium ne peut être complètement déchargée, 10% de la charge doivent être préservés sous peine de détérioration, ce qui nous conduit à une capacité nominale nécessaire de 240 KWh.
Dans l'hypothèse d'une batterie couplée à un supercondensateur (hypothèse la plus favorable) on peut envisager une capacité spécifique de 200 Wh/kg, ce qui nous donne un poids nécessaire de 1 200 kg pour la batterie.
Ce qui est évidemment absurde pour une voiture particulière, qui se trouverait complètement plombée par cette surcharge.
En effet, sur les voitures électriques particulières, le poids de batterie est généralement limité à 300 kg (le poids de quatre personnes adultes, ce qui est déjà un surpoids considérable), et donc une capacité de 240/4 = 60 KWh, toujours dans l'hypothèse haute d'une batterie couplée à un supercondensateur.
L'autonomie est alors réduite à 250 km, puisque la capacité de batterie est divisée par quatre.
Cette autonomie pourra atteindre 300 km dans les conditions favorables permettant la récupération d'énergie au freinage. Ces conditions existent en agglomération, mais pas sur autoroute, là où l'on en a justement besoin.
C'est ce qu'on peut constater sur les quelques modèles récents équipés de batteries de 60 KWh.
Il est donc impossible, avec la technologie de batteries d'aujourd'hui, d'atteindre une autonomie de 1000 km, ni même la moitié, et de loin.
(Certains dépliants publicitaires peuvent affirmer le contraire, mais les essais en conditions "normales" montrent que les lois de la Physique ne sont jamais violées).
D'autre part, il est vite apparu que l'augmentation des capacités de ces batteries conduirait à des problèmes de puissance des stations de recharge, susceptibles de perturber l'équilibre des réseaux de distribution. Enfin, la généralisation de la propulsion électrique entraînerait une consommation énergétique à hauteur de 250 TWh (Consommations augmentées des pertes de rendement), soit la production de 21 réacteurs EPR, ou encore 17 000 éoliennes offshore de 5 MW, avec les installations de compensation de l'intermittence (STEP) indispensables.
Pour toutes ces raisons cumulées, il semble que la solution tout électrique à batterie restera réservée à une "niche" de véhicules pouvant se satisfaire d'une autonomie réduite (Taxis, véhicules de livraisons à circuits courts, véhicules de transport collectif locaux, véhicules particuliers à usage limité, ou de services publics, véhicules en libre service, véhicules de loisirs, ou de luxe*).
Ce qui pourrait correspondre à une part de marché de 15 à 20%, soit 5 à 7 millions de véhicules en France.
* Nous classons la Tesla dans la catégorie véhicule de luxe, qui sont faits plus pour être exhibés que pour tailler la route.
" Chauffeur, ce soir vous sortirez la Tesla, nous allons au casino…"

_________________

Pour s'affranchir des problèmes liés à la batterie, tout en conservant les avantages décisifs de la traction électrique, les ingénieurs ont imaginé de fabriquer l'électricité dans le véhicule lui-même, à partir d'une pile à combustible, puisque les combustibles liquides ou gazeux ont une capacité énergétique spécifique beaucoup plus grande que celle d'une batterie.
On utilise alors soit de l'Hydrogène, soit un biocarburant comme l'Ethanol.
De tels véhicules roulent déjà sur nos routes.
L'autonomie ne dépend alors plus que de la contenance du réservoir d'éthanol, ou d'Hydrogène.
Malgré quelques pertes de rendement au niveau du vaporeformage de l'Hydrogène et au niveau de la pile, l'efficacité énergétique demeure très supérieure à celle de la motorisation thermique ( la valeur de 60% est généralement avancée).
Le coût de la pile à combustible ne sera pas plus élevé que le coût d'une batterie au Lithium de 60 KWh avec supercondensateur, ce qui en fait une solution compétitive, d'autant plus qu'elle permet de répondre au critère d'autonomie exigée.
___________________

Sur la base de ces considérations on peut tenter de se projeter à moyen terme (2040-2050) pour évaluer la répartition des différentes solutions dans deux ou trois décennies:
La solution à biocarburants liquides avec moteur thermique est de loin la plus simple à mettre en oeuvre puisque qu'elle n'exige aucun saut technologique coté motorisation, et que les biocarburants de première génération (1G) sont déjà disponibles et largement utilisés dans certaines régions du Globe, et en Europe.
La seconde génération (2G) atteint le stade industriel et pourrait être proposée rapidement aux automobilistes.
(La génération 3G est encore en phase de validation).
Compte tenu de cette facilité d'utilisation, mais en tenant compte des problèmes de croissance de la production des carburants 2G et de la concurrence des produits pétroliers toujours disponibles, on peut estimer à 50% la part du secteur des transports convertie aux biocarburants 2G à l'horizon 2040.
Même si on peut le regretter, le moteur thermique ne cédera donc pas facilement le terrain.
On peut également estimer que 20% resteront fidèles aux carburants fossiles, gazole et super ( S'ils existent encore à un prix abordable).
Le pétrole n'est pas prêt de dire son dernier mot.
Les 30% restant seront partagés entre la solution électrique à batterie, et la solution à pile à combustible.
(Cette dernière solution exige encore une longue phase de validation et d'optimisation des rendements et des coûts de fabrication, qui peut s'étendre sur deux décennies).
En gardant toujours présent à l'esprit l'objectif ultime de suppression des moteurs thermiques, mais sans pouvoir en fixer l'échéance.
Par la suite, au-delà de 2050, l'avenir du moteur thermique dépendra d'une part de l'efficacité technico-économique des solutions à pile à combustible, et d'autre part de la disponibilité et du prix des biocarburants de seconde et troisième générations issus de la Biomasse terrestre et aquatique.
____________________

Quelles que soit les prévisions tentées en 2016, l'évolution réelle du marché et sa physionomie en 2050, seront conditionnées par le maintien ou non de la suprématie des combustibles fossiles sur le secteur de l'énergie.
Aucune transition de grande ampleur ne pourra être entreprise tant que le coût du pétrole restera à son niveau actuel de braderie.
Le prix de vente HT du KWh de supercarburant pétrolier est de 5 centimes d'euro ( Extraction, raffinage, distribution, marge), soit 50 centimes HT le Litre environ.
Le reste est composé de taxes ( TICPE et TVA en France).
Compte tenu du rendement des moteurs thermique (# 25%) et de celui de la propulsion électrique à pile à combustible (# 65%), la parité de prix serait obtenue pour un prix de vente HT de 13 centimes d'euro pour le KWh de biocombustible utilisé.
Soit 90 centimes par litre pour de l'Ethanol (prix HT).
(Un litre d'Ethanol contient 7 KWh d'énergie, contre 10 KWh pour du super).
Aujourd'hui le Bioéthanol de première génération est distribué à la pompe à un prix HT encore supérieur à la limite de parité avec le supercarburant. Cette différence est compensée par une réduction des taxes sur les émissions de CO2.
Mais cette première génération est condamnée puisqu'elle utilise des produits de cultures vivrières.
La génération G2, utilisant les résidus lignocellulosiques et des produits de cultures dédiées, est prête pour l'industrialisation, mais l'énergie est produite à un coût très supérieur à la limite de parité.
Cette production devra donc être abondamment subventionnée, sans certitude d'atteindre la parité dans un délai raisonnable.
Il en est bien sûr de même pour la troisième génération, qui en est aujourd'hui au stade des démonstrateurs industriels.
__________________

On constate donc que le pétrole reste toujours le maître du jeu.
Seule une lourde taxe carbone pourrait faire bouger les lignes, mais au prix d'une augmentation très significative du coût de l'énergie pour le consommateur, qui n'est évidemment pas prêt à l'accepter.
Le prix de la transition sera décidément difficile à avaler…
___________________

La véritable volonté des Etats de lutter contre le réchauffement se mesurera aux moyens qu'ils mettront en œuvre pour "plomber" financièrement les combustibles fossiles afin de permettre le déploiement des solutions à énergie renouvelable.
Cette manœuvre nécessitera un grand discernement car il faudra éviter, en "plombant" le pétrole, de plomber aussi l'économie…
Il suffit de constater les difficultés rencontrées en France pour harmoniser les taxes sur les carburants, pour comprendre qu'une action sur le levier des taxes n'est jamais exempte d'effets secondaires non souhaitables.
__________________

Aujourd'hui, avec # 100 % de moteurs thermiques, la consommation est de 700 TWh, pour 70 Milliards de litres.
Dans un futur à moyen terme, et selon les hypothèses proposées plus haut, la répartition en 2040 pourrait être la suivante:
20% Moteurs thermiques, carburants pétroliers inchangés.
50% Moteurs thermiques, Biocarburants( Ethanol, Biodiesel, Bio GV).
15% Moteurs électriques à Batterie.
15% Moteurs électriques à pile à combustible.

Les Biocarburants devraient alors fournir environ 400 TWh, soit l'équivalent de 50 Milliards de litres si l'on tient compte du PCI de l'Ethanol, inférieur à celui du super.
Tous ces chiffres sont évidemment des ordres de grandeur reposant sur des hypothèses de travail, aussi réalistes que possible, mais qui demeurent des hypothèses.
___________________

Les Biocarburants ne seront pas obtenus en creusant quelques puits dans le sol. Il faudra les fabriquer.
Pour savoir d'où sortiront ces milliards de litres, Il est essentiel de dresser un bilan des ressources éligibles de Biomasse, afin de prévoir le degré d'autosuffisance qu'elles pourront garantir au Pays, et mettre sur pied, si nécessaire, des accords de coopération avec les pays susceptibles de compléter nos approvisionnements.
Sans oublier que les transports ne sont pas les seuls consommateurs d'énergie, et que les ressources de la biomasse devront être partagées avec les secteurs de l'Industrie, du résidentiel-tertiaire et de la Chimie.
___________________

L'ADEME et L'INRA se sont évidemment intéressés à la chose, car il est essentiel d'identifier nos possibilités d'indépendance énergétique, celle-ci étant l'un des objectifs du remplacement des énergies fossiles.
Les chiffres ci-dessous sont tirés du rapport de L'INRA:
"Semer aujourd'hui les carburants de demain"
Il faut d'abord oublier les biocarburants de première génération, non conformes à l'esprit de la transition énergétique, qui impose de ne pas porter préjudice aux capacités de production de produits alimentaires, que ce soit sur le territoire national ou ailleurs.
Le seul intérêt des biocarburants 1G est de permettre le rodage d'une filière, d'en voir les avantages et les inconvénients, et de développer les matériels adaptés, que ce soit pour la production ou pour l'utilisation.
_____________________

Les Biocarburants 2G , qui nous intéressent ici, utilisent la matière ligno-cellulosique, considérée comme non concurrentielle vis-à-vis des productions agricoles vivrières, comme les céréales, la betterave, le maïs, les oléagineux consommables.
La 2G utilise en gros les résidus agricoles et les cultures dédiées pratiquées sur des sols infertiles ou délaissés.
Ceci doit être nuancé puisqu'une partie des rémanents agricoles sont utilisés pour le bétail, et une autre partie reste sur le terrain pour contribuer à l'amendement des sols; que serait l'agriculture Bio sans un bon fumier ? On pourrait aussi évoquer une troisième partie utilisée à des fins non agricoles, par exemple dans des matériaux de construction ou d'isolation.
Donc, l'évaluation de la quantité de matière lignocellulosique pouvant être consacrée aux biocarburants doit tenir compte de ces autres utilisations qui ne doivent pas en souffrir.
On ne peut déshabiller Pierre pour habiller Paul.
Cette évaluation doit également tenir compte de la facilité d'accès à la ressource (Récupération, conditionnement, transport, séchage), qui impacte le prix évidemment, lequel ne doit pas plomber de prix de revient du carburant.
Il faudra également évaluer le coût énergétique de ces différentes opérations. Il n'y aurait aucun sens à dépenser un litre de gazole pour produire un litre de Biodiesel !
Ces considérations valent également pour les résidus de sylviculture, qui doivent être évalués en tenant compte des autres usages du bois (Bois énergie, pellets, bois de trituration, de construction, d'ameublement, etc..).
Tenant compte de toutes ces contraintes, le rapport en question évalue la masse de matière sèche lignocellulosique accessible à environ 15 Millions de tonnes par an, en comptant les résidus de l'agriculture et de la sylviculture.
Cette masse pourrait être doublée en ajoutant les cultures dédiées sur les sols non utilisés par l'agriculture "vivrière".
Soit un total de 30 Millions de tonnes MS (Matière Sèche).
Cette évaluation devra être affinée évidemment, mais elle constitue un bon ordre de grandeur.
Toutes les matières sèches lignocellulosiques présentent une composition à peu près semblable quelque soit le produit: C6-H9-O4
Et une valeur énergétique sensiblement constante.
Leur transformation en Biocarburant s'obtient avec un rendement d'environ 20%, soit 200 kg par tonne MS.
30 Mt/MS permettent donc d'obtenir environ 8 Milliards de litres de Biocarburant de densité 0,7.
Dans notre hypothèse ci-dessus, pour alimenter 50% du parc roulant en biocarburants, il nous faudrait 50 Milliards de litres.
La production intérieure de 8 Milliards de litres, telle qu'elle est évaluée ci-dessus, ne représente que 16% des besoins du seul transport, Il faudrait donc importer le reste, soit 84%.
Les autres secteurs, comme le Résidentiel/Tertiaire et l'Industrie, devront également se convertir aux biocarburants, lequel devra être importé en totalité.
Cette évaluation, grossière mais réaliste, donne la mesure du problème à résoudre pour remplacer les produits pétroliers.
La seule exploitation de la matière lignocellulosique disponible sur le territoire national ne suffira pas, et de loin, puisqu'elle ne permettra de couvrir que 4 à 5% des besoins intérieurs.
L'apport des Biocarburants de troisième génération, obtenus à partir de cultures d'algues, atténuera la pénurie mais ne permettra pas combler le déficit, et de loin.
Ces Biocarburants de troisième génération sont en cours de développement depuis plusieurs décennies. Différents programmes soutenus par les Gouvernements et l'Union Européenne ont permis de valider plusieurs voies de fabrication. Quelques unités industrielles sont en cours de validation.
__________________

Le remplacement pur et simple du pétrole par des biocarburants dans des moteurs thermiques, s'il permet de verdir le CO2 émis, n'améliore pas le rendement énergétique.
Le rendement des moteurs demeure minable, voisin de 25%, et la quantité de carburant nécessaire est augmentée de 20% dans le cas de l'Ethanol dont un litre ne contient que 7 KWh contre 10 KWh pour du Super.
Quant au Biodiesel, il présente les mêmes inconvénients que le pétrole, les émissions de Nox sont difficiles à maîtriser.
Ces considérations justifient de s'intéresser à la solution pile à combustible avec moteur électrique.
Le rendement global peut y atteindre 60%, ce qui permet de réduire considérablement la quantité de carburant nécessaire, dans un rapport 2,3,
Ce qui représente une économie de 200 TWh !
___________________

La transition énergétique devra atteindre deux objectifs:
- Supprimer les émissions de CO2 fossile.
- Réduire drastiquement la dépense énergétique.
Dans les transports, il semble bien que le moteur électrique soit un passage obligé, associé à une batterie et/ou une pile à combustible.
Le moteur électrique apporte son excellent rendement et son absence d'émissions polluantes ou de GES.
La pile à combustible utilise un carburant propre de très haute capacité énergétique, garant d'une grande autonomie.
La solution à batterie seule restant dédiée aux applications se satisfaisant d'une autonomie réduite.
La généralisation de ces solutions permettrait à terme d'économiser 400 TWh, de supprimer les émissions de GES , et de s'affranchir des problèmes de pollution générés par les moteurs thermiques, même utilisant des biocarburants.
La solution à batterie seule a montré ses limites, à la fois technologiques, et surtout logistiques à cause des problèmes de recharge de batteries de très grandes capacité.
Reste la solution à pile à combustible, qui peut constituer une planche de salut pour l'après pétrole.
Mais le combustible en question, obligatoirement renouvelable, devra être majoritairement importé, ce qui ne va pas dans le sens de l'indépendance énergétique.
Mais peut-on faire autrement ?

Repost 0
26 juillet 2016 2 26 /07 /juillet /2016 09:47

Quelle vie après le pétrole ?

26 Juillet 2016
Dans les pays dits développés, et depuis quatre générations, la Société et l'Economie se sont structurées sur la base du machinisme, lequel a été rendu possible par la découverte de sources fossiles d'énergie disponible en quantités illimitées, et donc à bas coût.
Aujourd'hui le KWh de carburant prêt à l'emploi est vendu 5 centimes HT à la pompe. Le prix du Gaz naturel est du même ordre.
Un seul paquet de cigarette est vendu CINQ fois plus cher qu'un litre de super ( 7 euro TTC contre 1,4 euro TTC).
Un fumeur "moyen" ( Un paquet par jour) dépense TROIS fois plus d'argent pour ses cigarettes qu'un automobiliste moyen parcourant 12 000 km par an ne dépense pour son gazole !!
L'abondance de ces ressources naturelles fossiles à bas coût nous a conduits à ignorer délibérément pendant un siècle la démarche de recherche de l'efficacité énergétique.
L'exploitation de cette énergie repose, pour l'essentiel encore, sur des cycles thermodynamiques dont le rendement est bien souvent déplorable, rarement supérieur à 30%, et parfois 25% dans les transports.
(Même l'électricité nucléaire n'échappe pas au cycle thermodynamique puisqu'un réacteur à fission n'est qu'une chaudière un peu sophistiquée dont la vapeur actionne une turbine, en somme une machine à vapeur modernisée).
Quasiment les trois quart de cette énergie sont donc perdus sous forme de chaleur dissipée en pure perte.
La cogénération, qui permet de récupérer une partie de la chaleur perdue, n'est encore que faiblement utilisée.
___________________

Les énergéticiens savent évidemment depuis longtemps que ces ressources naturelles fossiles ne sont pas inépuisables. Leur existence résulte de l'enfouissement catastrophique d'énormes quantités de matières organiques ayant subi un processus de transformation au cours des millions d'années écoulées.
Une fois ce stock épuisé, la pénurie surviendra inéluctablement.
Oui mais, quelle est l'échéance ?
__________________

Ici l'honnêteté intellectuelle nous impose de signaler l'existence d'un courant d'opinion minoritaire qui soutient l'idée d'une possible origine abiotique d'une partie au moins des Hydrocarbures puisés dans le sol.
Abiotiques signifie que ces produits se sont formés non pas à partir de matières organiques, mais par des réactions chimiques entre composés minéraux présents dans la croute terrestre, donc potentiellement inépuisables.
Des géologues ont effectivement constaté que des Hydrocarbures abiotiques (Donc non fossiles) peuvent se former spontanément dans le sous-sol à grande profondeur, sous les effets conjugués des très fortes pressions et des très hautes températures, en présence de certains composés minéraux présents dans le substrat. Ces produits remonteraient ensuite à travers les fissures de la croute terrestre.
Si ce processus de formation a bien été constaté et expliqué par les scientifiques, et reproduit partiellement en laboratoire, les recherches en cours n'ont pas encore confirmé l'existence de quantités significatives justifiant une exploitation industrielle.
(On trouvera un excellent article référencé sur la question sur le site de Médiapart).
Ce qui vient d'être dit vaut également pour les sources naturelles d'Hydrogène signalées ici et là, et dont l'étude pourrait révéler l'intérêt comme sources décarbonées.
Bien sûr cette "affaire" de pétrole abiotique fait l'objet de débats acharnés où il est question de "complot" au bénéfice des pétroliers, toujours la théorie du complot, objet de sarcasmes de la part de ceux "à qui on ne la fait pas".
La meilleure ruse du diable n'est-elle pas de faire croire qu'il n'existe pas ?
Si l'une ou l'autre de ces "Hypothèses" s'avérait exacte, il en résulterait évidemment un changement considérable affectant la notion de réserve énergétique.
Mais jusqu'à nouvel ordre, les réserves d'Hydrocarbures accessibles demeurent officiellement un résidu décomposé de Biomasse ancienne non renouvelable et donc appelé à s'épuiser. C'est vrai aussi pour le charbon.
L'échéance fatale dépendra de l'évolution du profil de consommation des
pays émergents, qui aspirent à améliorer leurs conditions de vie.
_______________

Le remplacement de ces sources fossiles est donc une nécessité inéluctable qui fait consensus, du moins dans les réunions internationales, la seule inconnue étant le calendrier de cette transition que, faute de mieux, on s'accorde à fixer à un ou deux siècles, ce qui nous laisse un temps "raisonnable" d'adaptation (On n'a pas parlé de Calendes Grecques, mais certains y ont pensé très fort).
____________________

Sur ce problème d'épuisement des ressources fossiles, somme toute peu urgent, est venu se greffer un problème beaucoup plus pressant, celui du changement climatique dû (attribué) aux émissions anthropiques de GES, liées à la combustion des énergies fossiles.
Il ne s'agit alors plus de gérer "en bon père de famille" la baisse des réserves fossiles, mais bien de freiner de tout urgence la montée des taux atmosphériques de GES et de CO2 en particulier.
(Le Méthane est lui aussi fortement concerné, mais nos automobiles n'en rejettent pas, c'est donc beaucoup moins médiatique).
Les éventuels hydrocarbures abiotiques seront eux aussi condamnés puisqu'ils émettent en brûlant autant de CO2 non renouvelable que les autres.
Ce n'est plus une question de siècle, mais de décennie pour amorcer une transition énergétique vertueuse susceptible de limiter une éventuelle catastrophe climatique.
Il va donc nous falloir fermer prématurément les robinets du pétrole et du gaz naturel (Abiotiques ou pas) et cesser de brûler du charbon, et ceci dans des délais beaucoup plus courts que prévus initialement.
C'est du moins le consensus proclamé "urbi et orbi" par les Etats périodiquement réunis en Assemblée constituante de notre futur énergétique.
Cette courageuse décision étant proclamée, il reste à rechercher la ou les solutions de rechange, et à les mettre en œuvre.
L'énormité d'un tel projet n'a évidemment pas échappé à ceux qui ont pris cet engagement.
Jusqu'à présent il "suffisait" de faire des trous dans le sol pour se procurer cette énergie dont nous avons fait le sang de nos sociétés. Demain il faudra un peu plus d'imagination et d'efforts, de sacrifices aussi, pour "fabriquer" ces Kilowattheures désormais indispensables.
Le sevrage ne se fera pas sans douleur. Le bébé n'accepte pas sans protester l'abandon du lait maternel pour des nourritures qu'il devra fabriquer lui-même.
____________________

Certains ont cru trouver le salut dans l'énergie nucléaire.
Energétiquement parlant, elle a fait ses preuves. Mais hélas à un prix que l'Humanité n'est peut-être pas disposée à continuer de payer.
Quelques voix protestataires commencent à se faire entendre au sein de la génération montante, dont la descendance devra gérer les déchets radioactifs dont nous leurs faisons "cadeau".
Tchernobyl et Fukushima ont démontré la réalité des risques encourus, la leçon finira bien par être retenue.
La génération des réacteurs à fission devrait logiquement s'éteindre avec ce siècle, mais il faudra probablement un autre Fukushima pour emporter la décision d'arrêt.
D'autres procédés nucléaires sont mis en avant, soi-disant moins dangereux, et plus efficaces, comme la fusion. La preuve de leur innocuité n'a pas encore été fournie.
Le Nucléaire "propre" reste donc, jusqu'à nouvel ordre, une vision utopiste, qui ne devrait en aucun cas constituer une base pour la transition énergétique vertueuse à laquelle nous sommes contraints.
Cette technologie est cependant toujours soutenue par une fraction puissante des énergéticiens, qui lui prédisent un avenir brillant, eu égard à ses capacités d'assurer une production de base non intermittente, et sans émission de GES.
Près de 450 réacteurs nucléaires sont en service dans le monde, et 70 sont en construction.
Le lobby nucléaire constitue, par sa puissance industrielle et politique, un sérieux obstacle au développement des énergies renouvelables, reléguées au rang d'énergies d'appoint incapables d'assurer une production de base de manière continue.
___________________

Entre la résistance du pétrole, du Gaz naturel, et du Charbon, et la puissance du lobby nucléaire, les énergies renouvelables auront la tâche difficile de démontrer qu'il y a une autre voie énergétique et que c'est la seule capable d'écarter la menace d'un bouleversement climatique.
Il ne faut pas attendre des énergéticiens du pétrole, du Gaz naturel, du charbon et du nucléaire, qu'ils acceptent de se saborder à la seule vue d'une courbe d'augmentation prévisionnelle des températures, fut-elle bénie par le GIEC.
Jusqu'à nouvel ordre, c'est toujours la loi du marché qui s'applique.
Les énergies solaire, éolienne, et de biomasse, ne seront admises de plein droit que si elles apportent la preuve de leur rentabilité financière.
Or, jusqu'à aujourd'hui, personne ne sait produire un KWh à 5 centimes avec du Soleil, du Vent, ou de la biomasse.
Pour débloquer la situation les Etats tentent d'agir sur deux leviers:
- Imposer une lourde taxe sur les émissions de CO2 fossile.
(Qualifiée d'Arlésienne, tant on en parle sans jamais la voir).
- Détaxer les énergies nouvelles (Electricité verte, Biogaz, Biocarburants).
Ces deux leviers doivent être actionnés avec la plus grande circonspection sous peine de provoquer des dégâts collatéraux dans tout le système économique mondial.
(Inutile de rappeler que la transition énergétique ne peut être que planétaire).
____________________

Nonobstant les remarques et réserves ci-dessus, il faut y croire et forger les outils qui permettront de démontrer la rentabilité des énergies renouvelables, au besoin en soutenant financièrement la phase d'industrialisation à grands coups de subventions, de tarifs de rachat préférentiels, de détaxations diverses, d'incitations fiscales, et de projets internationaux de nature à fédérer les enthousiasmes des entrepreneurs.
_____________________

C'est dans cet esprit de conquête que le déploiement des énergies renouvelables est mis en œuvre.
Il faut faire feu de tout bois:
Le rayonnement solaire direct, la Biomasse terrestre et aquatique, l'énergie cinétique atmosphérique macroscopique ( Le vent…), le cycle de l'eau (Fleuves, marées, chutes d'eau, courants marins,…), la chaleur solaire emmagasinée dans le sol (Géothermie de surface), l'énergie cinétique atmosphérique microscopique (Pompes à chaleur), etc…
A cette énergie solaire, on peut ajouter l'énergie interne du Globe qui nous parvient sous forme de volcanisme de surface, et de géothermie profonde.
Ces manifestations énergétiques multiples peuvent subvenir amplement aux besoins de l'Humanité.
Encore faut-il aller les chercher.
Les technologies nécessaires existent déjà et ont été mises en œuvre, certaines à grande échelle.
Le problème est maintenant de les développer à l'échelle industrielle, ce qui implique de se placer en concurrence avec les vieux produits bon marché.
Et c'est là l'obstacle principal.

_____________________

S'agissant de technologies nouvelles, leur mise en œuvre sur sites industriels est nécessairement très onéreuse, conformément à tous les cycles industriels, qui doivent passer par une "courbe d'apprentissage" pour monter en puissance et atteindre la maturité et donc la rentabilité.
Pendant la période d'apprentissage, le produit (Ici de l'énergie électrique verte ou des biocarburants) se heurte à la concurrence de produits énergétiquement équivalents, qui ont depuis longtemps atteint leur rentabilité (Pétrole, Gaz naturel, charbon, électricité nucléaire) et sont donc proposés à bas prix.
(Nous avons déjà cité le KWh de super à 5 centimes HT!)
Le seul avantage des nouveaux produits est leur caractère renouvelable et décarboné ou à carbone recyclable.
Si cet avantage n'est pas considéré d'emblée comme décisif par le marché, le nouveau produit n'a aucune chance de s'imposer.
Rappelons que le "marché" est sans moralité et sans vertu; la régulation y est apportée par les Etats. La fameuse "main invisible du marché", chère à certain gourou, nous a déjà montré ce dont elle est capable.
Le problème de la transition énergétique ne sera donc pas technologique, mais économique, voire même politique.
_________________

Tant que le trio Pétrole-Gaz-Charbon sera disponible (Tant que les réserves ne seront pas effectivement déclinantes), les autres sources d'énergies ne pourront s'imposer que grâce au soutien d'une politique commerciale à base de taxation sélective.
Une telle taxation (Taxe Carbone) permet effectivement de compenser des différences de prix de revient, et/ou de favoriser telle solution pour des raisons comme leur intérêt écologique, mais à condition de faire l'objet d'un consensus mondial et d'un encadrement effectif, sous peine de créer un gisement d'escroqueries, on en a vu un exemple récemment à propos des quotas de CO2.
Par ailleurs une taxation se traduit par un accroissement des coûts, qui ne doit pas résulter en une mesure discriminatoire à l'encontre des classes défavorisées et/ou des pays émergents.
______________________

Devant ces problèmes d'ajustements de marchés par "forçage" du principe de concurrence "pure et parfaite", les Etats hésitent à prendre le risque de déstabiliser des pans entiers du secteur de l'énergie.
Il peut alors en résulter une situation de la poule et de l'œuf, dans laquelle les investisseurs rechignent à lancer une production dont il savent qu'elle ne sera pas concurrentielle par rapport aux anciens produits qui sont toujours disponibles à bas prix.
Quant à la production subventionnée, elle n'est qu'un encouragement à profiter d'un effet d'aubaine, et constitue de toutes manières une distorsion de concurrence qui se saurait être longtemps tolérée par les partenaires commerciaux.
Sauf à changer de modèle économique, ce qui n'est pas dans l'air du temps, il faut nous attendre à une guerre de tranchées qui se livrera pour tenter de réduire à merci le trio PGC ( Pétrole-Gaz-Charbon) , qui ne cesse de recevoir des renforts comme les Gaz de schiste, et qui bénéficie de l'appui du Nucléaire qui n'a pas du tout l'intention de rendre les armes.
Allons-nous vers une nouvelle guerre de cent ans ?
_____________________

Heureusement le clan des optimistes voient, plutôt qu'une guerre, une occasion qui nous est offerte de relever un nouveau défi pour résoudre un fois pour toutes ce problème d'énergie sans nécessairement recourir à des solutions incontrôlables comme le Nucléaire.
Après tout, nos combustibles ne sont que des arrangements de quelques briques élémentaires. Le diagramme ci-dessous montre qu'un chimiste un peu dégourdi peut obtenir aisément des combustibles de bonne facture avec du vent ou du soleil.

Quelle vie après le pétrole ?

En ajoutant quelques cornues on peut fabriquer des carburants liquides à base de Biomasse comme l'ETBE qui remplace le super et l'EMHV qui se substitue au Diesel avec de meilleures performances.
La réaction de Méthanation consomme du CO2, qui peut être prélevé en sortie des cheminées d'usines.
________________

Avec du vent et du Soleil la technologie actuelle permet donc de "fabriquer" n'importe quel combustible liquide ou gazeux, sans faire appel aux sources énergétiques fossiles.
Le problème est uniquement économique:
Comment concurrencer des produits d'origine fossile offerts sur le marché à 5 centimes d'euro HT le KWh ?
Il n'y a plus d'autre obstacle que celui-là…
Nous n'avons donc plus le droit de nous cacher derrière des problèmes technologiques imaginaires, puisqu'ils sont déjà résolus.
Il nous appartient désormais de nous attaquer aux vrais problèmes, qui sont politiques et planétaires, et du ressort de l'ONU.
Tâchons de ne pas attendre la COP75 pour prendre enfin les bonnes décisions.

Repost 0