Overblog Suivre ce blog
Administration Créer mon blog
3 octobre 2016 1 03 /10 /octobre /2016 19:00

3 Octobre 2016
Le mouvement vers un accroissement de la capacité des batteries de VE se confirme, les 60 KWh sont annoncés pour 2017.
Le Salon de Paris confirmera cette tendance.
Cette valeur procurera à ces véhicules une autonomie d’environ 350 Km, encore deux fois plus faible que celle des modèles thermiques, mais déjà suffisante pour prétendre aux grands parcours, pour peu que les bornes de recharge rapide promises par Madame Royal soient au rendez-vous sur nos autoroutes.
Mais, quelles bornes de recharge ?
__________________

Une chose est d’avoir une batterie de forte capacité, une autre chose est de trouver une borne pour la charger.
La charge à domicile d’une batterie de 60 KWh est certes possible, puisqu’il « suffit » de 8 KW pendant 8 heures, ce qui est compatible avec un abonnement de 12 KVA, ou 15 KVA si l’on veut en même temps alimenter un chauffage électrique ou un cumulus.
Il est probable que ENEDIS imposera le passage au triphasé, et exigera bien entendu d’installer une station de charge homologuée. Au client de vérifier que cette station convient bien à son véhicule.
La charge à domicile, au tarif bleu actuel, revient à 3 euros pour 100 Km, soit quatre fois moins cher qu’avec du super.
( Nous ne parlons plus du gazole, devenu politiquement incorrect depuis Samedi dernier, date de la supplique de Mme Royal qui nous a enjoint de nous mettre désormais au courant).
_______________

Un investissement dans une auto équipée d’une batterie de 60 KWh, qui permet une autonomie de 350 Km, n’est justifié que si des déplacements de plusieurs centaines de Km sont envisagés, y compris sur autoroute.
Il faut donc être assuré de pouvoir trouver des bornes de recharge publiques sur les routes et les autoroutes, loin du domicile, et que ces bornes conviennent pour la recharge rapide des batteries 60 KWh.
Où en sommes-nous aujourd’hui ?
________________

Pour faire simple, disons que les bornes de recharge « dite » rapide, sur routes ou autoroutes sont encore une rareté; quand à celles qui peuvent charger en 30 minutes une batterie de 60 KWh, il faut oublier, ou éventuellement avoir souscrit un abonnement pour le réseau privé des établissements TESLA & Co, les seuls à installer ce genre de bornes.
(En principe, il faut aussi avoir acquis une de leurs autos, ce qui renchérit quelque peu le prix du KWh).
La charge rapide d’une batterie de 60 KWh sur des bornes publiques de nos autoroutes demeure donc encore un sujet d’anticipation.
________________

Mais au fait, qu’est-ce qu’une borne de charge rapide ?
La profession indique qu’une telle borne doit être capable de recharger en moins de trente minutes à 80% une batterie dont la charge était tombée à 10%.
Pourquoi 10% et 80% ?
Il est recommandé de ne pas décharger une batterie au Lithium en dessous de 10% de sa capacité nominale. En-dessous de cette valeur, il est nécessaire de procéder à la recharge en respectant une procédure particulière, relativement longue, incompatible avec la notion de charge rapide.
Une batterie qui se présente à une borne de charge rapide ne doit donc pas être déchargée en dessous de 10%, sinon elle est refusée par la borne.
(Heureusement l’électronique de bord du véhicule veille au grain)
Par ailleurs, la charge à fort courant ne doit pas être appliquée au-delà de 80% de la capacité, sous peine de risquer de graves désordres, notamment à cause de la température. Une explosion est même parfois à craindre.
Les 20% restant doivent alors être réalisés en charge lente, hors du timing de la charge rapide.
Lors d’une charge rapide, la borne délivre donc 70% de la capacité nominale.
A l’intérieur de ce cadre, la puissance délivrée par la borne de charge rapide doit être évidemment proportionnelle à la capacité de la batterie:
Borne de 30 KW pour une batterie de 20 KWh nominal.
Borne de 43 KW pour une batterie de 30 KWh nominal.
Borne de 85 KW pour une batterie de 60 KWh nominal.
Borne de 130 KW pour une batterie de 120 KWh nominal.
En rappelant qu’à la fin d’une telle charge rapide, la batterie n’a reçu que 80% de sa charge maximale.
L’autonomie théorique sera donc réduite en proportion.
___________________

Or aujourd’hui, les bornes installées ou en cours d’installation, dans le cadre du projet subventionné « Corri-door » (200 bornes sur le réseau autoroutier français), ne peuvent délivrer que 50 KW, voire même 43 KW seulement pour certaines.
Ces bornes ne pourront donc délivrer des charges « rapides » qu’aux batteries dont la capacité est inférieure à 30 KWh.
La capacité « standard » évoluant vers 60 KWh, voire plus, les bornes du réseau corri-door seront donc incapables des les charger en 30 minutes, il faudra au minimum une heure.
Les promoteurs du système communiquent largement sur les performances de ces bornes en revendiquant une possibilité de charge en trente minutes, mais en omettant soigneusement de préciser que c’est avec des batteries de 20 à 30 KWh!
Il faudra compter une heure avec les batteries de 60 KWh.
Oups !
Donc d’un côté des constructeurs qui s’évertuent à doter les VE d’une batterie de 60 KWh et plus, afin d’augmenter l’autonomie sur autoroute, et de l’autre des prestataires de rechargement qui continuent de raisonner sur les « anciennes » batteries de 20 à 30 KWh, qui n’ont rien à faire sur les autoroutes.
Quel usager accepterait de perdre deux bonnes heures* sur un trajet de 700 Km, là où dix minutes suffisent avec une voiture « thermique » ?
*Sans compter les inévitables heures de queue les jours d’affluence.
Cherchez l’erreur…
_________________

Cette situation n’a évidemment pas échappé aux intéressés, parmi lesquels EDF figure en bonne place ( SODETREL est une filiale de EDF).
On comprend que les investisseurs ne se précipitent pour installer un réseau voué d’avance à l’échec.
Le réseau Corri-door sera tout au plus un démonstrateur, comme on les aime beaucoup en France, qui aura coûté très cher mais ne permettra pas aux VE d’utiliser efficacement leurs batteries de 60 KWh.
(Vous parlez d’une démonstration !!).
On peut alors se demander pourquoi aller dépenser des dizaines de millions pour équiper les autoroutes d’un réseau de rechargement dont on sait déjà qu’il ne conviendra pas ?
Pour ceux qui auraient encore des doutes, il suffit de considérer la stratégie de la firme TESLA , qui a très vite compris que ses voitures, équipées de grosses batteries, seraient inutilisables sans bornes de charge à la hauteur, et qui a entrepris de créer son propre réseau de bornes de 130 KW (Pour commencer).
(Ou AUDI , qui a un projet un peu semblable).
____________________

Les bornes de 50 KW ne conviennent donc pas au service de l’autoroute avec les batteries de 60 KWh qui, vont devenir la norme pour les « grandes routières ».
Mais les bornes de 150 KW, qui pourraient offrir un meilleur service, posent un autre genre de problème, comme nous allons le voir ci-après.
(Problème qui n’a bien sûr pas échappé à EDF).
Le « parc » de VE représente aujourd’hui 0,16% du parc de véhicules particuliers en France (Nous parlons des VE tout électriques, hors HEV et PHEV hybrides).
Eh oui, on voit encore davantage de VE dans les pages des magazines, dans les salons et à la Télé, que sur nos routes.
Tant que le parc de VE restera à ce niveau de confidentialité, il n’y aura évidemment aucun problème de bornes de recharge.
On peut même leur fournir l’électricité gratuitement, cela ne mettra pas EDF en faillite, et cela séduira peut-être quelques clients qui croient encore au père Noël.
Ce marché piétine malgré les primes substantielles, pour des raisons évidentes de manque d’autonomie.
Le problème de la recharge des batteries, quelle que soit leur capacité, ne concerne encore qu’une infime minorité d’usagers, et laisse 99,84% des automobilistes français parfaitement indifférents.
____________________

Mais il n’est pas interdit de penser à l’avenir.
Dans l’état actuel de la vision à moyen terme des évolutions technologiques et économiques, la voiture a encore de beaux jours devant elle. Le parc actuel de 35 millions de véhicules particuliers en France n’est pas prêt de fondre comme neige au Soleil. Sauf catastrophe mondiale il continuera d’augmenter de quelques pourcents par an.
Conservons l’hypothèse basse de 35 millions.
Dans l’hypothèse de l’électrification de 30% de ce parc (Hypothèse réaliste à l’horizon 2030, généralement retenue par les prévisionnistes), il y aurait 10 millions de véhicules candidats au rechargement plus ou moins fréquemment.
Nous complétons notre hypothèse en supposant qu’il existera à cette époque un réseau de bornes de rechargement d’une puissance de 120 KW.
(Si ce n’est pas le cas, on peut oublier le VE sur autoroute).
On ne peut écarter l’hypothèse que, certains jours de la semaine, ou veilles de départs en week-end ou en vacances, 5% d’entre eux tentent de se charger dans la même tranche horaire, soit 500 000 véhicules.
500 000 VE en charge rapide 120 KW simultanément soutireraient une puissance de 60 Gigawatts, soit la totalité de la puissance du parc nucléaire installé aujourd’hui.
Ce qui est évidemment inconcevable.
_________________

Il ne suffira donc pas d’installer des milliers de bornes de charge rapide de 150 KW sur nos routes et autoroutes, il faudra également les adosser à des installations de stockage d’énergie dont le rôle sera de se substituer à EDF lorsque la puissance demandée au réseau dépassera ses possibilités.
(Par exemple les jours de départ en week-end ou en vacances).
Et nous retrouvons là le problème du stockage de l’électricité, qui donne déjà des boutons aux exploitants du Solaire et de l’Eolien dont l’intermittence doit être quelque peu domptée.
A cette intermittence de la production des renouvelables va donc venir s’ajouter l’intermittence de la consommation des voitures électriques, qui vont devenir de plus en plus exigeantes en puissance de charge.
La nécessité d’installations de stockage d’énergie électrique est de plus en plus incontournable.
___________________

L’ouverture des autoroutes aux VE, et leur accès aux grands parcours en général, impliquent donc non seulement le montage de batteries de forte capacité (Plus de 60 KWh) mais aussi des bornes de recharge capable de fournir une puissance d’au moins 150 KW pour permettre une recharge en 30 minutes.
Les seules bornes satisfaisant cette exigence sont aujourd’hui celles du réseau privé TESLA, lequel pourrait bien rafler la mise si les « autres » continuent à rêver…
A moins que EDF ne siffle la fin de la récréation, si la puissance nécessaire à la charge des batteries dépasse les capacités du réseau lorsque les VE seront en grand nombre.
Prenons garde que la voiture électrique ne se révèle à terme comme le meilleur justificatif au maintien du parc nucléaire.
Ne refaisons pas la même erreur que nous avons déjà faite avec le chauffage électrique il y a quarante ans…
___________________


Repost 0
27 septembre 2016 2 27 /09 /septembre /2016 18:17

27 Septembre 2016
Ce titre en forme de provocation voudrait souligner la mauvaise qualité de la communication, non pas du compteur, mais de son promoteur EDF.
__________

Pour faire accepter le remplacement des anciens compteurs par le LINKY, couvert d’opprobre avant même d’être installé, EDF a cru bon d’adopter une stratégie de marchand de lessive, jugeant sans doute que le niveau intellectuel du consommateur moyen ne lui permet pas de comprendre les motivations profondes de cette opération.
__________

La « promotion » du nouveau produit a donc été axée sur des promesses d’avantages immédiats, et en premier lieu évidemment une probable baisse des factures d’électricité.
___________

Linky est donc le père Noël que vous attendiez, votre facture va fondre comme neige au Soleil.
Par quel miracle ?
C’est simple, car Linky lave plus blanc.
« Avec lui la ménagère accède à un véritable tableau de bord et devient gestionnaire avisée de l’énergie du foyer. Plus de gaspillage, plus de chaleur perdue, les KWh ne s’envolent plus par les fenêtres, finies les factures angoissantes ».
Hélas, que de déconvenues attendent les « heureux » bénéficiaires de la boîte verte.
Car tout cela, sans être totalement faux, n’est vrai que sous certaines conditions.
Et surtout, l’intérêt du LINKY se trouve ailleurs, comme nous l’allons montrer.
______________

L’argumentaire principal des promoteurs du LINKY est que l’abonné aura désormais la possibilité de mieux connaître son profil de consommation et donc de mieux répartir celle-ci sur les tranches horaires afin de réduire significativement la puissance maximale appelée, et de pouvoir ainsi souscrire un abonnement inférieur, moins onéreux.
Ce n’est pas faux, mais encore faut-il préciser que pour arriver à ce résultat il faudra préalablement installer un gestionnaire d’énergie qui prendra en charge la programmation des différents appareils gros consommateurs, car le Linky ne sait pas faire cela tout seul.
Et de plus, le dépliant publicitaire oublie de dire que l’on peut déjà faire la même chose avec n’importe quel compteur, y compris les vieux trucs électromécaniques, ceux avec la roue qui tourne. Cela s’appelle la Domotique, et cela existe depuis vingt ans. Parmi les abonnés, ceux qui sont sensibles aux problèmes de l’énergie l’ont déjà adoptée depuis longtemps.
Il faut donc chercher ailleurs des arguments plus convaincants pour faire accepter ce nouveau compteur.
Et pourquoi ne pas dire simplement la vérité ?
____________________

En réalité, l’objectif premier du LINKY n’est pas de réduire aujourd’hui la facture du client, mais de faire en sorte qu’il puisse encore demain disposer d’une électricité de bonne qualité et en quantité suffisante pour ses besoins.
Et cela n’ira pas de soi, car il y a des vérités sous-jacentes qu’il ne faut plus cacher.
A force d’occuper le devant de la scène médiatique et de mobiliser les forces politiques dans des meetings internationaux triomphants et onéreux, sans résultat concret, la transition énergétique a fini par acquérir le statut de projet politique, sorte de programme électoral qu’il est de bon ton d’évoquer dans un programme de gouvernement, mais auquel plus personne ne croit vraiment.
Grosse erreur de jugement.
La transition énergétique n’est pas une alternative politique, elle est une obligation vitale, un passage obligé sous peine de revenir au moyen-âge énergétique.
Les énergéticiens en ont heureusement bien conscience et l’ont depuis longtemps intégrée dans leurs plans de développement.
Les hommes politiques passent, les ingénieurs restent…
___________________

Le retrait des énergies fossiles et du nucléaire sale, pour leur remplacement par des énergies propres et durables sera une opération extrêmement coûteuse, et qui peut mettre en péril l’équilibre énergétique du pays si l’opération n’est pas conduite dans le bon ordre.
Les énergies nouvelles produisant essentiellement de l’électricité, celle-ci verra inéluctablement sa participation augmenter dans le mix énergétique, avec une part croissante de sporadicité qu’il faudra absolument maîtriser.
L’intermittence du solaire et de l’éolien impose de développer de grandes capacités de stockage, y compris domestiques, ce qui nécessitera des investissements importants.
Affirmer le contraire relève de l’imposture politique et d’une tentative d’anesthésie de l’opinion.
Outre le colossal changement de portage industriel exigé pour la mise en œuvre de la transition, il est devenu indispensable de changer également le concept du modèle de production et de distribution de l’énergie électrique.
D’illimitée, l’énergie va devenir parcimonieuse.
De centralisée, la production va devenir décentralisée.
De chasse gardée de EDF, elle va dépendre d’une constellation de producteurs non inféodés.
De continue, elle va devenir en partie intermittente.
De libre d’emploi, elle devra être placée en liberté surveillée.

Le paradigme ancien imposait d’adapter la production à la demande, eu égard à la disponibilité illimitée des énergies fossiles.
Dans le nouveau paradigme, c’est la demande qui devra s’adapter à l’offre.
L’abonné verra son statut de consommateur remplacé par celui d’acteur et éventuellement de producteur décentralisé.
Affirmer que tous ces bouleversements pourront se réaliser sans y mettre le prix, et un prix très élevé, est un mensonge coupable qui cherche à entretenir l’illusion d’une énergie bon marché, mensonge qui ne peut que préparer des réveils difficiles.
Si toutes ces vérités ne sont pas admises comme incontournables, il est impossible de comprendre la finalité de certaines opérations comme la mise en place de compteurs communicants.
_____________________

Le réseau intelligent (« Smart Grid ») dont il est question ici et là n’est pas un gadget destiné à camoufler une quelconque « arnaque », ni une obscure manœuvre inquisitrice, dont le but caché serait la mise en place d’un outil d’espionnage au service d’un « Big Brother », scénario conforme à la meilleure tradition des théories du complot.
Il est simplement la seule méthode permettant de gérer le futur réseau de distribution de l’énergie de manière à assurer une transition sans black-out.
Car vous l’ignorez peut-être, mais notre principal problème aujourd’hui, c’est de conjurer le risque de black-out.
______________________

Le Black-out électrique, qu’est-ce encore que ce fantasme ?

Le pays n’est pas en guerre, nos centrales nucléaires tournent rond (trop pour certains), plusieurs centaines de barrages nous abreuvent d’électricité hydraulique, de nombreuse unités de production avec turbines à cycles combinés sont construites, le pétrole et le gaz coulent à flots, et l’énergie renouvelable se porte bien, du moins dans la presse spécialisée.
Comment peut-on parler de risque de black-out ?
Le problème est simple, si l’on se donne la peine de comprendre.
Aujourd’hui nous produisons beaucoup d’énergie électrique, mais nous l’utilisons mal.
_______________________

Nous consommons bon an mal an 500 TWh d’énergie primaire électrique.
500 000 000 000 000 Wattheures.
Cette énorme quantité, difficilement concevable, correspond d’une part à l’énergie électrique utilisée dans les secteurs résidentiel-tertiaire, les transports, l’industrie hors production d’énergie, l’agriculture, et d’autre part l’énergie électrique utilisée dans le secteur énergétique lui-même (Centrales, raffineries, distribution, transformation, pertes en lignes, etc.).
Ce qui représente une puissance moyenne de 57 Gigawatt (GW).
( 250 millions d’Ampères en 230 V par exemple).
_______________

Cette puissance soutirée n’est pas constante; au gré du consommateur, elle dépend du moment de la journée, de la saison, de la météo, et varie continuellement entre des valeurs dont les extrêmes dépendent des conditions extérieures et de l’activité économique du pays.
Elle évolue selon des rythmes horaires, journaliers, saisonniers, annuels, entre environ 30 GW et 90 GW , avec des pointes hivernales qui dépassent parfois les 100 Gigawatts.
Le record a été de 102 GW en 2012. Le black-out ne fut évité que de justesse.
____________________

Jusqu’à présent, et encore aujourd’hui, c’est la production qui doit s’adapter à cette demande variable sous peine de déclencher le fameux « Black-out », qui nous a été épargné jusqu’à présent, mais qui n’est pas passé bien loin à une ou deux reprises.
EDF doit donc faire face à une demande de puissance qui peut évoluer entre 30 et 90 Gigawatts.
__________________

Pour faire face à ces pics de demande de puissance, le pays doit disposer des moyens de production adéquats en réserve, en plus des moyens assurant la production de base.
Ainsi, selon le niveau de la puissance demandée à un moment donné, le gestionnaire peut faire intervenir différents échelons de moyens:
- les moyens de production de base, dont la production peut être continue aussi longtemps que le besoin existe. Il s’agit en l’occurrence du parc nucléaire opérationnel, et du parc de centrales thermiques sollicitées jusqu’à mobilisation totale.
Ces installations sont assurées de recevoir le combustible nécessaire grâce aux réserves opérationnelles stratégiques d’énergie imposées par les accords internationaux.
(Ces réserves physiques correspondent à trois mois de consommation).
Le parc français peut ainsi assurer en continu une puissance électrique d’environ 80 Gigawatts, dont 53 Gigawatts de nucléaire et 27 Gigawatt de thermique.
- Lorsque la puissance demandée dépasse cette valeur, il faut faire intervenir les moyens de production constitués des stocks de réserve des barrages hydrauliques et/ou des STEP, dont la participation est évidemment limitée en durée puisque ce stock est épuisable rapidement.
Cette phase est limitée dans la durée par la valeur du stock, elle intervient sur une base de quelques heures à hauteur d’un apport de puissance d’une dizaine de GW maximum.
- Le troisième échelon est constitué des énergies intermittentes dont la disponibilités en puissance n’est jamais assurée puisqu’elle dépend des conditions météo et de l’ensoleillement.
Lorsque ces énergies sont en partie adossées à des installations de stockage, celles-ci interviennent au même titre que l’énergie de stock des barrages ou des STEP, c’est-à-dire pour une faible durée.
(Aujourd’hui il n’existe encore pratiquement aucune ressource de stockage spécifique pour le parc renouvelable installé en solaire et éolien).
- Le quatrième échelon est constitué des importations d’énergie électrique. La puissance correspondante dépend des disponibilités du marché Européen, et des capacités d’échanges des connexions transfrontalières.
(Ces capacités d’échange sont de l’ordre de 8 GW).
- Si, malgré la mobilisation de tous ces moyens, la demande reste supérieure à l’offre, on fait intervenir le cinquième échelon, l’effacement programmé.
Un certains nombre de gros consommateurs adhèrent au programme d’effacement, moyennant des compensations tarifaires évidemment, et sont appelés avec préavis dans les situations critiques. On imagine sans peine le prix du MWh « effacé ».
- En dernier lieu il faut recourir au délestage partiel, qui est toujours le dernier recours évidemment.
Aujourd’hui le concours de tous ces moyens permet d’offrir au réseau une puissance maximale d’environ 100 Gigawatt qui peut être soutenue une heure ou deux, pas davantage.
____________________

Aujourd’hui, alors que la transition énergétique n’est pas encore vraiment commencée, nous sommes déjà dans une situation critique puisque ce seuil de 100 GW a été dépassé plusieurs fois depuis 2010.
Or la situation va s’aggraver dans un futur à moyen terme:
D’une part, la consommation d’électricité va augmenter pour diverses raisons:
- Accroissement de la population.
- Augmentation du nombre des ménages.
- Augmentation du niveau de confort, et donc du parc électrique des ménages.
- accroissement du nombre des matériels liés aux applications audiovisuelles, informatiques et de communication.
- Développement de la demande de climatisation et de pompes à chaleur.
- Déploiement de l’application charge de batteries des véhicules électriques.
- On peut également espérer une reprise de l’activité économique, qui ira de pair avec une augmentation de la demande d’énergie.
Les gains en efficacité énergétique, notamment sur le chauffage des bâtiments, ne suffira pas à compenser les hausses de consommation.

Dans le même temps, la mise en œuvre de la transition énergétique se traduira par une réduction des moyens de production à base d’énergies fossiles ou nucléaire, et leur « remplacement » par des moyens à base d’énergies renouvelables essentiellement intermittentes.
On imagine mal de compenser l’intermittence des renouvelables par de nouvelles centrales à combustibles fossiles !!!
Par ailleurs, arrêter deux centrales nucléaires revient à se priver d’une puissance de 2 GW .
Qui est volontaire pour s’inscrire au programme d’effacement-Délestage ?
La réponse à la demande de puissance de pointe deviendra donc de plus en plus aléatoire, jusqu’à une situation de blocage si rien n’est fait pour y porter remède.
__________________

Ce diagnostic est celui des meilleurs experts du secteur gestionnaire du réseaux électrique.
On peut apporter deux types de réponses à ce problème:
- Une réponse politique, de court terme, qui consiste à nier l’évidence et à considérer que les menaces de black-out sont des fariboles émanant de techniciens irresponsables toujours prompts à réclamer des crédits supplémentaires.
- Ou bien une réponse de stratèges responsables habitués à se colleter non pas avec des illusions électorales, mais avec les réalités du terrain.

Heureusement, c’est la deuxième solution qui a été retenue, et qui consiste à réorganiser le réseau de distribution électrique pour mieux en contrôler la gestion, avec en point de mire l’intégration des nouvelles énergies et des nouvelles applications tout en écartant le risque de black-out.
Reconnaissons aux responsables politiques le mérite de s’être ralliés à cette solution de bon sens.
___________________

Le schéma suivant présente l’organisation générique de ce que sera un futur réseau décentralisé.

Compteur LINKY, pas assez communicant ?

Ce réseau intègre les moyens de production centralisés et locaux, de consommation, et de stockage, y compris des particuliers qui sont appelés à y jouer un rôle important.
L’organe clé permettant de raccorder tous les utilisateurs au réseau intelligent est le compteur LINKY.
Les principales fonctions sont rappelées ci-dessous.

Compteur LINKY, pas assez communicant ?

Le rôle de ce nouveau compteur va bien au-delà du simple comptage de la consommation, avec coupure au-delà de la puissance souscrite.
Il est la première brique du réseau intelligent, dont l’existence est conditionnée par le succès du remplacement des anciens compteurs.
__________________

Ramener le rôle du LINKY à sa fonction d’enregistrement en continu de la consommation des abonnés et à la surveillance stricte de la puissance soutirée, est extraordinairement réducteur.
Certes, aujourd’hui le remplacement d’un compteur Bleu par un LINKY sans autre forme de procès peut déconcerter un abonné non averti.
L’intérêt de ce nouveau compteur apparaîtra au cours de la prochaine décennie, et d’ici 2020 auront lieu quelques expérimentations du concept « Smart Grid ». Le grand public ne sera vraiment concerné qu’à partir de 2020 dans le meilleur des cas, ne serait-ce qu’à cause du délai nécessaire à l’installation de 35 millions de compteurs.
En attendant il est toujours possible de suivre les expérimentations en cours, notamment le démonstrateur « GreenLys » que l’on trouvera ici:
http://greenlys.fr/discover-the-greenlys-projects-reference-sheets/
__________________

Repost 0
21 septembre 2016 3 21 /09 /septembre /2016 11:53

21 Septembre 2016
Avant l’arrivée du LINKY, les compteurs électromécaniques ou électroniques comme le CBE (Compteur Bleu Electronique) ne comportaient aucun interrupteur ou disjoncteur.
Cette fonction était à la charge d’un dispositif externe développé dans les temps anciens par l’honorable maison BACO ( Baumgartner & Compagnie) pour remplir plusieurs tâches:
- Disjonction oléo magnétique protégeant l’installation en cas de court circuit.
- Disjonction différentielle, coupant le courant en présence d’une différence supérieure à 500 mA entre Phase et neutre (DDR 500mA).
- Sectionnement à commande manuelle réarmable, avec témoin.
Ce dispositif, appelé familièrement « Baco », a persisté dans l’histoire, et est aujourd’hui encore exigé par la norme NF C 15 100.
Sa fonction essentielle est de participer à la protection des personnes et des biens.
________________

Le seuil de disjonction de courant du Baco était fixé par l’installateur, en rapport avec la puissance souscrite par l’abonné. Les valeurs de seuils étant ajustables par pas appelés « calibres », séparés de 15 KVA.
Par exemple 15, 30, 45 A ou 30, 45, 60 A, ou 60, 75, 90 A selon le type de DDR.
Le calibre choisi étant le plus proche du courant max correspondant à l’abonnement en KVA sous 230 V, plus 10%.
La coupure du courant intervient au terme d’un délai qui dépend de l’importance de la surcharge, le délai étant ici apporté par le déplacement d’un noyau plongeur dans de l’huile (Oleo).
Pour tenir compte de l’imprécision de l’électromécanique, une marge de sécurité d’au moins 20% est allouée, en dessous de laquelle le courant n’est pas coupé, malgré le dépassement du courant calibré.
Cela signifie que, pour un DDR sur le calibre 45 A, le courant devra être supérieur à 54 A pour provoquer un déclenchement, dans le meilleur des cas.
_______________________

Beaucoup de clients « profitent » de cette tolérance depuis des dizaines d’années, certains sans vraiment s’en rendre compte, d’autres en toute connaissance de cause.
Hélas, l’arrivée du compteur LINKY sonne la fin de la récréation.
__________________

Avec le nouveau compteur, EDF en a « profité » pour mettre fin à une situation qui, il faut bien le reconnaître, n’était pas à son avantage, surtout dans une période où l’on prône les économies d’énergie et où l’on est contraints de réduire les pointes de puissance appelée sur le réseau.
Aujourd’hui la puissance électrique disponible nous est comptée. Nous disposons de 60 à 70 Gigawatts, peut-être moins s’il nous faut demain arrêter quelques centrales nucléaires. Si la demande excède cette valeur, il faut recourir à des moyens de production polluants (Centrales à combustibles fossiles).
La puissance instantanée consommée par le réseau est donc devenue un paramètre critique, surtout avec l’arrivée des énergies nouvelles intermittentes, qui ajouteront une composante de sporadicité difficilement gérable si les abonnés n’y mettent pas un peu de bonne volonté.
Jusqu’à présent EDF ajustait l’offre à la demande; désormais il faudra faire l’inverse, au moins de temps en temps. L’heure n’est plus au gaspillage, mais à l’économie, voire même à l’avarice.
Et, pour faire des économies, il faut commencer par compter avec précision.
_______________

C’est le rôle du nouveau compteur LINKY, à qui rien n’échappe.
C’est lui désormais qui sera le gendarme chargé, entre autres fonctions, de veiller au respect des limitations de puissance.
Et il dispose pour cela de moyens à la hauteur de la technologie moderne.
D’une part le courant et la tension sont mesurés avec précision (Mieux que 0,1%), ainsi que leur déphasage, et les trois composantes de la puissance sont calculées avec la même précision ( Puissance active, réactive, apparente).
D’autre part, un interrupteur télécommandé embarqué, d’une capacité de coupure de 100 A, peut être actionné soit automatiquement par l’électronique de comptage embarquée, soit à distance par le gestionnaire de réseau, pour des raisons diverses.
(Notamment pour la gestion des risques de black-out et de la pointe mobile, par des délestages ciblés ).
La fonction « coupure pour dépassement de la puissance souscrite » est donc maintenant prise en charge par le LINKY, et la marge de 20% du baco disparaît.
(La précision de l’électronique permet de s’en passer, ou du moins de la réduire à quelques pourcents).
Le BACO doit cependant être conservé car il continue à assurer les fonctions de sectionnement et de disjonction différentielle 500 mA exigées par la norme NF C 15 100.
_____________________

Les données mesurées par le compteur sont stockées dans une mémoire locale, à disposition du gestionnaire qui établit la facture.
Historiquement c’est la puissance active qui est affichée et facturée.
(La puissance réactive n’est facturée qu’aux professionnels pour les abonnements supérieurs à 36 KVA).
Avec les anciens compteurs, le calibre du BACO était positionné sur une valeur de courant correspondant à l’Abonnement souscrit, augmenté de 10% pour tenir compte des variations de tension secteur.
(Le courant est en général proportionnel à la tension).
Par exemple, pour un abonnement de 12 KVA, le courant max permis est de 52A sous 230 V, soit 57 A avec la marge de 10%. Le BACO était alors positionné sur 60 A.
Grâce à la marge supplémentaire de 20% au-dessus du calibre, la disjonction ne se produisait que pour un courant supérieur à 72 A, ce qui correspond à un puissance de 16,5 KW sous 230 V, qui est la valeur la plus courante du secteur.
Donc, un abonnement de 12 KVA permettait en fait de soutirer plus de 16 KW avant disjonction, avec un secteur nominal à 230 V.
Avec le nouveaux compteur LINKY , cette marge supplémentaire de 20% disparaît.
En effet la précision des mesures de courant et de tension, et celle des calculs effectués après numérisation des signaux, permet de se passer de cette marge supplémentaire.
Les abonnés qui, Involontairement ou en toute connaissance de cause, « profitaient » de cette marge supplémentaire accordée par le BACO, vont se trouver non pas pénalisés, mais « régularisés ».
Il leur sera proposé soit un changement d’abonnement, soit une meilleure gestion de leur installation, par exemple en utilisant un délesteur sélectif.
______________________

Le LINKY permet d’ajuster l’abonnement par pas de 1 KVA, au lieu de 3 KVA avec l’ancien système, le coût de l’abonnement étant également au pas de 1 KVA, du moins on le suppose.
Les abonnés ayant « bénéficié » des largesses du BACO verront leur abonnement augmenter légèrement, sauf s’ils installent un délesteur.
Par contre les autres pourront éventuellement réduire leur abonnement s’il s’avère que la puissance de leur installation reste toujours significativement inférieure à la valeur précédemment souscrite.
(Le LINKY fournit à l’abonné le relevé des puissances au cours du temps).
Cette plus grande rigueur du gestionnaire de réseau aura au moins le mérite d’attirer concrètement l’attention du public sur le problème critique de la maîtrise de la puissance électrique soutirée.
A l’échelon national les pics de puissance soutirée sont de plus en plus critiques, et nous rapprochent de la menace de black-out.
La consommation d’énergie ( Les KWh ) est une chose, mais la puissance ( Les KW ) en est une autre aussi importante, puisque c’est elle qui décide du nombre et de la puissance des centrales à construire.
Une meilleure maîtrise de nos installations électriques passe par une répartition intelligente des périodes d’utilisation des appareils les plus gourmands. Ceci peut être réalisé à moindre coût et le compteur LINKY est là pour nous faciliter la tâche, voire à nous y inciter.
10% de réduction du pic hivernal de puissance représentent l’équivalent de la puissance de six centrales EPR.
Cela vaut au moins la peine de réfléchir à la démarche de gestion de l’énergie, à laquelle contribue le nouveau compteur, et de comprendre qu’il n’est pas forcément une arnaque destinée à escroquer le consommateur.
L’expérience du passé nous a montré qu’il n’est pas nécessaire de remplacer les compteurs pour augmenter les tarifs…
_______________________

Repost 0
17 septembre 2016 6 17 /09 /septembre /2016 19:15

17 Septembre 2016
Certains sujets sont tabous et ne sont jamais abordés dans les réunions de familles.
« On ne parle pas de corde dans la maison d’un pendu… »
Dans la famille du véhicule électrique, les sujets de discorde ne manquent pas: l’autonomie réelle, les performances, l’obsolescence rapide de la technologie, la concurrence des voitures hybrides, les bornes de recharge, le prix du KWh vendu à ces bornes, l’avenir de la batterie vs la pile à combustible, de quoi occuper les longues soirées d’hiver.
Mais il y a un autre sujet, rarement évoqué dans les gazettes et qui pourtant pourrait bien conditionner la survie de cette technologie.
Il s’agit du coût des batteries.
Des voitures électriques circulent sur nos routes depuis quelques années. Elles sont équipées de batteries de capacités diverses, entre 20 KWh et 30 KWh, et il est question de 60 KWh pour 2017, avec 120 KWh en ligne de mire pour donner au VE la même autonomie que la voiture à moteur thermique.
Une voiture à moteur thermique normalement conduite et entretenue peut parcourir 200 000 Km sans gros soucis mécaniques.
A raison de 12 000 Km par an (Moyenne nationale), ce n’est qu’au terme de 16 ans de bons et loyaux services que le moteur devra être remplacé, ou reconditionné, et pour un coût raisonnable.
Certains véhicules sont même prolongés très au-delà de trente ans, sans être forcément des pièces de musées.
Cette durée de vie permet l’existence d’un marché de l’occasion prospère. Aujourd’hui, sur trois transactions, deux portent sur un véhicule d’occasion. L’acheteur d’un véhicule thermique neuf est assuré de le revendre un bon prix quelques années plus tard, et un achat neuf est souvent conditionné par sa cote à la revente, d’autant plus qu’en cinq ans la technologie « thermique » n’aura que peu évolué.
Sur un véhicule électrique, la mécanique est au moins aussi endurante, sinon plus. Mais le point faible est la batterie.
Même utilisée selon les préconisations du constructeur, une batterie Lithium-ion perd en capacité et en courant max au fil du temps et selon le nombre de cycles, le type des recharges ( Lente, semi-rapide, rapide, super rapide), l’amplitude et le nombre de ces recharges, les conditions climatiques, etc...
Compte tenu de la nouveauté de ce marché, du faible volume du parc de VE, et du renouvellement rapide de la technologie, le REX (Retour sur Expérience) est insuffisant pour connaître la durée de vie moyenne de la batterie en usage réel.
Les constructeurs annoncent une durée de cinq à dix ans, assortie de conditions d’utilisation assez sévères portant sur les conditions de recharge, le nombre de cycles, etc…
Si l’on s’en tient à ces valeurs (Très approximatives), lorsque le véhicule sera mis sur le marché de l’occasion, au bout de quatre ou cinq ans, la batterie sera proche de sa mise à la retraite et son remplacement devra être envisagé.
La cote de revente du véhicule devra donc tenir compte de ce remplacement.
Et il n’est pas certain que le modèle de batterie soit encore disponible en magasin au-delà de dix ans.
Le coût actuel des batteries Lithium-ion est de l’ordre de 250 euros le KWh, soit 7 500 euros pour une batterie de 30 KWh, et bien sûr
15 000 euros pour les 60 KWh annoncés pour 2017.
Les prévisions de baisse de coût sont certes encourageantes: 150 euros/KWh en 2025, sous conditions de développement du marché.
Mais le remplacement d’une batterie de 60 KWh atteindra tout de même alors encore près de 9 000 euros, ce qui pénalisera lourdement le VE d’occasion.
Et qui irait acheter un véhicule neuf dont la revente serait ainsi plombée ?
Aujourd’hui le coût très élevé des batteries est « camouflé » par le système des primes à l’achat d’un VE. Mais un tel artifice ne saurait être pérennisé car il ne correspond à aucun modèle économique et constitue en volume une distorsion de concurrence.
Les constructeurs sont conscients de ce problème, qui ne peut qu’être aggravé par la course à la capacité, puisqu’on parle aujourd’hui de 120 KWh pour obtenir l’autonomie voulue.
L’avenir du VE peut être compromis si les fabricants ne parviennent pas à réduire drastiquement les prix de revient des batteries.
Deux voies sont empruntées pour tenter d’améliorer la situation:
D’une part la recherche de nouveaux matériaux pour augmenter les performances et réduire les coûts d’approvisionnements.
D’autre part, concentrer les moyens de production pour bénéficier de l’économie d’échelle.
En sachant que le marché ne se développera que si les coûts baissent, et que les coûts ne baisseront que s’il y a un marché important…
A capacité énergétique constante, la quantité de Lithium utilisé est proportionnelle à la capacité de la batterie.
A 120 Wh/Kg, la situation ne sera pas tenable au plan des approvisionnements en Lithium si la part de marché du VE devient significative, d’autant plus que la demande sera augmentée des autres applications relatives à la mise en œuvre des énergies nouvelles et du Smart Grid.
Il est donc impératif d’améliorer ce rendement énergétique sous peine de rencontrer une situation de pénurie qui mettrait fin au déploiement du véhicule électrique à batterie.
D’autre part si la techno n’évolue pas, le poids de la batterie à forte capacité deviendra prohibitif !
Dans ce contexte la voiture hybride rechargeable ( PHEV), qui se « contente » d’une batterie de faible capacité, pourra conserver sa position dominante actuelle, et constituer le bon compromis pour l’avenir.
En attendant l’éventuelle mise au point d’une nouvelle technologie de batterie, comme la Zinc-air dont on dit grand bien.
Et sans oublier les autres solutions « durables » que sont la pile à combustible et les bio carburants de seconde et troisième générations.
Les dix prochaines années verront ces secteurs se décanter, les éléments clé étant l’évolution des réglementations antipollution, la montée en puissance de la taxe carbone, et le cours du pétrole qui reste le maître du jeu.

Repost 0
14 septembre 2016 3 14 /09 /septembre /2016 12:07

14 Septembre 2016
Nous avons rappelé dans un précédent article (6 Septembre) que la polémique autour du compteur LINKY est alimentée par plusieurs revendications :
- Les relevés détaillés en temps réel de la consommation des usagers sont considérés par certains abonnés comme une violation de l'espace privé.
- Les nouveaux compteurs LINKY seraient à l'origine de troubles de jouissance en raison des perturbations électromagnétiques émises, particulièrement pour les personnes "électro sensibles".
- Les signaux CPL émis par ces nouveaux compteurs induiraient des perturbations au sein des réseaux "in door" de certains abonnés.
- Etc.
D’autres revendications font l’objet de plaintes concernant les perturbations engendrées par les réseaux CPL « en général ». Elles ne visent pas spécialement le compteur LINKY. Il s’agit des usagers de la bande 1,6 - 30 Mhz pour les transmissions Radio, qui se plaignent de voir les ondes polluées par le rayonnement CPL.
_______________________

Chacun de ces domaines de revendications requiert une approche juridique différente, devant être traitée spécifiquement pour éviter tout amalgame incompréhensible.
Le problème de violation de l'espace privé n'a à l'évidence rien à voir avec l'électro sensibilité, ni avec d’éventuelles perturbations des applications clients.
________________________

Les domaines de l'électrotechnique et des télécommunications sont étroitement régis par des normes.
Nul n'est censé pouvoir échapper à ces normes, pas plus les particuliers que les professionnels producteurs et distributeurs d'électricité.
Le nouveau compteur LINKY n'échappe évidemment pas à la règle, mais certains usagers contestataires n'en sont pas convaincus.
C'est pourquoi il nous a paru intéressant de signaler un document d'expertise de l'ANFR susceptible d'apporter des éclaircissements sur ce fameux nouveau compteur et surtout sur sa conformité aux normes en vigueur.
Ces résultats constituent au moins un point de départ solide pour de futures argumentations.
Ce document est accessible ici:

http://www.anfr.fr/fileadmin/mediatheque/documents/expace/2016-05-30_Rapport_technique_compteur_vdef2.pdf
___________________________

L'essentiel des résultats peut se résumer dans le tableau suivant, qui donne les valeurs mesurées des champs électrique et magnétique émis par le compteur LINKY, dans les conditions de mesures définies par la norme.
Les mesures sont effectuées dans les diverses configurations de CPL (Versions G1 et G3), et en comparaison avec les émissions des anciens compteurs, dans la gamme des fréquences utilisées par les compteurs (Bande A du CENELEC, réservée aux distributeurs d'énergie).
Ces mesures montrent que les niveaux d'émissions sont considérablement inférieurs aux limites de la norme, parfois dans un rapport de plusieurs ordres de grandeur.

On peut conclure que, au moins au niveau du respect des normes d'émissions électromagnétiques, le compteur LINKY est largement en dessous des seuils limites imposés.
Le rapport indique par ailleurs que les valeurs relevées pour ce compteur sont comparables à celles d'un écran TV 19" , 17 fois plus faibles qu'une lampe fluo-compacte, et 56 fois plus faibles qu'une plaque à induction.
Voilà qui devrait rassurer les usagers de bonne foi, au moins sur le plan des perturbations EM émises par le compteur lui-même.
___________________

Par ailleurs il est utile de rappeler que le compteur LINKY utilise des signaux CPL dont les fréquences porteuses sont situées dans la bande A du CENELEC, bande dédiée aux fournisseurs d’énergie électrique, pour les applications de Télé relevé.
Deux versions sont développées:
LINKY G1
A commutation de porteuses ( 63,3 KHz et 74 KHz)
Modulation S-FSK (Spread - Frequency Shift Keying)
Niveaux de sortie: Décroissant de 134 dBuV ( 5V) à 63,3 KHz Jusqu’à 120 dBuV (1V) à 74 KHz.
Cette première version équipe les premières implantations du nouveau compteur.

LINKY G3 (Deuxième génération de compteurs)
Codage OFDM (Orthogonal Frequency Division Multiplexing)
36 sous-porteuses réparties entre 35,9 KHz et 90,6 KHz.
Niveaux de sortie id. G1.
Cette génération doit normalement prendre la suite du G1.

Il faut ici remarquer que les fréquences utilisées sont en Kilo-Hertz et non en MHz comme souvent cité ici et là.
La bande HF 1,6 à 30 MHZ, n’est pas utilisée par EDF.
Pour le moment…

Les signaux CPL échangés entre le compteur et le concentrateur EDF, ainsi que les signaux CPL affaiblis des voisins de quartier de l’abonné, ne sont pas arrêtés par le compteur, et se retrouvent donc à l’intérieur du domicile, à des niveaux relativement faibles, mais non négligeables.

Les interactions entre ces signaux externes, en principe non désirés, et le réseau domotique CPL de l’abonné appartiennent à un domaine non encore parfaitement exploré.
La distribution de l’énergie électrique appartient au domaine de l’Electrotechnique.
Les réseaux d’échange de données appartiennent au domaine des Télécommunications.
Ces deux domaines sont régis par des organismes différents, des standards et des normes différentes. Leur rapprochement est souhaitable mais ne peut se réaliser qu’à moyen ou long terme.
Or la mise en œuvre d’un réseau CPL constitue un rapprochement forcé entre ces deux domaines qui n’ont pas vocation à faire converger leurs cahiers des charges, du moins à cours terme.
_________________

Ce rapprochement « sauvage » fait apparaître des problèmes à priori sans solutions évidentes.
Un réseau électrique domestique conforme à la norme NF C 15-100 ne convient pas à la réalisation d’un réseau de télécommunications, pour les raisons déjà évoquées:
- Absence de blindage.
- Câblage hétéroclite.
- Circuits dissymétriques, qui sont à l’origine de rayonnements pouvant perturber l’environnement.
(De nombreuses applications utilisent déjà la gamme de fréquences des ondes courtes, avec des appareils d’une très grande sensibilité qui sont très vulnérables à des sources perturbantes rapprochées).
- Impédances fantaisistes.
- Absence de cage de Faraday dans les bâtiments.
- Affaiblissement du signal très dépendant des parcours.
- Comportement variable en fonction des appareils connectés.
- Présence systématique de perturbations liées à la mise en fonctionnement et à la coupure des appareils domestiques.
- Présence également systématiques des transitoires de la tension du réseau, liés aux commutations pour l’ajustement tension et fréquence du réseau.
- Présence d’appareils qui, bien qu’homologués NF C 15-100, nuisent à la transmission des signaux CPL (Parafoudres, prises multiples, …).

Ce cumul d’inconvénients laisse penser qu’au-delà d’un certain niveau de complexité et du nombre des applications connectées, il ne sera plus possible d’assurer un fonctionnement acceptable*, sans apporter des modifications au câblage électrique.
*Notamment au niveau de la gestion des collisions et de la hiérarchie des urgences.

Et le compteur LINKY n’y sera pour rien…
_____________________

Repost 0
11 septembre 2016 7 11 /09 /septembre /2016 11:56

11 Septembre 2016
Depuis plus d'un siècle, la voiture électrique est plombée par l'incapacité de sa batterie à lui assurer une autonomie décente.
Les récentes tentatives de relancer ce marché se sont heurtées au même problème d'autonomie.
Malgré les progrès incontestables réalisés dans la chimie des accumulateurs au Lithium (110 Wh/Kg), la densité énergétique reste insuffisante, et une batterie de 250 Kg ne peut offrir que 150 Km d'autonomie réelle à une voiture moyenne, ce qui limite son utilisation à des parcours réduits, sauf à disposer d'un important réseau de bornes de charge, ce qui est encore très loin d'être le cas, la situation étant à peine meilleure qu'il y a un siècle, en dehors des agglomérations.
Une voiture moyenne requiert environ 15 KWh pour parcourir cent kilomètres en conduite "raisonnable" , ce qui correspond à une consommation de 6 L/100 avec un moteur thermique de rendement moyen 25%.
Pour obtenir avec un VE une autonomie du même ordre que celle d'une voiture "thermique" équivalente, soit 700 Km avec un réservoir de 50L, il faut donc une batterie de 110 KWh, dont le poids ne devra pas dépasser 350 à 400 kg, sinon la consommation augmentera à cause de la masse excessive.
L'objectif est donc clairement désigné, il faut développer une technologie capable d'offrir plus de 300 Wh par Kg, soit presque le triple de la densité énergétique des actuelles batteries LiFePO4.
Deux voies sont utilisées pour aller vers ce but:
La première voie consiste à optimiser la batterie pour obtenir la meilleure densité énergétique. On peut gagner 20 à 30% sur ce paramètre, mais au détriment de la puissance car la densité de courant max diminue ( On ne peut pas avoir le beurre et l'argent du beurre). Il faut alors ajouter un supercondensateur qui se chargera de délivrer les pointes de puissance nécessaires, au prix d'une augmentation de coût.
La deuxième voie, complémentaire de la précédente, consiste à rechercher d'autres combinaisons chimiques et d'autres architectures de matériaux d'électrodes présentant de meilleures performances énergétiques. La technologie Lithium NMC (Nickel, Manganèse, Cobalt) émerge actuellement sur le marché, et affiche des performances quasiment doublées par rapport au Li FePO4.
Pour un poids équivalent, ces nouvelles batteries offrent 60 KWh, laissant espérer une autonomie de 400 Km.
Nissan annonce un véhicule ainsi équipé, et comme d'habitude nous retrouvons la surenchère habituelle: Le constructeur annonce une autonomie de 500 Km en mode NEDC , heureusement corrigés par le cycle EPA américain qui indique 350 Km, plus réaliste.
On se demande pourquoi insister sur ce mode NEDC, complètement discrédité par les récents scandales sur les émissions et les consommations "truquées". Les constructeurs ont vraiment une piètre opinion de leurs clients, pour les supposer capables d'avaler de telles couleuvres…
La publicité n'ayant pas encore le pouvoir de changer les lois de la physique, les clients pourront compter sur 350 Km en gardant le pied très léger. Rendez-vous en 2017.
Mais 350 Km ne font pas 700 Km, il y a donc encore un facteur 2 à gagner.
_____________________
En électronique on a coutume de dire que c'est toujours le dernier décibel qui est le plus dur à gagner. C'est vrai également pour l'électrochimie. Passer de 30 KWh à 60 KWh pour un poids de batterie équivalent représente un saut technologique important qu'il faut saluer.
Le passage de 60 KWh à 120 KWh, toujours à poids égal de batterie, ne sera pas réalisé avant 2020, plutôt 2025 au plan industriel, si toutefois elle est possible. On peut alors penser que la solution 60 KWh constituera la norme pour le véhicule routier tout électrique des dix prochaines années dans le moyen de gamme.
(On voit mal les clients se "contenter" de 30 KWh avec les inconvénients d'une autonomie réduite à 200 Km voire moins, si des modèles à 60 KWh sont disponibles. Avec 30 KWh on hésitera à prendre d'autoroute. Avec 60 KWh cela devient envisageable à la rigueur).
___________________
Mais la technologie n'a pas dit son dernier mot. Peut-être l'objectif sera-t-il atteint grâce à la pile à Hydrogène, qui commence à pointer son nez et pourrait nous surprendre dans les prochaines années.
___________________________
Au début du XXè siècle, la voiture électrique a été "tuée" par le pétrole pour la simple raison qu'il était possible d'emporter quelques bidons du précieux liquide afin de ne pas tomber en panne sèche, alors qu'évidemment ceci n'était pas possible en électrique, et qu'à l'époque les bornes de recharge n'étaient qu'un rêve.
La situation est-elle réellement différente aujourd'hui ?
La réponse est ambigüe.
L'électricité est certes distribuée partout et en grandes quantités. Mais sa mise à la disposition des véhicules électriques nécessite des installations sécurisées, d'accès facile et compatibles avec les divers modèles de câbles de raccordement fournis par les constructeurs. La standardisation dans ce domaine paraît très laborieuse.
Des installations de recharge existent ici et là, dans les grandes villes essentiellement, et constituent un embryon de réseau de recharge dont l'accessibilité reste encore très problématique. La recharge au domicile est encore la solution la plus sure pour les particuliers.
C'était déjà le cas au début du XXè siècle…avant l'arrivée du pétrole.
Il ne faut donc pas se bercer d'illusions, la situation n'est guère meilleure actuellement, et il faut une certaine dose de témérité pour se lancer avec un véhicule tout électrique sur un parcours supérieur à 150 Km.
Pour les déplacements de longue distance, il vaut mieux prendre le train car le réseau routier est encore à peu près totalement dépourvu d'installations de recharge de batteries.
Dans ce contexte on peut se demander à quoi serviront les batteries de 60 KWh, d'autant plus que leur recharge posera le problème de la puissance des bornes rapides.
En effet, pour recharger une telle batterie en une demi heure, il faut une puissance de 120 KW.
Il n'existe aujourd'hui aucun réseau disposant de telles installations.
Le déploiement du marché des VE routiers reste donc encore une vue de l'esprit et le pétrole demeure incontournable pour les longs trajets.
D'autre part il faut rappeler que le tarif de l'électricité qui sera délivrée par les diverses catégories de bornes ( Recharge lente, semi-rapide, rapide) est inconnu, de même que le type et le montant des taxes qui seront appliquées.
Il faut au client une bonne dose d'abnégation pour acquérir un véhicule électrique sans connaître le prix du carburant qu'il devra utiliser.
Démarré en 2011 avec 2 626 véhicules vendus, le parc de véhicules tout électriques était de 58 379 fin Août 2016, ce qui représente 0,16% du parc de voitures particulières en France.
Les ventes de voitures électriques représentent en 2015 0,9% du total des ventes de voitures neuves. Cette très faible part, après cinq ans d'efforts des pouvoirs publics en matière de primes, d'avantages divers et de campagnes d'incitation, confirme la réticence des clients, peu enclins à investir dans une technologie en évolution permanente, et dont les avantages vantés dans les gazettes ne se vérifient pas sur le terrain.
Dans ce contexte, la voiture hybride semble avoir son avenir assuré, et seule une crise pétrolière majeure pourrait faire bouger les lignes.
______________________

Repost 0
6 septembre 2016 2 06 /09 /septembre /2016 17:34

6 Septembre 2016
Les CPL (Courants Porteurs en Ligne) sont au centre d'une nouvelle polémique, qui cristallise, sous la même bannière, diverses revendications de natures assez différentes.
Nous avons rappelé précédemment comment, en voulant faire du réseau domestique de distribution d'énergie électrique un réseau de communications numériques à haut débit, une boîte de Pandore a été ouverte, peut-être un peu précipitamment.
Les inconvénients, avérés, de cette audacieuse tentative de cohabitation n'ont pas manqué d'être pointés du doigt par certains groupes d'usagers qui s'estiment lésés dans leurs droits par l'intrusion "à la hussarde" de cette nouvelle application, qui induirait des "troubles de jouissance" insupportables.
________________

L'arrivée en fanfare du nouveau compteur LINKY est venue ajouter une page supplémentaire au cahier de doléances déjà bien garni.
Les principaux griefs vont du caractère agressif des courants porteurs envers les personnes électro sensibles, jusqu'au caractère jugé intrusif de l'application "Smart Grid" , en passant par les problèmes de compatibilité électromagnétiques (Qui sont bien réels) dans la bande de 1,6 à 30 Mhz utilisée par de nombreux services officiels et particuliers (Radio amateurs, mais pas seulement).
_________________

Les protocoles utilisés pour les transmissions CPL tiennent pourtant compte des risques de perturbations électromagnétiques générés par les signaux .
Les niveaux d'émission ne sont pas quelconques, leurs valeurs max sont définies dans les normes CEM, et les adaptateurs CPL intègrent obligatoirement le système de masquage des fréquences sensibles (Notching).
En clair, les CPL n'émettent pas dans les créneaux de fréquences déjà utilisés par des applications identifiées.
La liste de ces fréquences "masquées" est incluse dans la mémoire de chaque adaptateur CPL.
Certains dispositifs intègrent également la fonction de masquage dynamique, qui améliore les performances CEM.
L'homologation des dispositifs n'est accordée qu'après vérification du respect de la norme CEM , dans les conditions de mesures spécifiées.

D'autre part, la juridiction est formelle: Une installation qui génère des troubles de jouissance dans son environnement doit être démontée.
Il n'en demeure pas moins qu'un réseau électrique domestique est très éloigné des conditions de mesures de laboratoire; la longueur et la nature des câbles peuvent être quelconques, de même que l'architecture, la symétrie des trajets, la qualité des raccordements, les impédances de ligne, qui impactent fortement les rayonnements parasites du système.
En pratique il sera très difficile d'établir la responsabilité d'un "trouble de jouissance", l'expertise en la matière étant loin d'être établie.
__________________

Les perturbations générées par l'usage des CPL ( ou par les appareils "classiques" connectés à l'installation) sont de deux sortes:
- Les perturbations "subies" par l'usager.
- Les perturbations "causées" par l'usager.
A l'intérieur de ces deux catégories il faut distinguer:
- Les perturbations "conduites" par les fils.
- Les perturbations "rayonnées" ou "reçues" par une installation.
Dans la quasi-totalité des cas, l'usager se préoccupera des perturbations subies par sa propre installation. Concernant les éventuelles perturbations causées au voisinage, les précautions prises se borneront à n'utiliser que du matériel vendu dans le commerce, lequel est réputé conforme aux normes les plus récentes.
Le réseau électrique lui-même sera utilisé sans modifications particulières, dès lors qu'il est réputé conforme à la norme NF C 15-100, laquelle ne se préoccupe pas des signaux CPL.
Les mondes de l'électrotechnique et des télécommunications n'ont pas encore fusionné.
( Des modifications seront probablement apportées aux normes ultérieurement pour combler cette lacune, mais ceci est une autre histoire).
Or un réseau électrique n'est pas autre chose qu'une antenne. Une mauvaise antenne certes, mais une antenne tout de même puisque les fils ne sont pas blindés.
Lorsque l'on envoie dans une antenne des signaux HF dans la bande 1,6 à 30 MHz voire plus, cette antenne rayonne.
L'intensité du rayonnement dépendra de l'architecture du réseau, de la dissymétrie des trajets phase et neutre des différents circuits, des variations d'impédance, de la nature de la mise à la terre et des lignes équipotentielles, de la nature de la construction, et de quelques autres paramètres difficilement contrôlables.

Le contrôle effectif des rayonnements émis et/ou reçus passe par une réalisation "sérieuse" des mises à ma terre, l'idéal étant la constitution d'une quasi cage de Faraday, classique dans les bâtiments à armature métallique, mais difficile à mettre en œuvre dans une construction traditionnelles.
Aujourd'hui la loi autorise l'installation d'un réseau de communication "in-door" sans exiger une vérification de conformité du réseau électrique, et pour cause puisqu'aucune norme n'existe à ce sujet.
Du moins jusqu'à présent…
_____________________

Pour s'affranchir de ces problèmes potentiels, certains usagers décident de ne pas utiliser les CPL dans leur domicile, et de constituer éventuellement un réseau numérique interne filaire (Paire torsadée blindée ou câble coaxial, ou fibre optique), voire même pas de réseau du tout.
Les liaisons radio sont au maximum évitées, car il serait malvenu de se plaindre des émissions radio des autres et d'en émettre soi-même….
(WiFi, ZigBee, …).
Ce "repli" stratégique ne compromet nullement la mise en œuvre future du "Smart Grid" puisque le compteur LINKY communique préférentiellement par son interface filaire TIC ( Télé Information Client) selon le protocole EURIDIS, avec un débit de 9 600 Bauds, largement suffisant pour les applications envisagées.
Cette liaison TIC est alors raccordée en filaire au gestionnaire d'énergie du logement, qui commande directement les appareils sous contrôle (Chauffage, ECS, PAC, charge de batterie, gros électro ménager, etc…).
Les CPL étant bannis du domicile, il est alors logique de se prémunir d'une intrusion de CPL indésirables arrivant par le compteur.
(Le compteur LINKY ne bloque pas les CPL, il les affaiblit tout au plus d'une quantité non spécifiée, de l'ordre d'une dizaine de décibels).
En sortie du compteur, c'est-à-dire chez l'abonné, arrivent les signaux CPL de ENEDIS (ex ERDF), mais aussi ceux des abonnés voisins qui sont raccordés sur le même tronçon du transfo BT EDF, constituant ainsi un réseau CPL de quartier dont les usagers se seraient bien passé et qui ne peut que créer des troubles.
_____________________

Pour "protéger" la totalité du logement des signaux CPL indésirables arrivant via le compteur, il faudrait disposer un filtre ad-hoc derrière le disjoncteur de sécurité EDF (DDR 500 mA , qui fait également office d'organe de coupure du circuit général).
Ce filtre doit posséder une fonction de transfert procurant une atténuation supérieure à 40 dB dans les bandes de fréquences susceptibles d'être utilisées.
Typiquement il s'agit des bandes CENELEC A (bas débit) et de la bande HF de 1,6 à 80 Mhz (Haut débit), dont seulement une partie est utilisée aujourd'hui ( 1,6 à 30 MHz).
La bande à "bloquer" s'étend donc de quelques 10 KHz à 80 MHz puisque certains fabricants songent déjà à travailler sur ces fréquences extrêmes seules capables de transmettre les hauts débits binaires exigés par la TVHD (Des adaptateurs CPL affichant 1 200 Mbps sont déjà proposés sur le marché).
D'autre part, la totalité du courant soutiré par l'abonné traverse le filtre en question. Il devra donc être dimensionné pour supporter ce courant sans perdre ses performances et sans échauffement excessif.
Pour un abonnement de 18 KVA, ce courant peut atteindre 80 A.
En 15 KVA il peut atteindre 63 A.
Les éventuelles bobines du filtre devront être réalisées en fil de diamètre suffisant (> 10 mm²) pour limiter l'échauffement à quelques Watts car l'objet sera de type modulaire intégré sur un rail du tableau de distribution.
Les condensateurs de filtrage devront être du type by-pass pour minimiser la composante selfique des connexions afin d'éviter une détérioration des performances en haute fréquence.
Ce filtre sera donc un composant de hautes performances susceptible d'un coût significatif.

__________________

Le graphique suivant donne les courbes d'atténuation obtenues avec un filtre SCHAFFNER FN 2010 - 60 .
Malgré un courant max de 60 A "seulement", son poids atteint 1,1 Kg, ce qui en fait un composant difficilement intégrable dans un tableau classique.
Le prix est très élevé, c'est un produit de luxe.
On remarquera que ce filtre n'est pas efficace dans la bande A du CENELEC utilisée par EDF pour les communications bas débit. Il ne bloquera donc pas les signaux CPL du LINKY. Il conviendra par contre pour les signaux HF dans la bande 1,6 à 30 Mhz .
Les quatre courbes correspondent à quatre configurations entrées-sorties et d'impédances variables. On peut constater l'influence importante des impédances de source et de charge sur les performances "in situ".

Le filtrage des CPL.

______________________

LEGRAND propose le modèle 003609 limité également en courant à 63 A (Abonnements de 15 KVA) pour un prix public entre 120 et 150 euros.
Il se présente sous forme compatible rail DIN largeur de 4 modules.
Sa courbe d'atténuation n'est pas communiquée, seule l'atténuation dans la bande 95 à 148,5 KHz est spécifiée (> 45 dB). Cette bande de fréquence couvre les bandes CENELEC B, C, et D.
Or les CPL LINKY utilisent évidemment la bande A réservée pour les applis des distributeurs d'électricité ( 35,9 à 90,6 KHz).
Le produit LEGRAND ne convient donc pas non plus pour filtrer les CPL LINKY.
D'autre part ses performances dans la bande HF ne sont pas spécifiées.
______________________

Le produit qui conviendrait pour le blocage des signaux LINKY est donc difficile à trouver sur le marché, surtout si on lui demande de bloquer également la bande 1,6 à 30 Mhz et se supporter un courant de 80 Ampères !
Avant d'investir dans un produit du marché, il y aura donc lieu de vérifier ses performances afin de ne pas prendre des vessies pour des lanternes.
Quelle que soit la solution choisie, il sera nécessaire de mesurer sur place les performances d'atténuation, qui dépendent fortement des caractéristiques de chaque réseau, notamment les impédances de source et de charge.
Le filtrage des CPL n'est décidément pas une affaire évidente.
_____________________

Repost 0
26 août 2016 5 26 /08 /août /2016 19:17

26 Août 2016

Nous avons vu dans l'article précédent que les CPL sont en passe de devenir une technologie incontournable dans l'habitat moderne.
(Et pas seulement dans l'habitat, les constructeurs automobiles y viennent également pour supporter le multiplexage en faisant passer tous les signaux sur la connexion d'alimentation, économisant ainsi un câblage spécifique fastidieux et vulnérable).
Les opposants aux CPL auront donc un rude combat a mener, et sur plusieurs fronts à la fois puisque ceux-ci "sévissent" dorénavant dans le domicile, dans les bâtiments du tertiaire, sur tout le réseau EDF de distribution "outdoor", et maintenant dans nos automobiles.
Si l'issue de ce combat est hélas prévisible (Voir le téléphone cellulaire) il aura au moins le mérite d'attirer l'attention sur un certains nombre d'inconvénients réels et de susciter des mesures de protection de l'environnement et de la vie privée, comme le durcissement des protocoles de cryptage, le masquage dynamique des fréquences sensibles, une meilleure définition des conditions de mesures des performances CEM (Compatibilité Electro Magnétique) des matériels et des installations, et un encadrement plus strict de la normalisation.
_____________________

Le réseau de la téléphonie commutée n'était pas, lui non plus, conçu à l'origine pour transmettre des signaux de communication numérique à large bande comme la TVHD .
Et pourtant ces applications sont aujourd'hui devenues la norme pour une grande majorité des lignes montées à l'origine pour transmettre la voix en analogique.
Ceci a été rendu possible grâce aux progrès considérables réalisés dans les domaines du traitement numérique du signal et de la microélectronique.
Ces progrès, qui ont permis le développement de la téléphonie cellulaire et de l'internet à haut débit, sont également mis à profit pour "booster" les communications par courants porteurs.
________________________

Le réseau domestique de distribution de l'énergie électrique n'est pas conçu pour être utilisé comme réseau de communications numériques à haute fréquence et bas niveau de signal, en voici quelques raisons:
- Ce réseau n'est pas spécifique: Il implique la coexistence de signaux de communication à bas niveau et haute fréquence, avec les courants transportant l'énergie, de valeur quelconque entre zéro et quelques dizaines d'Ampères, affectés d'impulsions parasites liées au fonctionnement normal des appareils connectés, ou créées par le réseau EDF lui-même.
L'optimisation pour un type d'applications (La distribution d'énergie) n'est pas forcément compatible avec l'optimisation pour les applications réseau numérique de communications.
- Les conducteurs ne sont pas blindés, pas même torsadés, et les "goulottes" ne sont pas métalliques; il n'y a donc aucun obstacle au rayonnement d'éventuels signaux parasites, qu'ils soient émis ou reçus par le réseau.
- La continuité électrique du réseau n'est pas assurée, puisque des organes de coupure automatique sont prévus dans un but de sécurité des personnes et des biens ( Fusibles, disjoncteurs, disjoncteurs différentiels).
Les différents circuits du câblage secteur peuvent alors se trouver dans l'incapacité de communiquer.
- Certains appareils ménagers, bien que conformes à la norme NF-C 1500, peuvent nuire aux CPL, comme les parafoudres, les prises avec para surtenseurs, les appareils de cuisson à induction, les alimentations à découpage, les éclairages fluorescents, et certains filtres.
- La symétrie des liaisons n'est pas assurée, le trajet de la Phase n'a pas forcément la même longueur que le trajet du Neutre. Ceci est à l'origine des perturbations de mode commun, donc de rayonnements parasites.
- Le réseau supporte de plein fouet les perturbations électriques liées au fonctionnement normal des appareils domestiques connectés et/ou provenant du réseau de distribution EDF.
- De part l'architecture de raccordement des abonnés EDF (ENEDIS) , les différents compteurs d'abonnés constituent autant de ports de communication constituant le réseau "Outdoor" de EDF.
Le compteur ( CBE ou LINKY) n'ayant aucune fonction de blocage des signaux CPL (Tout au plus un affaiblissement du signal), l'ensemble des abonnés du même tronçon du transfo BT se trouvent malgré eux interconnectés, le réseau domestique n'est alors plus tout à fait "Indoor", avec les inconvénients que l'on peut imaginer.
( Cette "porte" ouverte à tous les vents rend indispensable l'utilisation d'un système de cryptage des données très robuste, DES aujourd'hui, AES demain).
- Le trafic CPL haut débit utilise aujourd'hui la bande 1,6 à 30 Mhz. L'impédance HF du réseau dans cette bande, vue depuis une prise électrique, peut être à peu près n'importe quoi selon la nature du réseau, le câblage, le diamètre des fils, les appareils connectés en fonctionnement, la qualité des raccordements, et bien d'autres subtilités, notamment le moment choisi pour faire la mesure. Ceci est contraire aux bonnes mœurs dans le domaine des réseaux numériques.
Il s'ensuit des phénomènes d'affaiblissement du signal et/ou de réflexion,
il sera parfois nécessaire d'installer des circuits de compensation.
La bande 1,6 à 30 Mhz, utilisée aujourd'hui pour les CPL domestiques, ne permet pas d'obtenir des débits binaires réels supérieurs à 40 Mbps dans la plupart des installations existantes. Il va donc être nécessaire d'utiliser des bandes de fréquences supérieures, typiquement jusqu'à 80 Mhz, pour passer des canaux TVHD avec un bon résultat. D'autres problèmes surgiront alors, mais chaque chose en son temps…
- Le fonctionnement du réseau CPL est interrompu en cas de panne de courant puisque les adaptateurs CPL sont alimentés par le 230 V.
Certains appareils, notamment ceux qui contribuent à la télésurveillance, à la sécurité, et aux systèmes anti intrusion, sont autoalimentés par batteries, mais ils sont inefficaces en cas de coupure de courant si les ordres leurs sont transmis par CPL. Une raison supplémentaire de ne pas négliger les liaisons radio et/ou filaires.
- Les performances du réseau CPL seront très dépendantes de sa configuration à un instant donné, selon le nombre et le types des appareils domestiques en fonctionnement.
- Le réseau de distribution électrique est exposé à la foudre et en général aux surtensions accidentelles, pouvant entraîner la destruction de plusieurs adaptateurs CPL.
- Le débit binaire efficace est fortement dépendant de la qualité du réseau. En effet, la norme prévoit que tout adaptateur CPL doit ajuster son débit de manière à garantir un TEB ( Taux d'Erreur Binaire) compatible avec l'application. Ceci est réalisé automatiquement par le choix dynamique du type de modulation.
Plus le réseau est perturbé et plus le débit est réduit.
C'est ainsi que des adaptateurs affichant un débit théorique de 1 200 Mbps par exemple, peuvent se trouver contraints de trafiquer à 30 ou 40 Mbps si le réseau est de mauvaise qualité, et cela est très fréquent sur les réseaux existants, de qualité assez médiocre.
______________________

Malgré ces inconvénients, l'intérêt pratique de ce réseau préexistant est tel qu'il a été plébiscité pour constituer LE réseau domestique chargé d'assurer les communications numériques de toutes natures et jusqu'à des débits binaires considérables (Aujourd'hui 1 200 Mbps théoriques!).
On peut cependant se demander s'il est bien raisonnable d'utiliser un support à priori non destiné à cette fonction, pour des applications aussi différentes que la commande d'une cafetière électrique, la recharge d'une batterie de voiture, l'ouverture d'un portail, le téléphone, l'internet, le multimédia, la télévision numérique haute définition, la vidéo surveillance, et bien d'autres choses encore.
L'avenir nous dira rapidement ce qu'il en est…
(Des adaptateurs CPL 1 200 Mbps sont déjà commercialisés, et pour un prix très raisonnable).
___________________

Jusqu'à présent, ERDF (Devenu ENEDIS) n'intervenait pas comme acteur CPL à l'intérieur du domicile, si l'on excepte l'application PULSADIS à très basse fréquence, destinée essentiellement à la commutation HP/HC . Mais pour la mise en œuvre du programme "SMART GRID" , il sera nécessaire d'offrir au fournisseur d'énergie la possibilité (négociée) de communiquer avec certains équipements de puissance afin de gérer les appels de puissance de pointe et/ou de négocier en temps réel certains aménagements tarifaires .
Il s'agit par exemple de gérer à distance la charge d'une batterie de voiture électrique, l'effacement de Zones de chauffage si celui-ci a été souscrit (Ancien abonnement EJP), négociations tarifaires en temps réels, etc.
Cette communication avec le domicile pourra utiliser différents supports: les CPL, un réseau filaire spécifique, ou une liaison radio.
Le nouveau compteur LINKY peut gérer ces trois modes.
Chaque compteur LINKY est équipé d'une interface filaire, et un logement est prévu pour insérer un module ERL (Emetteur Radio Linky), ceci afin de permettre à l'abonné d'échanger avec ENEDIS sur un réseau domotique résidentiel filaire ou radio, si l'usage des CPL ne lui convient pas).
ENEDIS va donc devenir un nouveau partenaire sur les réseaux énergétiques domestiques, pas seulement sur le support CPL, mais également en filaire et en radio.
Certains usagers se sont insurgés contre ce qu'ils considèrent comme une "intrusion" dans un domaine qu'ils pensaient réservé à leur usage personnel, voire intime. D'autres protestent contre une pollution insupportable des ondes Radio, ou contre des perturbations de leur propre réseau CPL.
Nous laissons aux juristes le soin de traiter ces conflits, et de faire le tri entre les problèmes de protection de la vie privée, les problèmes de compatibilité électromagnétique, et les problèmes touchant l'électro sensibilité de certaines personnes.
Nous leurs souhaitons bien du plaisir.
Rappelons cependant que l'abonné peut toujours placer un filtre passe-bas en sortie du compteur pour bloquer les signaux CPL indésirables, et utiliser les signaux disponibles sur la sortie filaire du compteur (Comme sur l'actuel CBE) ou utiliser la liaison radio, pour faire transiter les communications extérieures par le gestionnaire d'énergie du domicile.
Après tout on a toujours le droit d'être allergique aux CPL, et de leur préférer la bonne vieille paire torsadée ou l'imbattable câble coaxial, voire même la fibre optique, et pourquoi pas la liaison radio Zigbee ?
Mais pour cette dernière il faudra se méfier des rayonnements intempestifs qui peuvent bien valoir ceux des CPL…

________________________

Les CPL tout seuls ne pourront évidemment pas tout faire.
Le réseau domestique intègrera les différents systèmes de communication: Radio, Filaire, CP, Fibre optique, Infrarouge.
Les organismes de normalisation travaillent sur l'harmonisation des différentes normes afin d'assurer l'inter opérabilité entre les différents systèmes.
La norme IEEE 1905-1 / Avril 2013, définit les dispositions pour assurer la convergence des différentes normes spécifiques telles que:
IEEE 802-3 / Ethernet
IEEE 802-11 /WiFi
IEEE 1901 / CPL / HomePlug
MoCA / Multimedia over CoAxial.
Et quelques autres…
Afin de garantir à l'usager un niveau acceptable de compatibilité et d'interopérabilité entre les produits du marché.
Affaire à suivre…
________________________

Repost 0
14 août 2016 7 14 /08 /août /2016 19:11

14 Août 2016
Citation:
"L'une des principales limitations liées à la technologie CPL est le rayonnement non intentionnel de signaux électromagnétiques.
Ce phénomène est principalement dû à la nature asymétrique du réseau électrique.
La variation d'impédance des charges connectées au réseau, ainsi que les longueurs inégales des fils de phase et de neutre contribuent à la conversion du signal différentiel CPL en courant de mode commun traversant le réseau.
Dès lors, les fils de cuivre utilisés pour la transmission du signal utile réagissent comme une antenne et une partie de la puissance transmise est rayonnée.
Cela entraîne non seulement une forte atténuation du signal au niveau des récepteurs, mais génère également des problèmes de compatibilité électromagnétique (CEM).
Le signal rayonné peut interférer avec d'autres services existants tels que les communications Radio amateurs et/ou la Radiodiffusion ondes courtes".
Tout est dit dans cet en-tête de la thèse de Amilcar Mesco, présentée en 2013 sous le N° 2013 telb 0288 à l'Université de Bretagne, et portant sur l'étude des émissions électromagnétiques des CPL et des moyens de mitigation.
Travaux réalisés dans le cadre du Lab. RESA/DEAN, "Elecromagnetic Compatibility", ORANGE Labs (ex France Télécom R&D) à Lannion.
_______________________

Les CPL (Courants Porteurs en Ligne) sont utilisés depuis la nuit des temps ( Enfin, presque…) pour acheminer des communications de services à très bas débit binaire sur le réseau de distribution de l'énergie électrique, Haute et basse tension, sans créer de souci majeur au sein des populations, branchées ou pas.
Mais les progrès considérables réalisés dans les domaines des communications numériques ont donné des idées pour l'ouverture d'un marché des communications hautes fréquences sur le réseau domestique de distribution d'énergie.
En effet, les systèmes de codage et de modulation développés pour l'acheminement de la TV numérique, et pour la mise en œuvre du réseau téléphonique cellulaire, se sont révélés tellement performants qu'ils permettent de créer un réseau numérique de communication pratiquement avec n'importe quel support, même de très médiocre qualité.
Et justement, le réseau domestique électrique de distribution d'énergie, c'est bien n'importe quoi du point de vue réseau numérique.
Les travaux lancés dans les années 90 en Amérique, en Europe et au Japon, ont permis de mettre sur le marché des produits CPL permettant des débits binaires de plus en plus élevés.
De 10 Mbps au début, les meilleurs produits d'aujourd'hui affichent jusqu'à 1 200 Mbps, débit nominal théorique, est-il besoin de préciser.
On peut désormais transmettre sur les fils électriques des signaux numériques de la TVHD, de l'Internet, et du Multimédia, et réaliser ainsi un HAN , Home Area Network, dans lequel chaque prise électrique devient potentiellement un "Port" de communication à très haut débit.
Les applications visées étant évidemment le Multimédia incluant la TVHD, l'Internet, le son, la vidéo, et toutes les applications domotiques.
_________________

Les CPL de Grand'Papa, qui ne transmettaient que du très bas débit, se contentaient de fréquences porteuses de quelques dizaines de Kilohertz.
Mais pour transmettre 1 200 Mbps, il faut travailler en VHF.
Aujourd'hui on utilise la gamme 1,6 à 30 Mhz, qui permet de faire passer quelques dizaines de Mégabits par seconde, débit limité par la mauvaise qualité du support et la nécessité de partager la ressource.
(C'est tout ce que permet un réseau électrique domestique moyen, même avec des adaptateurs CPL affichant 200 Mbps et plus).
Pour faire mieux il faut monter en fréquences porteuses, on pense aller vers 80 Mhz, et probablement travailler non plus sur deux fils (Phase et Neutre) mais sur trois fils en mobilisant le fil de Terre pour compenser en partie les déséquilibres du réseau.
Comme indiqué dans la citation en en-tête, le réseau domestique devient un émetteur VHF dont le rayonnement est source de perturbations pour les autres usagers de ces gammes de fréquences:
Radiodiffusion, Radioamateurs, Aéronautique, Police, Armée, etc…
La chasse aux perturbations électromagnétiques devient donc un sport collectif avec ses règles et ses sanctions.
Le maître mot est CEM , Compatibilité Electro Magnétique.
________________

La "bronca" soulevée au sein des milieux des radioamateurs et des utilisateurs de la Radiodiffusion à ondes courtes ne sera pas apaisée par des bonnes paroles, même provenant des organismes comme l'UIT ou l'UER. Des résultats concrets devront être constatés.
Les personnes électro sensibles ne sont pas en reste et n'ont pas tardé à se faire entendre afin que leur cause ne soit pas glissée sous le tapis.
Leur ire est médiatiquement dirigée vers le nouveau compteur LINKY, mais celui-ci ne représente qu'une des sources possibles de perturbations, les principales étant les rayonnements haute fréquences émis par les installations domestiques elles-mêmes, qui trafiquent sur le réseau électrique dans la bande VHF (Bonjour les adaptateurs CPL @ 1,2 Gbps !!!).
Nous devons donc nous attendre à voir pleuvoir des normes imposant des limites drastiques aux rayonnements, limites qui ne pourront être respectées qu'en apportant au câblage électrique et aux matériels connectés des modifications sensibles susceptibles d'impacter la norme NF-C 1500.
_______________________

Les CPL haute fréquence se trouvent alors à la charnière de deux domaines: l'Electrotechnique et les Télécommunications, qui sont régis par des normes et des réglementations spécifiques.
Désormais toute norme émise pour l'un des domaines devra être compatible et complémentaire des normes de l'autre domaine.
_________________________

Les réseaux domestiques CPL sont par nature de la classe des réseaux privés "Indoor" ( Réseaux résidentiels) utilisant des signaux à faible puissance dont le rayonnement est "censé" être de faible portée.
A ce titre il n'est pas exigé d'autorisation préalable à la mise en service, par contre il est impératif de respecter les normes concernant les rayonnements électromagnétiques.
Une installation ne respectant pas les normes CEM sera purement et simplement démontée, sans préjudice des suites juridiques.
Les perturbations apportées ou subies par les CPL sont du ressort de la CEI ( Commission Electrotechnique Internationale) et plus particulièrement du CISPR ( Comité International Spécial des Perturbations Radioélectriques), créé en 1934 et actif dans tous les domaines concernés par la CEM ( Compatibilité Electro Magnétique).
Les CPL sont concernés par les normes CISPR 22 et 24 principalement.
D'autres normes existent concernant des domaines présentant des recouvrements, issues de la CEI, de la FCC (Federal Communication Commission), de l' ISO, et des normes européennes diverses.
__________________

La dernière norme Européenne concernant spécifiquement les perturbations électromagnétiques des CPL indoor hautes fréquence est la EN 50 561-1 publiée au JO du 25/02/2014.
Norme issue des travaux du CENELEC et approuvée par l'UER.
Cette norme spécifie les limites et les méthodes de mesure des perturbations électromagnétiques des appareils utilisant l'installation domestique basse tension comme réseau de transmission dans la gamme de fréquences de 1,6 à 30 Mhz.
Les détails sont disponibles sur le Net.
Il reste maintenant à confronter cette norme aux applications de terrain, et en particulier concernant les nuisances vis-à-vis des autres applications comme la radiodiffusion et les communications des radio amateurs, et à statuer sur le traitement à appliquer aux installations CPL déjà existantes.
___________________

Le réseau domestique est donc appelé à devenir multi services. On peut définir deux grandes catégories d'applications:
- D'une part les applications relatives au "Smart Grid", qui ne nécessitent pas un débit très élevé mais exigent une fiabilité et une qualité de service maximales. Il s'agit par exemple de la gestion des consommations énergétiques de puissance, et particulièrement les installations de charge des batteries de VE, et les installations individuelles de production d'énergie solaire ou éolienne.
- D'autre part les applications multimédia numériques comme la TVHD et Internet, qui ont besoin de très hauts débits binaires, et doivent faire appel à des procédés de codage et modulation très robustes et adaptatifs pour gérer "à minima" les perturbations électromagnétiques dans la bande VHF déjà occupée.
Les deux types d'applications doivent évidemment coexister sur le même réseau, ce qui implique une convergence au niveau des standards, au moins pour les couches basses du modèle de l'ISO.
En particulier au niveau de la cohabitation, de l'interopérabilité, de la rétrocompatibilité, de la gestion des collisions et des priorités, et bien sûr des CEM.
__________________

On imagine sans peine que la coexistence, sur un même réseau physique imparfait, d'une multitude d'applications domestiques incluant la TVHD et Internet, auxquelles viendront s'ajouter les communications CPL du fournisseur d'énergie dans le cadre du "Smart Grid", n'ira pas sans poser de nombreux problèmes de cohabitation et d'interopérabilité, aggravés par la diversité des technologies utilisées par les différents fournisseurs de matériel ( Adaptateurs CPL) ayant choisi des protocoles pas toujours en accord entre eux.
Le protocole le plus populaire est aujourd'hui HPP, Home Plug & Play, supporté par la HomePlug Alliance, créée en 2 000, par association de constructeurs, de distributeurs d'énergie électrique, d'instituts et d'universités (Plus de 80 membres ) pour le développement d'un standard CPL à vocation internationale.
Une première version ( HomePlug 1.0) est sortie en 2001 et depuis, différentes versions sont venues enrichir les possibilités, jusqu'à la version HomePlug AV2 qui affiche un débit théorique de 600 Mbps.
On parle maintenant de débits binaires dépassant 1 200 Mbps, débits théoriques évidemment, avec un réseau non plus à deux fils (Phase et Neutre ) mais à trois fils , le fil de Terre étant utilisé pour la compensation des modes communs.
Le débit pratique dépend de la qualité du réseau et des contraintes de partage de la ressource.
Il existe d'autres protocoles, notamment DHS, Digital Home Standard, issu à l'origine de l'UPA (Universal Powerline Association), créée en 2004, qui est implémenté sur un "Chipset" pas compatible avec certaines versions de Home Plug.
Il existe donc un certain flou au niveau des normes et la nécessité d'harmoniser ce domaine n'a pas échappé aux industriels.
Ces problèmes sont pris en charge par deux projets européens:
Projet OMEGA ( hOME Gigabits Access), lancé en 2008, avec 24 partenaires (Industriels, Opérateurs Télécom, Instituts, Universités). L'objectifs est d'établir les bases d'un réseau très haute fréquence intégrant des technologies multiples: CPL, Radio, Fibre optique.
Ce projet est relayé par un autre projet européen: "Acemind", 2013-2016,
"Advanced Convergent and Easily Manageable Innovative Desing"
basé sur les acquis du projet OMEGA, et dont l'objectif est l'intégration des applications d'usages multimédias et le contrôle des objets connectés.
Y participent: Orange, SAGECOM, Devolo, IHP Microelectronics.
On comprend alors que, dans l'avenir, le réseau électrique domestique devra tenir compte de cette nouvelle fonction de communication hautes fréquences. On ne pourra plus "tirer des fils" n'importe comment, il faudra respecter certaines règles, et peut-être blinder certaines parties du réseau. Les appareils connectés devront respecter le signal CPL afin d'une part de limiter les perturbations électromagnétiques créées, et d'autre part de ne pas introduire de ruptures d'impédance HF excessives, pour préserver les débits binaires.
La norme NF-C 1500 devra comporter un volet relatif à la compatibilité CPL.
_____________________

La situation actuelle des CPL n'est donc pas "gravée dans le marbre", une certaine harmonisation des normes et des protocoles n'interviendra pas avant plusieurs années, notamment pour ce qui concerne les applications "Smart grid" et la convergence vers le concept multisupports (Radio, CPL, Fibre optique, paire torsadée) pour les objets connectés.
En attendant, il nous faudra porter attention à la compatibilité des divers appareils achetés ici et là, et se souvenir que le réseau Ethernet, ce n'est pas mal non plus, de même qu'un bon WiFi.
Comme disait feu ma grand-mère,
c'est dans les vieux pots qu'on fait la meilleure soupe…

Repost 0
2 août 2016 2 02 /08 /août /2016 11:49

2 Août 2016
Nous avons vu précédemment que le remplacement des carburants fossiles dans les transports, essence, gazole, et GNV, se fera sous la forme d'une synergie entre différentes solutions:
- Par la substitution pure et simple des carburants fossiles par des biocarburants de seconde et troisième générations, dans des moteurs thermiques "classiques", grâce aux filières BtL (Biomass to Liquid) et BtG ( Biomass to Gas).
Les véhicules "Flex fuel" en sont la préfiguration.
- Par la croissance de la part de marché des véhicules électriques purs à batteries, qui circulent déjà aujourd'hui.
- Par la croissance de la part des véhicules hybrides à bi motorisation, électrique et thermique, utilisant l'électricité d'une batterie associée à un biocarburant .
- Par le développement des véhicules électriques à Hydrogène et pile à combustible, avec stockage du Gaz dans des réservoirs sous très haute pression, ou à faible pression sur des matériaux adsorbants réversibles.
- Par le développement des véhicules électriques à Hydrogène, ce gaz étant généré in situ à partir d'un biocarburant liquide comme l'Ethanol.
Ces différentes solutions (Et éventuellement d'autres non encore émergentes) sont condamnées à cohabiter avec plus ou moins de bonheur, durant le temps de la transition énergétique à l'issue de laquelle émergeront une ou deux solutions privilégiées par le marché et les impératifs technologiques.
____________________

La clarification de ce futur marché n'interviendra pas avant 2040 dans le meilleur des cas, et il faudra probablement attendre 2050 si le pétrole fait de la résistance, ce qui semble être le cas comme on peut le constater chaque jour à la pompe.
En attendant de connaître le ou les vainqueurs, les constructeurs qui souhaitent rester dans la course, ou y participer comme nouveaux entrants, ne doivent négliger aucune piste et garder plusieurs fers au feu, au besoin grâce à des alliances leur permettant de "manger au bon râtelier" le moment venu.
Quant au consommateur, il lui faudra beaucoup d'abnégation pour supporter ces changements perpétuels de technologies et de normes, avec tous ces plâtres qu'il lui faudra essuyer, et des voitures invendables au bout de trois ans pour crime d'obsolescence.
Les moins patients auront choisi de délaisser l'investissement désormais illusoire, et de s'orienter plutôt vers la location.
_________________

Aujourd'hui en France, le secteur des transports consomme annuellement 50 Mtep de produits pétroliers, ce qui correspond à un total de 70 Milliards de litres de carburants (Essence et Gazole), soit une énergie de 700 TWh environ (10 KWh par Litre).
( 700 000 000 000 KWh).
Qui représentent environ le tiers de la consommation totale d'énergie du Pays, et 40% de plus que la seule consommation d'énergie électrique.
L'énormité du chiffre est souvent sous estimée car ce flot d'énergie n'est pas visible; aucun derrick dans nos campagnes, des raffineries peu nombreuses, un environnement très peu agressé, des circuits de distribution discrets, tout concourt à jeter un voile pudique sur cette orgie de pétrole.
La réalité nous apparaîtra lorsqu'il s'agira de remplacer ce pétrole par des Biocarburants que nous devront fabriquer nous-mêmes, et probablement importer comme nous le verrons plus loin.
Les trois quarts de l'énergie des transports sont perdus sous forme de chaleur dissipée par les moteurs thermiques dont les rendements moyens ne dépassent pas 25%.
Ce formidable gaspillage nous met devant l'obligation de réformer ce secteur, dès lors que l'on prétend mettre en œuvre une transition énergétique efficace.
Il est primordial de viser un rendement énergétique global supérieur à 50% dans le secteur des transports.
Si les Biocarburants sont une solution pour lutter contre l'effet de serre, par contre ils ne contribuent pas à l'amélioration du rendement énergétique.
On pense alors évidement à substituer au moteur thermique le moteur électrique, qui échappe au désastre thermodynamique du moteur à combustion.
La substitution par des motorisations électriques avec batteries, dont le rendement atteint 80 %, ramènerait la consommation énergétique des transports à 16 Mtep (220 TWh), soit trois fois moins qu'aujourd'hui !!
Un tel gain d'efficacité énergétique est sans appel, et montre à l'évidence que l'avenir est à la traction électrique, qui offre le mérite supplémentaire de n'émettre aucun polluant.
Désormais, aucun projet sérieux de transition énergétique ne sera recevable s'il ne comporte pas l'objectif de la suppression à terme des moteurs thermiques.
(Nous disons bien "à terme", car les biocarburants vont leurs donner une seconde jeunesse qui pourra se prolonger longtemps si les problèmes de la traction électrique tardent à se résoudre).
__________________

Le moteur électrique a donc la préférence, mais la quête du Saint Graal comporte bien des embûches, le principal obstacle étant ici celui des batteries.
Les progrès incontestables apportés par les nouvelles batteries n'a pas permis d'obtenir la capacité énergétique spécifique suffisante pour envisager une généralisation du procédé.
Rappelons ici que la capacité énergétique d'une batterie et la puissance maximale qu'elle peut fournir sont des paramètres contradictoires. On ne peut avoir l'un et l'autre, il faut choisir l'un ou l'autre, c'est-à-dire chercher le bon compromis.
Aujourd'hui le compromis s'est établi à 100 Wh/kg pour la capacité des éléments Lithium-ion utilisés dans l'automobile, ce qui donne pour une batterie de 30 KWh un poids de 300 kg, et une puissance max d'environ 60 KW , soit 150 Ampères sous 400 Volts.
(Les moteurs thermiques nous ont familiarisés avec des puissances beaucoup plus flatteuses, supérieures à 100 KW, qui sont hélas inaccessibles avec des batteries de 30 KWh).
Le lecteur familier de la règle de trois aura mis le doigt sur le problème:
Une batterie de 30 KWh qui fournit 60 KW de puissance, sera vidée en une demi-heure!
C'est là le triste sort de la voiture électrique à batterie.
On peut aller vite, mais pas bien loin.
En roulant "pépère" une voiture moyenne a besoin d'une énergie de 15 KWh aux roues motrices pour parcourir 100 km.
Avec 30 KWh, et en gardant le pied léger, très léger, sur l'accélérateur, on peut donc espérer faire 200 km, à condition de pouvoir récupérer une partie de l'énergie du freinage.
De toutes façon l'engin ne sera jamais capable de faire bonne figure devant une voiture moderne à moteur thermique, le fameux test de 0 à 100 km/h est sans appel, même s'il est stupide en soi, c'est la publicité qui l'impose.
Pour permettre aux voitures électriques de ne pas être ridicules vis-à-vis des thermiques qui affichent des puissances deux ou trois fois supérieures, les constructeurs se sont crus obligés de les équiper de moteurs surpuissants tout à fait disproportionnés par rapport aux capacités de la batterie.
Alors on obtient certes des tests de 0 à 100 km/h flatteurs, mais l'autonomie en est drastiquement réduite, au grand dam de certains clients qui se retrouvent en "panne sèche" au bout de 80 km, alors qu'ils espéraient en faire 200, comme c'est écrit dans la notice!
(Ici on peut s'indigner de constater que les constructeurs profitent de l'incapacité des consommateurs non avertis à faire la différence entre un KiloWatt et un KiloWattheure, pour leur faire prendre des vessies pour des lanternes).
En face des 100 Wh/kg d'une batterie "standard" actuelle, le carburant pétrolier affiche 12 000 Wh/kg, ce qui, même en tenant compte du mauvais rendement thermique (25%), donne un avantage de x 40 au carburant liquide.
Bien sûr, moyennant un surcoût substantiel, on peut augmenter la capacité des batteries en les associant à un supercondensateur, ce qui permet d'optimiser la batterie pour améliorer sa capacité spécifique énergétique, les pointes de puissance étant alors prises en charge par le supercondensateur. On peut ainsi quasiment doubler la capacité à poids égal, et passer à 200 Wh/kg, mais au prix d'un supplément de coût significatif.
(Une batterie ne peut pas être optimisée à la fois pour avoir la plus grande capacité, et pour avoir le courant le plus fort, elle est le résultat d'un compromis entre ces deux qualités).
Quelques modèles récents de voitures sont ainsi équipés avec une batterie de 60 KWh associée à un supercondensateur, mais avec un surcoût qui a pour résultat de tirer vers le haut le prix des voitures électriques.
Le ratio de capacité au kg par rapport au carburant liquide est alors ramené à 20, en tenant compte du rendement des moteurs thermiques (25%).
__________________

Un poids de supercarburant de 50 kg (70 Litres) confère une autonomie de 1000 km à une voiture moyenne à moteur thermique, selon les standards actuels.
70 Litres contiennent une énergie de 700 KWh.
Avec un rendement moyen de 25%, l'énergie "utile" est donc de 175 KWh.
Pour avoir la même autonomie avec une voiture électrique à batterie, il faudrait donc que celle-ci délivre à la roue la même quantité d'énergie utile, soit 175 KWh. (A égalité de poids et de dimensions).
Le rendement de la propulsion électrique étant voisin de 80%, l'énergie totale à fournir sera de 218 KWh.
Une batterie au Lithium ne peut être complètement déchargée, 10% de la charge doivent être préservés sous peine de détérioration, ce qui nous conduit à une capacité nominale nécessaire de 240 KWh.
Dans l'hypothèse d'une batterie couplée à un supercondensateur (hypothèse la plus favorable) on peut envisager une capacité spécifique de 200 Wh/kg, ce qui nous donne un poids nécessaire de 1 200 kg pour la batterie.
Ce qui est évidemment absurde pour une voiture particulière, qui se trouverait complètement plombée par cette surcharge.
En effet, sur les voitures électriques particulières, le poids de batterie est généralement limité à 300 kg (le poids de quatre personnes adultes, ce qui est déjà un surpoids considérable), et donc une capacité de 240/4 = 60 KWh, toujours dans l'hypothèse haute d'une batterie couplée à un supercondensateur.
L'autonomie est alors réduite à 250 km, puisque la capacité de batterie est divisée par quatre.
Cette autonomie pourra atteindre 300 km dans les conditions favorables permettant la récupération d'énergie au freinage. Ces conditions existent en agglomération, mais pas sur autoroute, là où l'on en a justement besoin.
C'est ce qu'on peut constater sur les quelques modèles récents équipés de batteries de 60 KWh.
Il est donc impossible, avec la technologie de batteries d'aujourd'hui, d'atteindre une autonomie de 1000 km, ni même la moitié, et de loin.
(Certains dépliants publicitaires peuvent affirmer le contraire, mais les essais en conditions "normales" montrent que les lois de la Physique ne sont jamais violées).
D'autre part, il est vite apparu que l'augmentation des capacités de ces batteries conduirait à des problèmes de puissance des stations de recharge, susceptibles de perturber l'équilibre des réseaux de distribution. Enfin, la généralisation de la propulsion électrique entraînerait une consommation énergétique à hauteur de 250 TWh (Consommations augmentées des pertes de rendement), soit la production de 21 réacteurs EPR, ou encore 17 000 éoliennes offshore de 5 MW, avec les installations de compensation de l'intermittence (STEP) indispensables.
Pour toutes ces raisons cumulées, il semble que la solution tout électrique à batterie restera réservée à une "niche" de véhicules pouvant se satisfaire d'une autonomie réduite (Taxis, véhicules de livraisons à circuits courts, véhicules de transport collectif locaux, véhicules particuliers à usage limité, ou de services publics, véhicules en libre service, véhicules de loisirs, ou de luxe*).
Ce qui pourrait correspondre à une part de marché de 15 à 20%, soit 5 à 7 millions de véhicules en France.
* Nous classons la Tesla dans la catégorie véhicule de luxe, qui sont faits plus pour être exhibés que pour tailler la route.
" Chauffeur, ce soir vous sortirez la Tesla, nous allons au casino…"

_________________

Pour s'affranchir des problèmes liés à la batterie, tout en conservant les avantages décisifs de la traction électrique, les ingénieurs ont imaginé de fabriquer l'électricité dans le véhicule lui-même, à partir d'une pile à combustible, puisque les combustibles liquides ou gazeux ont une capacité énergétique spécifique beaucoup plus grande que celle d'une batterie.
On utilise alors soit de l'Hydrogène, soit un biocarburant comme l'Ethanol.
De tels véhicules roulent déjà sur nos routes.
L'autonomie ne dépend alors plus que de la contenance du réservoir d'éthanol, ou d'Hydrogène.
Malgré quelques pertes de rendement au niveau du vaporeformage de l'Hydrogène et au niveau de la pile, l'efficacité énergétique demeure très supérieure à celle de la motorisation thermique ( la valeur de 60% est généralement avancée).
Le coût de la pile à combustible ne sera pas plus élevé que le coût d'une batterie au Lithium de 60 KWh avec supercondensateur, ce qui en fait une solution compétitive, d'autant plus qu'elle permet de répondre au critère d'autonomie exigée.
___________________

Sur la base de ces considérations on peut tenter de se projeter à moyen terme (2040-2050) pour évaluer la répartition des différentes solutions dans deux ou trois décennies:
La solution à biocarburants liquides avec moteur thermique est de loin la plus simple à mettre en oeuvre puisque qu'elle n'exige aucun saut technologique coté motorisation, et que les biocarburants de première génération (1G) sont déjà disponibles et largement utilisés dans certaines régions du Globe, et en Europe.
La seconde génération (2G) atteint le stade industriel et pourrait être proposée rapidement aux automobilistes.
(La génération 3G est encore en phase de validation).
Compte tenu de cette facilité d'utilisation, mais en tenant compte des problèmes de croissance de la production des carburants 2G et de la concurrence des produits pétroliers toujours disponibles, on peut estimer à 50% la part du secteur des transports convertie aux biocarburants 2G à l'horizon 2040.
Même si on peut le regretter, le moteur thermique ne cédera donc pas facilement le terrain.
On peut également estimer que 20% resteront fidèles aux carburants fossiles, gazole et super ( S'ils existent encore à un prix abordable).
Le pétrole n'est pas prêt de dire son dernier mot.
Les 30% restant seront partagés entre la solution électrique à batterie, et la solution à pile à combustible.
(Cette dernière solution exige encore une longue phase de validation et d'optimisation des rendements et des coûts de fabrication, qui peut s'étendre sur deux décennies).
En gardant toujours présent à l'esprit l'objectif ultime de suppression des moteurs thermiques, mais sans pouvoir en fixer l'échéance.
Par la suite, au-delà de 2050, l'avenir du moteur thermique dépendra d'une part de l'efficacité technico-économique des solutions à pile à combustible, et d'autre part de la disponibilité et du prix des biocarburants de seconde et troisième générations issus de la Biomasse terrestre et aquatique.
____________________

Quelles que soit les prévisions tentées en 2016, l'évolution réelle du marché et sa physionomie en 2050, seront conditionnées par le maintien ou non de la suprématie des combustibles fossiles sur le secteur de l'énergie.
Aucune transition de grande ampleur ne pourra être entreprise tant que le coût du pétrole restera à son niveau actuel de braderie.
Le prix de vente HT du KWh de supercarburant pétrolier est de 5 centimes d'euro ( Extraction, raffinage, distribution, marge), soit 50 centimes HT le Litre environ.
Le reste est composé de taxes ( TICPE et TVA en France).
Compte tenu du rendement des moteurs thermique (# 25%) et de celui de la propulsion électrique à pile à combustible (# 65%), la parité de prix serait obtenue pour un prix de vente HT de 13 centimes d'euro pour le KWh de biocombustible utilisé.
Soit 90 centimes par litre pour de l'Ethanol (prix HT).
(Un litre d'Ethanol contient 7 KWh d'énergie, contre 10 KWh pour du super).
Aujourd'hui le Bioéthanol de première génération est distribué à la pompe à un prix HT encore supérieur à la limite de parité avec le supercarburant. Cette différence est compensée par une réduction des taxes sur les émissions de CO2.
Mais cette première génération est condamnée puisqu'elle utilise des produits de cultures vivrières.
La génération G2, utilisant les résidus lignocellulosiques et des produits de cultures dédiées, est prête pour l'industrialisation, mais l'énergie est produite à un coût très supérieur à la limite de parité.
Cette production devra donc être abondamment subventionnée, sans certitude d'atteindre la parité dans un délai raisonnable.
Il en est bien sûr de même pour la troisième génération, qui en est aujourd'hui au stade des démonstrateurs industriels.
__________________

On constate donc que le pétrole reste toujours le maître du jeu.
Seule une lourde taxe carbone pourrait faire bouger les lignes, mais au prix d'une augmentation très significative du coût de l'énergie pour le consommateur, qui n'est évidemment pas prêt à l'accepter.
Le prix de la transition sera décidément difficile à avaler…
___________________

La véritable volonté des Etats de lutter contre le réchauffement se mesurera aux moyens qu'ils mettront en œuvre pour "plomber" financièrement les combustibles fossiles afin de permettre le déploiement des solutions à énergie renouvelable.
Cette manœuvre nécessitera un grand discernement car il faudra éviter, en "plombant" le pétrole, de plomber aussi l'économie…
Il suffit de constater les difficultés rencontrées en France pour harmoniser les taxes sur les carburants, pour comprendre qu'une action sur le levier des taxes n'est jamais exempte d'effets secondaires non souhaitables.
__________________

Aujourd'hui, avec # 100 % de moteurs thermiques, la consommation est de 700 TWh, pour 70 Milliards de litres.
Dans un futur à moyen terme, et selon les hypothèses proposées plus haut, la répartition en 2040 pourrait être la suivante:
20% Moteurs thermiques, carburants pétroliers inchangés.
50% Moteurs thermiques, Biocarburants( Ethanol, Biodiesel, Bio GV).
15% Moteurs électriques à Batterie.
15% Moteurs électriques à pile à combustible.

Les Biocarburants devraient alors fournir environ 400 TWh, soit l'équivalent de 50 Milliards de litres si l'on tient compte du PCI de l'Ethanol, inférieur à celui du super.
Tous ces chiffres sont évidemment des ordres de grandeur reposant sur des hypothèses de travail, aussi réalistes que possible, mais qui demeurent des hypothèses.
___________________

Les Biocarburants ne seront pas obtenus en creusant quelques puits dans le sol. Il faudra les fabriquer.
Pour savoir d'où sortiront ces milliards de litres, Il est essentiel de dresser un bilan des ressources éligibles de Biomasse, afin de prévoir le degré d'autosuffisance qu'elles pourront garantir au Pays, et mettre sur pied, si nécessaire, des accords de coopération avec les pays susceptibles de compléter nos approvisionnements.
Sans oublier que les transports ne sont pas les seuls consommateurs d'énergie, et que les ressources de la biomasse devront être partagées avec les secteurs de l'Industrie, du résidentiel-tertiaire et de la Chimie.
___________________

L'ADEME et L'INRA se sont évidemment intéressés à la chose, car il est essentiel d'identifier nos possibilités d'indépendance énergétique, celle-ci étant l'un des objectifs du remplacement des énergies fossiles.
Les chiffres ci-dessous sont tirés du rapport de L'INRA:
"Semer aujourd'hui les carburants de demain"
Il faut d'abord oublier les biocarburants de première génération, non conformes à l'esprit de la transition énergétique, qui impose de ne pas porter préjudice aux capacités de production de produits alimentaires, que ce soit sur le territoire national ou ailleurs.
Le seul intérêt des biocarburants 1G est de permettre le rodage d'une filière, d'en voir les avantages et les inconvénients, et de développer les matériels adaptés, que ce soit pour la production ou pour l'utilisation.
_____________________

Les Biocarburants 2G , qui nous intéressent ici, utilisent la matière ligno-cellulosique, considérée comme non concurrentielle vis-à-vis des productions agricoles vivrières, comme les céréales, la betterave, le maïs, les oléagineux consommables.
La 2G utilise en gros les résidus agricoles et les cultures dédiées pratiquées sur des sols infertiles ou délaissés.
Ceci doit être nuancé puisqu'une partie des rémanents agricoles sont utilisés pour le bétail, et une autre partie reste sur le terrain pour contribuer à l'amendement des sols; que serait l'agriculture Bio sans un bon fumier ? On pourrait aussi évoquer une troisième partie utilisée à des fins non agricoles, par exemple dans des matériaux de construction ou d'isolation.
Donc, l'évaluation de la quantité de matière lignocellulosique pouvant être consacrée aux biocarburants doit tenir compte de ces autres utilisations qui ne doivent pas en souffrir.
On ne peut déshabiller Pierre pour habiller Paul.
Cette évaluation doit également tenir compte de la facilité d'accès à la ressource (Récupération, conditionnement, transport, séchage), qui impacte le prix évidemment, lequel ne doit pas plomber de prix de revient du carburant.
Il faudra également évaluer le coût énergétique de ces différentes opérations. Il n'y aurait aucun sens à dépenser un litre de gazole pour produire un litre de Biodiesel !
Ces considérations valent également pour les résidus de sylviculture, qui doivent être évalués en tenant compte des autres usages du bois (Bois énergie, pellets, bois de trituration, de construction, d'ameublement, etc..).
Tenant compte de toutes ces contraintes, le rapport en question évalue la masse de matière sèche lignocellulosique accessible à environ 15 Millions de tonnes par an, en comptant les résidus de l'agriculture et de la sylviculture.
Cette masse pourrait être doublée en ajoutant les cultures dédiées sur les sols non utilisés par l'agriculture "vivrière".
Soit un total de 30 Millions de tonnes MS (Matière Sèche).
Cette évaluation devra être affinée évidemment, mais elle constitue un bon ordre de grandeur.
Toutes les matières sèches lignocellulosiques présentent une composition à peu près semblable quelque soit le produit: C6-H9-O4
Et une valeur énergétique sensiblement constante.
Leur transformation en Biocarburant s'obtient avec un rendement d'environ 20%, soit 200 kg par tonne MS.
30 Mt/MS permettent donc d'obtenir environ 8 Milliards de litres de Biocarburant de densité 0,7.
Dans notre hypothèse ci-dessus, pour alimenter 50% du parc roulant en biocarburants, il nous faudrait 50 Milliards de litres.
La production intérieure de 8 Milliards de litres, telle qu'elle est évaluée ci-dessus, ne représente que 16% des besoins du seul transport, Il faudrait donc importer le reste, soit 84%.
Les autres secteurs, comme le Résidentiel/Tertiaire et l'Industrie, devront également se convertir aux biocarburants, lequel devra être importé en totalité.
Cette évaluation, grossière mais réaliste, donne la mesure du problème à résoudre pour remplacer les produits pétroliers.
La seule exploitation de la matière lignocellulosique disponible sur le territoire national ne suffira pas, et de loin, puisqu'elle ne permettra de couvrir que 4 à 5% des besoins intérieurs.
L'apport des Biocarburants de troisième génération, obtenus à partir de cultures d'algues, atténuera la pénurie mais ne permettra pas combler le déficit, et de loin.
Ces Biocarburants de troisième génération sont en cours de développement depuis plusieurs décennies. Différents programmes soutenus par les Gouvernements et l'Union Européenne ont permis de valider plusieurs voies de fabrication. Quelques unités industrielles sont en cours de validation.
__________________

Le remplacement pur et simple du pétrole par des biocarburants dans des moteurs thermiques, s'il permet de verdir le CO2 émis, n'améliore pas le rendement énergétique.
Le rendement des moteurs demeure minable, voisin de 25%, et la quantité de carburant nécessaire est augmentée de 20% dans le cas de l'Ethanol dont un litre ne contient que 7 KWh contre 10 KWh pour du Super.
Quant au Biodiesel, il présente les mêmes inconvénients que le pétrole, les émissions de Nox sont difficiles à maîtriser.
Ces considérations justifient de s'intéresser à la solution pile à combustible avec moteur électrique.
Le rendement global peut y atteindre 60%, ce qui permet de réduire considérablement la quantité de carburant nécessaire, dans un rapport 2,3,
Ce qui représente une économie de 200 TWh !
___________________

La transition énergétique devra atteindre deux objectifs:
- Supprimer les émissions de CO2 fossile.
- Réduire drastiquement la dépense énergétique.
Dans les transports, il semble bien que le moteur électrique soit un passage obligé, associé à une batterie et/ou une pile à combustible.
Le moteur électrique apporte son excellent rendement et son absence d'émissions polluantes ou de GES.
La pile à combustible utilise un carburant propre de très haute capacité énergétique, garant d'une grande autonomie.
La solution à batterie seule restant dédiée aux applications se satisfaisant d'une autonomie réduite.
La généralisation de ces solutions permettrait à terme d'économiser 400 TWh, de supprimer les émissions de GES , et de s'affranchir des problèmes de pollution générés par les moteurs thermiques, même utilisant des biocarburants.
La solution à batterie seule a montré ses limites, à la fois technologiques, et surtout logistiques à cause des problèmes de recharge de batteries de très grandes capacité.
Reste la solution à pile à combustible, qui peut constituer une planche de salut pour l'après pétrole.
Mais le combustible en question, obligatoirement renouvelable, devra être majoritairement importé, ce qui ne va pas dans le sens de l'indépendance énergétique.
Mais peut-on faire autrement ?

Repost 0