Overblog Suivre ce blog
Administration Créer mon blog
16 mars 2011 3 16 /03 /mars /2011 19:10

16 Mars 2011


Le CO2 a jusqu’à présent constitué la cible préférée dans la campagne contre le réchauffement climatique. Deux grands axes ont été tracés pour mener à bien ce combat:


D’une part, réduction drastique des consommations de sources d’énergie fossile carbonée et optimisation des rendements des moteurs et chaudières utilisant ces énergies. Les actions les plus spectaculaires étant la règlementation des émissions de CO2 et le développement de la voiture électrique.


D’autre part, développement des applications utilisant des énergies propres et durables. Essentiellement solaire thermique et photovoltaïque, et éolien.


Pour accompagner ces deux programmes industriels visant à combattre le CO2 à sa source, et ainsi réduire le taux d’accroissement de sa concentration dans l’atmosphère, deux axes complémentaires de recherche ont été privilégiés:


En premier lieu un programme d’encadrement des applications utilisant l’énergie de la biomasse ( Bois essentiellement ), donc intégrant le cycle naturel du carbone, programme visant à améliorer les rendements et à réduire les émissions polluantes.


En second lieu, un ensemble de programmes de recherche orientés vers la capture et la séquestration du carbone ( CSC).


A travers ces programmes, de nombreux secteurs de la recherche et de l’industrie se trouvent ainsi mobilisés sur des actions pluriannuelles motivées par la lutte contre le CO2.


Mais ce gaz , bien qu’étant considéré comme le principal facteur anthropique du réchauffement climatique, n’est pas le seul en cause.


D’autres composés gazeux, également d’origine partiellement anthropique, et présents dans l’atmosphère, sont impliqués dans les phénomènes climatiques ainsi que dans la pollution atmosphérique.


Parmi eux se trouvent  le dioxyde de soufre SO2, alias anhydride sulfureux, et le dioxyde d’azote NO2.


Ces deux compères ont la fâcheuse tendance, en présence d’eau, à donner de l’acide sulfurique (vitriol) et de l’acide nitrique ( acide azotique), tous deux violemment toxiques. Ces acides se forment soit dans l’atmosphère, soit dans les poumons des individus qui ont la malchance de se trouver là.


Ils sont, entre autres dégâts, à l’origine des pluies acides de sinistre réputation. Rappelons que ces pluies détruisent la végétation et provoquent une acidification des océans, ce qui porte un préjudice grave au plancton (qui fabrique notre oxygène) , aux organismes à coquilles calcaires ( dont les barrières coralliennes), et au cycle de solubilité du CO2 dans l’eau.


En plus de ces dégâts, qui suffiraient en eux-mêmes à justifier une lutte sans merci, ces gaz sont des précurseurs d’aérosols sulfatés qui constituent d’excellent noyaux de condensation notamment pour les brouillards toxiques. Le NO2 participe de plus aux réactions atmosphériques qui donnent l’Ozone.


Ces brouillards, dopés à l’acide sulfurique et à l’acide nitrique, sont à l’origine de plusieurs dizaines de milliers de morts chaque année.


Une raison supplémentaire de leur faire la guerre.


Mais, car il y a toujours un mais,


Etant à l’origine de noyaux de condensation, on leur doit une  partie des formations nuageuses de la basse troposphère, nuages qui ont la propriété de faire baisser la température, par des mécanismes assez mystérieux dont seuls les spécialistes pourraient nous dévoiler les arcanes.


Toujours est-il que, par ce biais, ils acquièrent un statut de gaz climato-influents, donc à manipuler avec précaution.


Le SO2 naturel provient essentiellement du volcanisme, et de la végétation. Par exemple le Phytoplancton est à l’origine de sulfure de diméthyle, qui s’oxyde en SO2.


En version anthropique, le SO2 est issu des transformation de produits soufrés dégagés par la combustion des combustibles fossiles (spécialement du charbon) et des raffineries. Des sulfures proviennent aussi du fumier animal, et de certaines industries ( pâte à papiers ).


L’augmentation du taux de SO2 dans a suivi la croissance de l’activité industrielle. Le pic est apparu en 1970-80, suivi d’une décrue due aux mesures de dépollution mises en place à cette époque.


Actuellement la production est repartie à la hausse, en rapport avec le décollage industriel de la Chine, accompagné de la mise en service de nombreuses centrales au charbon.


On notera le facteur d’accroissement de 70 fois par rapport à 1850, à rapprocher de celui du CO2, qui est de 1,25 «seulement» .


NO2 est surtout d’origine anthropique, issu des combustions ( transports, centrales au fuel et au charbon, incinérateurs), et des décompositions.


En tant que précurseurs d’aérosols, SO2 et NO2 sont impliqués dans la formation des couches nuageuses, et donc du climat.


L’effet de serre conduit à un équilibre radiatif entre les différents gaz de l’atmosphère. Si l’on modifie significativement la concentration de l’un des gaz actifs, l’équilibre est rompu, dans un sens qu’il est très difficile de prévoir exactement.


Certains experts estiment qu’il est hasardeux de chercher à réduire fortement SO2 et NO2 car leurs modèles indiquent que leur effet sur la température peuvent être contraire à celui du CO2.


La stratégie à propos des dioxydes de soufre et d’azote n’est donc pas évidente, il est souhaitable de chercher à en savoir plus avant d’agir.


La première démarche consiste à évaluer avec précision les rôles respectifs des GES dits « secondaires » dans la variation de température moyenne du globe, et particulièrement ceux qui participent au processus de nucléation.


Ce processus de nucléation devra être étudié dans ses effets sur la formation des couches nuageuses de la basse troposphère, et donc sur les variations de température.


Dans ces études on peut inclure le projet CLOUD ( Cosmics Leaving Outdoor Droplets) qui se propose d’analyser l’influence des rayons cosmiques galactiques sur le processus de nucléation autour des aérosols sulfatés. Il s’agit de chercher à mettre en évidence l’influence des rayons cosmiques sur la température moyenne du globe, par l’intermédiaire de ces gaz considérés jusqu’à présent comme de simples polluants à éliminer.



 


 


 


 


 


 



 


 


 


 


 


 


 


 


 


 


 


 


 


 


 

 
Repost 0
14 mars 2011 1 14 /03 /mars /2011 18:48

13 Mars 2011


Nous venons donc de recevoir coup sur coup deux faire parts lourds de signification.


Le premier nous confirme de manière ô combien tristement démonstrative que l’énergie nucléaire est bien une source de risques majeurs.


Le second nous informe que les réserves d’énergies fossiles carbonées sont beaucoup plus importantes que prévu, grâce aux gaz de schistes.


Les dangers de l’énergie nucléaire étaient déjà connus bien entendu. On évoque toujours  les cas de « Three mile island » et de « Tchernobyl », en insistant sur les causes essentiellement techniques et humaines, donc susceptibles d’être corrigées. En effet chaque accident permet normalement d’en apprendre davantage sur les risques et de corriger les procédures et les règles de sécurité appliquées dans la conception et l’usage .


La catastrophe actuelle qui frappe le Japon est d’une autre nature. Ici pas de faute technique et pas d’erreur humaine, seule la Nature est à l’origine du drame.


On peut quand même se demander s’il était bien raisonnable de construire des centrales nucléaires au bord de la mer ( quasiment les pieds dans l’eau) dans un pays connu pour sa très forte séismicité , et à 250 kilomètres en face d’une énorme faille  active sous-marine qui encaisse l’affrontement de deux plaques tectoniques dont les mouvements capricieux sont bien connus.


Le Japon étant un pays développé et civilisé, on peut en conclure que les décideurs d’un grand pays à la pointe du progrès sont parfaitement capables de se conduire de manière déraisonnable.


Et c’est cela  qui fait le danger du nucléaire.


On peut à la rigueur prendre des décisions déraisonnables dans des actes courants qui ne peuvent entraîner de catastrophes, mais le nucléaire ne souffre aucune approximation. Il ne doit pas être mis entre les mains de personnes capables de construire une centrale les pieds dans l’eau et en face d’une faille active, sous-marine ou non.


Dès lors que de tels usages inconsidérés sont possibles, le nucléaire devient effectivement un danger pour l’Humanité.


Il sera facile maintenant d’obtenir que les programmes de prolongation de vie des centrales existantes soient remis en question, à tout le moins fortement encadrés.


Pour l’opinion, entre un excès de CO2 et Fukushima, le choix sera vite fait.


Dans ce contexte, la découverte des gaz de schistes dans nos contrées jusqu’ici dépourvues de la précieuse denrée, peut être vue comme une aubaine de nature à nous conférer une certaine indépendance énergétique, et une solution de rechange nous permettant d’envisager sereinement le retrait progressif du nucléaire.


Nous n’échapperons pas à un chantage pervers, les gaz de schistes en échange de l’abandon du nucléaire. Nul doute que la proposition sera considérée sérieusement de part et d’autre.


Il est donc fort probable que nous finirons, bon gré mal gré, par aller le chercher, ce gaz de schiste, pour obtenir de voir le spectre nucléaire s’éloigner.


Et peut-être aussi qu’en fin de compte, nous aurons les deux, mais ceci est une autre histoire….


Si le gaz de schistes devient effectivement un substitut, même partiel, du nucléaire, ses émissions de CO2 viendront grossir les volumes déjà rejetés par les usages classiques des autres énergies fossiles carbonées.


Il devient donc de la plus grande importance de s’occuper sérieusement du sort de ce CO2, puisqu’il semble admis que les énergies renouvelables propres ne pourront pas prendre la relève avant longtemps, et que la consommation globale d’énergie ne baissera pas significativement.


Les programmes de capture et séquestration du carbone reviennent alors sur le devant de la scène.


Si toutefois le taux de CO2 atmosphérique demeure un paramètre mondialement critique, mais n’anticipons pas…..


Repost 0
14 mars 2011 1 14 /03 /mars /2011 16:52

14 Mars 2011


On croyait avoir tourné une page. La planète avait pris acte que l’ère des énergies fossiles était sur le point de se clore, pour deux impératives raisons: D’une part les réserves étaient annoncées comme quasiment épuisées, et d’autre part le réchauffement climatique alarmant imposait de réduire drastiquement les émissions de CO2.


Une aube nouvelle se levait sur un monde plus propre, moins énergivore, converti aux sources propres et renouvelables. Nos enfants se voyaient instruits dans la haine du dioxyde de carbone et le culte du solaire et de l’éolien. Nos industriels se voyaient fermement incités à développer telle filière photovoltaïque, nos champs étaient promis à se couvrir de modernes moulins à vent, et le mazout de nos chaudières remplacé par des granulés de bois. Même les déchets biologiques étaient appelés à participer à la fête écologique, tant l’enthousiasme était partagé. Et bien sûr nos autos rouleraient désormais au KWh et non plus à l’essence.


Et puis les dures réalités de l’existence sont venues tempérer quelque peu ces bonnes résolutions. On a « découvert » que le système socio-économique planétaire est une très très grosse machine qui ne se manœuvre pas aisément.


« Je vous le répète, il est plus facile à un chameau de passer par un trou d'aiguille, qu’à un Chef d’Etat français de changer l’économie chinoise ».


( Pardon pour cet emprunt irrespectueux).


Notre planète est un système à la fois ouvert et fermé. Ouvert au sens thermodynamique du terme, puisqu’il reçoit la formidable énergie du Soleil, qui le fait vivre, et la renvoie vers l’espace après usage. Mais il est par ailleurs fermé, au sens de l’espace vital et des ressources disponibles.


Le caractère ouvert du système induit une perpétuelle recherche d’équilibre thermodynamique. Ce principe, enseigné dans les écoles, s’est brutalement rappelé à notre bon souvenir à travers le réchauffement climatique. De cette affaire nous avons tiré deux enseignements:


D’abord nous avons pris conscience que notre globe est une machine thermique, et que nous avons une part de responsabilité dans la marche de cette chaudière.


Secondement il nous est apparu évident que la chaudière est une installation collective. Elle ne peut être conduite qu’avec le concours de tous . Les actions locales sont sans effet.


Quant au  caractère fermé de notre système, il apparait dans les limites de notre espace vital et des ressources disponibles. Nous vivons dans un bocal dont les parois ne sont pas extensibles. Ce bocal contient une quantité limitée de ressources potentielles, cette limitation impose une borne thermodynamique à l’extension de la biosphère.


cette borne n’est pas encore atteinte, bien que certains soient d’un avis contraire.


Si elle est encore éloignée, il n’en demeure pas moins que c’est, en grande partie, grâce à une recomposition de cette biosphère au profit de plus en plus exclusif de l’espèce humaine. Les atteintes à la biodiversité sont de plus en plus manifestes, notre espèce ne peut plus développer


son espace vital qu’au détriment des autres espèces.


En effet , le système planétaire est un système dynamique. Il ne connait pas la stabilité. La biosphère, en tant qu’organisme vivant, ne peut que se développer ou mourir, selon l’énergie qu’elle reçoit.


Ce développement peut s’accomplir selon différents rythmes. De même qu’un végétal se développe plus ou moins vite selon les arrosages et l’engraissement, la biosphère dans son ensemble croît selon les apports énergétiques.


Jusqu’à une époque récente, la biosphère ne recevait que l’énergie du Soleil, grâce à laquelle son développement fut lent mais régulier.


Depuis la découverte des énergies fossiles, le développement s’est accéléré comme chacun sait. Cet « engrais » fortement carboné a perturbé gravement le cycle naturel jusqu’à l’apparition d’un phénomène d’emballement, bien connu des thermodynamiciens.


On peut désormais parler d’explosion de la biosphère humaine, tant les facteurs de croissance sont devenus excessifs. Chacun les a en tête, l’explosion démographique, la consommation énergétique frénétique, l’épuisement des ressources naturelles, la pollution, les atteintes à la biodiversité, etc….


La chaudière s’est emballée.


Le remède paraît évident: couper l’arrivée du carburant.


Hélas, les choses ne sont pas aussi simples.


La biosphère humaine n’est pas homogène. Il n’y a pas UNE Humanité, mais DES Humanités, dont les conditions de vie sont très éloignées, et le plus souvent antagonistes. Certaines doivent leur prospérité à la misère des autres, les parts du gâteau sont loin d’être égales. Les intérêts des uns ne sont pas ceux des autres. De quel droit les uns, les nantis, chercheraient-ils à imposer aux autres, les laissés pour compte, des restrictions qu’eux-mêmes refusent de s’appliquer ?


Bref, c’est l’impasse.


Les courbes de consommation d’énergie continuent de grimper vers des sommets vertigineux, et aucun «Deus ex machina» ne vient apporter la solution du troisième acte.


On a pu croire un moment que l’épuisement naturel des énergies fossiles allait mettre tout le monde d’accord. Plus d’engrais, plus de croissance, plus de CO2, plus de pollution. Le problème disparaissait de lui-même. Certes, d’autres problèmes seraient survenus, mais bon, chaque chose en son temps.


Mais c’était sans compter avec l’acharnement des pourvoyeurs d’énergie. Vous pensiez que la cuve était vide ? Que nenni, ils ont dégoté d’immenses stocks de derrière les fagots.


Ce sont les désormais fameux gaz de schistes.


La mèche lente, que l’on croyait en passe de s’éteindre, vient de se rallumer et nous sommes ramenés au cas précédent, il faut tout reprendre à zéro.


Nous voici donc confrontés avec le cortège habituel des nuisances accompagnant  ce genre de prospection: Destruction des paysages, pollution des nappes phréatiques, troubles de voisinage, atteintes à la faune et à la flore, pollution atmosphérique.


Et bien entendu, revoilà notre dioxyde de carbone qui reprend du poil de la bête. Et il paraît qu’il y en a partout et en grandes quantités.


Notre société va donc se voir confrontée à la nécessité de faire des choix.


Plusieurs grandes options devront être considérées:


- Programme de réduction drastique de consommation d’énergie.


Non pas seulement des incantations ou des exhortations, mais des mesures à caractère incitatif et/ou règlementaire. Par exemple des mesures tarifaires et/ou des quotas, des coupures ou des restrictions organisées, voire même taxation des gaspillages.


- Programme ambitieux de développement des énergies nouvelles.


- Maintien ou non du programme nucléaire.


- Taxe carbone.


- Décision sur les gaz de schistes.


- Politique claire et pérenne sur le mix énergétique.


En France, ces choix conditionneront les orientations politiques de la prochaine élection présidentielle.



 


 


 

Repost 0
11 mars 2011 5 11 /03 /mars /2011 17:30

11 Mars 2011


Nos automobiles sont maintenant équipées de climatiseurs, personne aujourd’hui ne songerait à acquérir une voiture neuve qui en serait dépourvue.


Ces dispositifs ont longtemps fonctionné avec un fluide réfrigérant ( le R12 ) à la fois toxique, mauvais pour la couche d’ozone, et très actif comme gaz à effet de serre.


Le circuit de climatisation contient environ 800 g de fluide frigorigène. La destinée de ce fluide est de s’évaporer tôt ou tard dans l’atmosphère, à cause des fuites qui ne manquent jamais de se produire au fil du temps.


Lorsque les projecteurs de l’actualité se sont braqués sur l’effet de serre et le réchauffement climatique, puis sur la couche d’ozone, les suspects ont vite été débusqués. Les fluides de nos voitures en font partie.


Pour caractériser un produit dans sa contribution à l’effet de serre, on a défini un indice, le PRP ( Potentiel de Réchauffement Planétaire) ou en anglais GWP ( Global Warning Potential).


On a fait de même pour la couche d’Ozone, avec le PDO ( Potentiel de Déterioration de la couche d’Ozone).


Le PRP du CO2 est de 1 par définition.


Le PRP du R12 est de 14 000.


Le R12 a donc été banni , pour être remplacé par le R134a, plus respectueux de l’atmosphère. Il est utilisé aujourd’hui.


Et puis les exigences de la lutte contre l’effet de serre sont devenues plus sévères, et le R 134a , avec un PRP de 1 410, a été à son tour banni.


Dès Janvier 2011 nos voitures sont censées être livrées avec un réfrigérant dont le PRP est inférieur à 150.


Le challenge est sévère, car le fluide doit être également non agressif pour la couche d’ozone, peu ou pas inflammable et non toxique.


L’échéance a été reportée d’un an au moins, car l’industrie n’est pas prête.


D’ici là nos voitures continuent de recevoir du R134a.


Les fluides de remplacement ne sont pas nombreux. Il existe en fait deux voies possibles:


Soit concocter dans les labos des composés mystérieux qui satisferont à peu près la norme. C’est le cas d’un certain R1234yf non encore disponible, qui aurait un PRP de 4.


Soit franchir le pas et utiliser un fluide irréprochable, devinez lequel, le CO2.


En effet, le dioxyde de carbone possède un indice PRP égal à 1, il est sans effet sur la couche d’ozone, il n’est pas inflammable, et il est non toxique.


Seul ennui, il est difficile à utiliser en réfrigération.


Une climatisation au CO2 doit fonctionner à très haute pression , 140 bar en sortie de compresseur contre 15 ou 20 avec le R134a ; très haute température, 160 °C contre 70 ou 80 °C avec R134a.


En sortie d’évaporateur on doit être encore à 40 bar et 30 °C , contre beaucoup moins actuellement.


Tout ceci se traduit par un coût plus élevé , au moins + 30%, et une plus grande fragilité. Prévoir de nombreuses interventions.


Les constructeurs allemands ont fait le choix du CO2 malgré la difficulté technique et le coût ( sur une AUDI ou une MERCEDES, quand on aime on ne compte pas).


Ce choix est également motivé ( on peut le penser) par l’arrivée prochaine de la voiture électrique.


Sur un engin électrique, il n’y a pas de radiateur de refroidissement, donc pour le chauffage de l’habitacle en hiver il faut trouver une solution.


La climatisation au CO2 apporte cette solution car les températures atteintes permettent aisément de chauffer les pieds des passagers…..


Il y aura donc un seul système, soufflant le froid ou le chaud, au choix.


Ce CO2 que l’on met au travail pour souffler du froid, quelle revanche….


Repost 0
9 mars 2011 3 09 /03 /mars /2011 18:18

9 Mars 2011


Rappelons que la loi HADOPI a pour but de lutter contre les téléchargements illégaux sur internet.


Le dispositif tarde à se mettre en place car les moyens d’établissement du délit, qui doivent être juridiquement inattaquables, n’existent pas encore.


La première démarche a été marquée par le décret de création du délit, faute de quoi aucune poursuite ne pourrait être engagée.


En voici le texte:



[« Décret n° 2010-695 du 25 juin 2010 instituant une contravention de négligence caractérisée protégeant la propriété littéraire et artistique sur internet

Art.R. 335-5.-I. ― Constitue une négligence caractérisée, punie de l'amende prévue pour les contraventions de la cinquième classe, le fait, sans motif légitime, pour la personne titulaire d'un accès à des services de communication au public en ligne, lorsque se trouvent réunies les conditions prévues au II :

« 1° Soit de ne pas avoir mis en place un moyen de sécurisation de cet accès ;

« 2° Soit d'avoir manqué de diligence dans la mise en œuvre de ce moyen.

« II. ― Les dispositions du I ne sont applicables que lorsque se trouvent réunies les deux conditions suivantes :

« 1° En application de l'article L. 331-25 et dans les formes prévues par cet article, le titulaire de l'accès s'est vu recommander par la commission de protection des droits de mettre en œuvre un moyen de sécurisation de son accès permettant de prévenir le renouvellement d'une utilisation de celui-ci à des fins de reproduction, de représentation ou de mise à disposition ou de communication au public d'œuvres ou d'objets protégés par un droit d'auteur ou par un droit voisin sans l'autorisation des titulaires des droits prévus aux livres Ier et II lorsqu'elle est requise ;

« 2° Dans l'année suivant la présentation de cette recommandation, cet accès est à nouveau utilisé aux fins mentionnées au 1° du présent II.

« III. ― Les personnes coupables de la contravention définie au I peuvent, en outre, être condamnées à la peine complémentaire de suspension de l'accès à un service de communication au public en ligne pour une durée maximale d'un mois, conformément aux dispositions de l'article L. 335-7-1. »]

Fin de citation.


Le texte précise donc clairement qu’une poursuite ne peut être engagée que si l’auteur présumé du délit s’est vu recommander, par la Commission de protection des droits, la mise en oeuvre d’un moyen de sécurisation.


Aujourd’hui , la Commission de sécurisation n’est pas en mesure de proposer un moyen de sécurisation labellisé.


Voici les informations disponibles sur le site HADOPI ( rubrique FAQ ):


[« Qu'est-ce que le label Hadopi moyen de sécurisation ?


Dans les prochains mois, ce label vous permettra d’identifier facilement les moyens fiables pour sécuriser votre accès internet. Ce label est un service d’information. Vous n’avez pas l’obligation d’utiliser les logiciels labellisés. Vous restez donc libre de faire votre choix parmi les offres existantes.


Existe-t-il une liste des moyens de sécurisation labellisés ?


Cette liste est en cours d’élaboration. Vous pourrez la consulter sur le site internet de l’Hadopi.


Nous vous invitons donc à vérifier ultérieurement sa parution en consultant notre site internet.


Quelle est la différence entre un moyen de sécurisation et un moyen de sécurisation labellisé ?


Un moyen de sécurisation labellisé devra respecter des critères précis en matière de protection de l’accès internet.


Nous vous conseillons donc de vous orienter vers ces produits lorsqu'ils seront disponibles.


Cependant, vous avez toujours la possibilité d’opter pour des moyens de sécurisation non labellisés. »]


Fin de citation.


Les moyens de sécurisation fiables labellisés n’étant donc pas encore disponibles, l’usager ne peut se voir poursuivi pour un délit contre lequel il n’a pas les moyens  de se protéger.


Pour l’instant donc les usagers sont à l’abri des poursuites, ils ne peuvent recevoir que des avertissements, ce dont la plupart se moquent éperdument. D’autant qu’il existe d’autres moyens que le P2P pour télécharger des œuvres.


70 à 80 000 mails d’avertissement auraient déjà été envoyés, dont l’efficacité n’est pas encore mesurable.


L’Hadopi est parfaitement consciente de la faiblesse de sa position.


Les moyens  de sécurisation des accès internet (commercialisés par les éditeurs de logiciels) devront être labellisés par l’Hadopi pour obtenir leur certification.


Il s’agit de vérifier que le logiciel est conforme à un cahier des charges établi par l’expert désigné par l’Hadopi. Cet expert ( M.Riguidel) travaille sur ce cahier des charges depuis déjà deux ans et n’est pas encore en mesure aujourd’hui de proposer une version acceptable par la profession.


Trop de failles sont encore présentes et les difficultés d’implémentation sont trop grandes. De nombreuses dispositions techniques prévues sont des violations de l’espace privé inacceptables.


En clair, l’Hadopi est dans une  impasse. Pour essayer d’en sortir elle a décidé de remettre tout à plat et de créer des « Labs » chargés de faire le point des différents secteurs impliqués dans cette affaire.


Deux Labs concernent particulièrement le cahier des charges en question:


Lab « Réseaux et techniques »


- Spécifications fonctionnelles des moyens de sécurisation.


- Techniques de filtrage.


Lab « usages en ligne » , dont l’intitulé est éloquent.


Le téléchargement illégal est un réel problème; son éradication semble impossible sans porter atteinte aux libertés individuelles, ce qui ne sera pas toléré.


Une solution moins envahissante consisterait d’une part à mettre en place une campagne de sensibilisation, et d’autre part à promouvoir des structures de commercialisation des œuvres qui préservent équitablement les droits des auteurs et les intérêts des utilisateurs.


Peut-être également faudrait-il, avant de s’en prendre aux utilisateurs , inciter les acteurs de la filière à développer des produits et des matériels plus sécurisés. ceci englobe :


- Les ordinateurs.


- Les système d’exploitation.


- Les logiciels de navigation.


- Les logiciels de sécurisation.


- Les protocoles de communication, en particulier IP.


- Les protocoles de liaison sans fil.


- Les DRM


Etc….


Tout ce beau monde est rempli ( volontairement ou non) de failles de sécurité contre lesquelles l’utilisateur lambda est complètement démuni.


Il n’est pas normal qu’un utilisateur mal intentionné puisse prendre le contrôle d’un ordinateur sans l’accord de son propriétaire. Or aujourd’hui cela peut se pratiquer sans difficulté, avec du matériel et des logiciels commercialisés légalement.


D’autre part on ne peut pas exiger d’un utilisateur courant qu’il soit un informaticien expert, capable de détecter lui-même les intrusions malveillantes et de s’y opposer.


Peut-être pourrait-on également demander aux professionnels du net de mettre un peu d’ordre chez eux. Mais cela est-il possible sans une certaine violation des droits de l’individus ?


Affaire à suivre…..



 


 


 


 


 


 

Repost 0
7 mars 2011 1 07 /03 /mars /2011 15:19

L’étrange « soutien » à la filière photovoltaïque.



7 Mars 2011


Les « fermes » solaires photovoltaïques commencent à fleurir ici et là sur notre territoire. Ces installations sont édifiées soit directement au sol, soit sur de grandes toitures ( centres commerciaux, vastes hangars, ou « ombrières » de parkings).


Aujourd’hui ces constructions sont des «danseuses», au sens de la rentabilité commerciale. Le prix de revient de l’électricité produite est beaucoup plus élevé que le tarif public, la parité réseau est encore très loin. Il ne peut donc y avoir de retour sur investissement  dans des conditions normales de commercialisation.


Pour soutenir le développement de la filière photovoltaïque, le gouvernement a mis en place un système de subvention qui transforme les installations non rentables en placements financiers intéressants.


Le retour sur investissement est alimenté par les abonnés EDF, qui sont taxés de la CSPE ( Contribution au Service Public de l’Electricité ). Il s’agit clairement d’un impôt destiné à soutenir le développement de la filière photovoltaïque française et créer des emplois dans cette nouvelle industrie. Rien de plus normal.


On pourrait penser que, pour soutenir la filière française, il faut acheter des produits français, et que tout projet d’installation PV comporte l’obligation d’acheter français pour être éligible à la subvention.


Eh bien il n’en est rien !


La centrale de Sainte-Tulle, 70 000 modules, 5,24 MWc, démarrée en 2010, utilise des panneaux FIRST SOLAR, société américaine.


La centrale de Vinon-sur-Verdon, 18 900 modules, 4,2 MWc, démarrée en 2009, utilise des panneaux YINGLI SOLAR, société chinoise.


La centrale de Malvési, 95 000 modules, 7 MWc, démarrée en 2008, utilise des panneaux FIRST SOLAR, déjà citée.


La future centrale de Bordeaux, 60 000 modules, 12 MWc, démarrage prévu en 2012, utilisera des panneaux SUN TECH, société chinoise.


Les abonnés EDF sauront donc maintenant à quoi servent les sommes prélevées sur leurs factures à la ligne CSPE.


Dans le même temps, l’entreprise française PHOTOWATT , qui a développé la technologie complète d’intégration photovoltaïque, et possède des capacités de fabrication de 100 MW/an, doit licencier la moitié de son personnel car elle n’est pas en mesure de lutter contre la concurrence chinoise sur le marché des panneaux PV.


Sans commentaire…..



 


 


 

Repost 0
6 mars 2011 7 06 /03 /mars /2011 15:31

5 Mars 2011


Nous avons donc entrepris de couvrir nos toits de panneaux photovoltaïques afin de sacrifier à la mode des énergies renouvelables.


La démarche est noble et respectable, bien que souvent entreprise avec une arrière-pensée spéculative peu recommandable, et d’ailleurs souvent illusoire ( ceux qui savent calculer un prix de revient me comprendront).


Ces installations de haute technologie, fort onéreuses,  récupèrent une partie de l’énergie solaire avec un rendement global qui dépasse rarement 10%.


Ces micro-centrales sont établies pour plusieurs dizaines d’années, c’est du moins la longévité annoncée par les experts de la chose.


Techniquement, 10% de rendement, çà ne vaut pas un pet de lapin, même en considérant que le Soleil est gratuit.


Heureusement la technologie évolue. Les procédés photovoltaïques se perfectionnent, et sans entrer dans les détails, on peut affirmer que les rendements électriques seront multipliés par trois dans les dix ans qui viennent. De plus, les futurs capteurs solaires utiliseront la cogénération en récupérant la chaleur en excès, ce qui permettra d’obtenir des rendements globaux proches de 70% avant la fin de la décennie. Le marché mondial étant énorme, les prix baisseront rapidement.


Aujourd’hui la menace de pénurie d’énergie est théorique, on l’enseigne dans les écoles comme une maladie en phase d’incubation, mais l’épidémie n’est pas encore déclarée.


En 2020-2030 il en sera autrement. L’énergie sera devenue une denrée rare, donc chère. L’autonomie énergétique ne sera plus seulement une posture écologique, mais une nécessité.


D’autre part, si le rôle du CO2 anthropique dans le réchauffement climatique est confirmé ( ce dont certains doutent encore), il faut s’attendre à un déploiement de mesures dissuasives contre l’usage des énergies fossiles carbonées, du type taxe carbone, quotas énergétiques, impôt énergie, etc… 


A cette époque la technologie permettra le captage de l’énergie solaire avec un rendement global six ou sept fois supérieur à celui d’aujourd’hui, et la parité réseau sera atteinte depuis longtemps.


On peut se demander alors quel pourra être le sens de ces « vieilles » installations qui encombreront les toits avec des rendement minables.


Il est probable que bon nombre de ces reliques seront démontées avant dix ans et remplacées par des solutions plus modernes permettant une réelle autonomie énergétique.


Les surfaces disponibles pour le captage domestique de l’énergie solaire devront être utilisées le plus efficacement possible.


Aujourd’hui, 25 m2 de panneaux PV fournissent environ 2 500 KWh/an, tout juste de quoi fournir l’eau chaude sanitaire. Demain, avec 70% de rendement, la même surface fournira plus de 17 MWh/an, c’est-à-dire de quoi satisfaire l’ensemble des besoins énergétiques, incluant le chauffage.


De quoi annuler définitivement ses factures d’énergie, et échapper à la taxe carbone comme aux quotas énergétiques.


Les panneaux solaires hybrides PV/T existent déjà et sont proposés sur le marché par différents fabricants, Solar Energy Systems, Conserval Engineering, etc… Ils deviendront la norme dans les installations performantes.


L’autonomie énergétique effective ne pourra être obtenue qu’avec l’appoint d’un système de stockage de l’énergie produite en période diurne. De nombreux travaux sont en cours pour développer et industrialiser de tels systèmes de stockage. On connaît bien sûr l’accumulateur électrique, dont les versions Lithium-ion développées pour l’automobile pourront être utilisées dans les applications domestiques. Il est également possible de stocker la chaleur dans des matériaux à changement de phase ( MCP ) qui possèdent une capacité de stockage très supérieure à celle des matériaux habituels. On peut citer en exemple les microcapsules E-STOCKER de la société KAPLAN ENERGY, qui offrent une capacité 13 fois supérieure à celle de l’eau ( 2 000 J/Kg/ K ).


Les installations photovoltaïques actuelles, à très faible rendement, sont donc appelées à disparaître au profit de systèmes de cogénération intégrant le solaire thermique et photovoltaïque, l’éolien domestique, avec un dispositif de stockage d’énergie modulable selon les besoins.


Cette mutation se fera progressivement sous la pression des circonstances.


Aujourd’hui, en France, l’énergie est disponible sans limitation et à un prix encore acceptable. Ces conditions ne sont pas favorables à un fort développement des énergies nouvelles. La forte demande d’installations photovoltaïques répond davantage à l’attrait pour un placement financier qu’à un réel besoin énergétique. Peu d’usagers sont disposés à investir pour de seules motivations écologiques.


Un baril à 105 $ et un KWh à 10 centimes d’euros ne sont manifestement pas des signaux forts déclencheurs d’une ruée sur les énergies nouvelles.


Faute d’un électrochoc énergétique, le basculement vers le solaire et/ou l’éolien domestiques se fera très progressivement, nous en reparlerons en 2020.


D’ici là l’initiative appartient aux collectivités qui seules sont en mesure de consacrer des investissements importants à des fermes éoliennes ou des centrales photovoltaïques.



 


 


 


 

Repost 0
5 mars 2011 6 05 /03 /mars /2011 12:08

Le photovoltaïque victime de son succès.



5 Mars 2011


La mariée était trop belle, le couperet est donc tombé, l’Etat est debout sur les freins, la profession est sinistrée.


Les raisons de ce coup d’arrêt sont connues et compréhensibles: l’effet d’aubaine a créé un appel d’air qui a boosté le marché et provoqué une demande qui dépasse de beaucoup les prévisions de croissance, avec deux inconvénients majeurs:


- Un tarif d’obligation d’achat  qui, s’il était maintenu en l’état, entrainerait une augmentation insupportable de la CSPE.


- Une incapacité de l’industrie locale à fournir des produits en quantités suffisantes et à coût compétitif par rapport aux produits importés, entrainant un déséquilibre important de la balance du commerce extérieur.


Les mesures annoncées dans l’arrêté du 4 Mars 2011 visent dans un premier temps à stopper cette hémorragie. Les points essentiels sont:


- Instauration d’un « numerus clausus » fixant à 500 MWc le montant cumulé des puissances installées par an.


- Réduction significative des tarifs d’obligation d’achat.


- Révisions trimestrielles de ces tarifs .


- Instauration de l’obligation d’appels d’offres pour les installations dépassant une certaine puissance.


Ces mesures conservatoires sont justifiées si l’on considère les deux inconvénients rappelés plus haut, mais elles sont aussi violemment critiquées, avec raison, par l’ensemble de la filière.


Le problème du photovoltaïque est connu depuis longtemps.


Le rapport Charpin rappelle encore:


« Les spécificités françaises (coût faible de l’électricité, taux d’ensoleillement moyen) impliquent que le déploiement se produira d’abord dans d’autres pays du monde : les opportunités industrielles se situent au niveau mondial »


En clair cela signifie que le marché intérieur français n’est pas prêt à accueillir le photovoltaïque, sinon à coup de subventions. Les industriels qui se lancent dans ce business doivent donc savoir que leur marché est à l’export essentiellement car en France la parité réseau n’est pas pour demain.


On peut se demander pourquoi l’Etat a laissé se développer une filière subventionnée, sans attirer l’attention des acteurs sur le caractère provisoire de cette subvention.


Interrogé ce matin sur France-Inter, Benoît Rolland, PDG de TENESOL, prévoit une importante baisse d’activité sur son marché intérieur. Cette baisse devra être compensée par l’export, qui représente aujourd’hui 50% de l’activité de la société.


D’autres, moins prévoyants et peu tournés vers l’export, vont connaître des heures difficiles.


Repost 0
3 mars 2011 4 03 /03 /mars /2011 11:10

4 Mars 2011


Un panneau photovoltaïque offre l’aspect faussement robuste d’une plaque de verre dans un cadre en alu. Quoi de plus fiable à première vue ? un objet rigide capable de supporter le poids d’un homme, et qui ne subira aucun stress mécanique sa vie durant, à part quelques averses et un peu de poussière.


En réalité il s’agit d’un objet de haute technicité malgré ses apparences rustiques, et ses conditions de fonctionnement sont sévères:


- On attend de lui qu’il fournisse de bons et loyaux services pendant plus de 200 000 heures, alors qu’on n’en demande que 5 000 à un téléviseur ou un ordinateur, et encore moins à une automobile.


- Son cœur de Silicium est dépourvu de protection, alors que tous les autres semi-conducteurs sont protégés dans un boîtier.


- Il doit continuer à fonctionner normalement à des températures ambiantes extrêmes, de l’hiver scandinave à l’été africain.


- Les cellules de Silicium doivent dissiper une puissance importante (Plus de 800W pour 100 W utiles) sans dissipateur thermique, alors que normalement un semiconducteur de puissance dispose d’un radiateur.


- Il doit subir 9 000 alternances jour/nuit ( sur 25 ans ), avec les écarts de température correspondant.


- Sa grande surface lui impose des contraintes de dilatation de plusieurs mm à chaque cycle de température.


- Il doit supporter sans défaillir les atteintes du milieu extérieur: Pluie, neige, grêle, poussières abrasives, embruns salés, moisissures, fientes, pluies acides, rayons UV, ammoniac ( milieu agricole), chocs, corrosion.


- Malgré tout cela il doit conserver sa transparence pour assurer un bon rendement.


Ce régime de forçat , subi pendant de nombreuses années sans interruption, pénalise la fiabilité du produit, qui est exposé à de nombreuses causes de pannes ou de disfonctionnement.


Voici un florilège des évènements qui peuvent troubler la bonne santé de notre panneau:


- Détérioration des contacts électriques sur les cellules.


- Court-circuit au niveau d’une cellule.


- Claquage par formation d’arc électrique.


- Craquage de la plaquette de Si ( contraintes de dilatation).


- Délaminage des couches de protection.


- Détérioration d’une ou plusieurs diodes de by-pass.


- Hot-spot.


- Jaunissement ou brunissement du matériau d’enrobage ( EVA ou autre).


- Détérioration du traitement anti-réflexion.


- Pénétration d’humidité ou de moisissure.


- Corrosion électrochimique.


- Surchauffe ( mauvais refroidissement).


- Claquage du verre de protection ( contrainte de dilatation suite à mauvais montage).


- Détérioration des contacts électriques par corrosion.


- Etc….


Les tests effectués en sortie d’usine sur chaque pièce éliminent les produits touchés par la mortalité infantile, mais ne donnent pas d’information réelle sur la durée de vie.


Chaque nouveau modèle doit subir des tests pour satisfaire les normes de la profession, et en particulier un test de vieillissement accéléré.


Ces tests de vieillissement sont bien sûr d’une durée limitée et ne peuvent pas mettre en évidence certains phénomènes qui n’apparaissent qu’avec le temps.


La profession manque du recul nécessaire pour les interpréter . Les constats effectués aujourd’hui sur des installations vieilles de dix ou quinze ans sont de peu de valeur car les technologies ont largement évolué depuis, et continueront de le faire.


La durée de vie effective d’un produit dépendra de la qualité de fabrication, des matériaux utilisés, de la façon dont ils sont montés. Ces paramètres ne figurent pas dans les notices.


D’autre part, que vaut la garantie offerte par un fabricant dont on n’est pas sûr qu’il existera encore dans dix ans ?


Il est donc essentiel de connaître l’origine des panneaux PV choisis pour un projet. Qui est le fabricant, quelle est la situation commerciale de cette société, son implantation, son expérience, sa réputation sur le marché. Il sera toujours préférable de choisir un fabricant qui intègre toutes les étapes depuis le silicium jusqu’au produit final. Le prix ne doit pas être le seul critère de choix.


Certains fabricants ont pris en compte le problème de durée de vie en proposant une garantie couverte par une grande compagnie d’assurance indépendante. Si le fabricant disparaît, la garantie reste valable sur toute la durée du contrat.


Le meilleur des panneaux ne donnera satisfaction que s’il est bien monté. Le système de montage devra tenir compte de la dilatation, qui peut atteindre plusieurs centimètres sur l’installation, et du refroidissement qui conditionne le rendement et la durée de vie.


Pour une surface importante montée en intégration à la toiture, la température de cellules au centre de la surface pourra atteindre 90°C en été et sans vent. Ceci affectera grandement la fiabilité des cellules.


Dans un panneau PV, chaque cellule ( il y en a par exemple 36 ou 72 par panneau) est un semi conducteur de puissance.


Un semi conducteur de puissance, utilisé selon les règles de l’art, doit être muni d’un dispositif de refroidissement calculé pour maintenir la température de jonction en dessous d’une valeur déterminée.


La pastille de silicium est soudée sur une embase métallique, laquelle est ensuite fixée sur un radiateur convenablement dimensionné. On ajoute parfois un ventilateur si la convection naturelle ne suffit pas.


Rien de tout cela dans un panneau PV. les « Wafers » sont simplement encapsulés entre deux tranches d’EVA, avec une paroi de verre au-dessus, éventuellement une autre en dessous. Aucun radiateur, la chaleur doit s’évacuer comme elle peut à travers les couches d’EVA et le verre, très mauvais conducteurs de chaleur. Dans le meilleur des cas une circulation d’air apportera un léger rafraîchissement.


L’essentiel de la dissipation se fera par rayonnement infrarouge, surtout par la face supérieure .


Quelle est alors la température atteinte par les cellules ?


Les constructeurs sont extrêmement discrets sur le sujet. Les tests de panneaux sont effectués à une température de cellules de 25 °C, qui ne correspond pas à la réalité, puisque le panneau est chauffé par le Soleil.


Par exemple, pour un panneau BP Solar 4175 T, on trouve les indications suivantes:


Conditions de mesures NOTC ( Normal Operating Thermal Conditions ):


Température ambiante: 20 °C


Irradiance solaire: 800 W/m2


Vent: 1 m/s, refroidissement par les deux faces.


Température de cellules: 47 +/- 2 °C.


En plein été la température ambiante peut atteindre 40 °C, même sous nos latitudes. Cela fait 20 °C de plus ( 47 + 20 = 67 °C).


L’irradiance au sol peut atteindre 1 000 W/m2, soit 25% au-dessus de la valeur de mesure ( 67 x 1,25 = 83 °C ).


Le vent de 1 m/s n’est pas toujours présent , et le refroidissement s’en ressent, surtout pour une installation intégrée, très mal aérée en dessous. La température des cellules peut alors atteindre 100 °C.


La loi de Stephan-Boltzmann nous donne une idée de ce que le panneau va endurer:


La relation entre la puissance rayonnée par une surface de 1 m2 et pour un différentiel de température T ( °K) est donnée par la formule:


P = 5,67 x 10 (puisssance -8) x T ( puissance 4 ).


Sous un beau Soleil d’été la puissance rayonnée par le Soleil atteint


1000 W/m2. Une faible partie est réfléchie ( le moins possible), et environ 13% du reste est transformé en électricité. Environ 780 W sont absorbés par le panneau, qui s’échauffe. Il atteint une température telle que les 780W absorbés sont rayonnés à l’extérieur ( équilibre ).


La formule magique nous apprend que le différentiel de température est alors de 342 °K, soit 69 °C.


Si la température ambiante est de 30°C ( ce qui n‘est pas exceptionnel en été ) , la température des cellules voisine alors les 100°C ( probablement davantage au centre du panneau).


Nous sommes très loin des 25°C du test.


On observe alors une baisse du rendement de 30% ( 0,4 %/°C) par rapport à la valeur catalogue mesurée à 25°C.


De plus cette température élevée entraine sur la durée un vieillissement prématuré.


Il est donc essentiel d’aérer les panneaux pour apporter un surplus de refroidissement par convection, même si les panneaux standards sont peu performants de ce point de vue. On peut réduire ainsi la température de 20%. A condition qu’il y ait un peu de vent….


Dans les régions très ensoleillées, les cellules subiront donc des conditions beaucoup plus sévères que celles qui sont décrites dans les notices.


La situation peut être grandement améliorée en ayant recours au solaire hybride.


Les cellules PV sont montées dans un cadre qui permet la circulation d’un fluide de refroidissement qui peut être l’air, de l’eau, ou tout autre fluide non corrosif. On bénéficie ainsi d’un double avantage:


Abaissement de la température des cellules, donc augmentation du rendement électrique et prolongation de la durée de vie.


Récupération de chaleur qui pourra être utilisée directement ou transformée en électricité.


Les installations photovoltaïques actuelles n’utilisent que 10 % de l’énergie reçue. La technologie hybride permet de porter ce rendement à plus de 50%, et donc d’optimiser l’utilisation de surface tout en garantissant la fiabilité.


Il est logique de penser que la prochaine génération sera hybride…



 


 



 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 


 

Repost 0
27 février 2011 7 27 /02 /février /2011 12:01

27 Février 2011


Dans l’article précédent nous avons évoqué la concurrence chinoise sur le marché du photovoltaïque. Nous avons montré l’impossibilité, pour un fabricant européen,  de réussir sur ce secteur simplement en proposant les mêmes produits et les mêmes services. Nous avons rappelé les voies à explorer pour tenter de se faire une place aux côtés des fournisseurs asiatiques.


Voyons aujourd’hui comment les industriels allemands ont réussi à se tailler une place de leaders sur ce difficile marché. Prenons l’exemple du Groupe Solar World:


- Ce groupe a pu se développer d’abord sur un  marché intérieur impulsé et soutenu par une politique volontariste du gouvernement allemand. Cette politique a permis au groupe de créer un solide noyau de haute technologie capable de maîtriser la totalité des étapes de fabrication, depuis le silicium jusqu’aux modules.


- La politique commerciale du groupe a d’emblée été fondée sur une activité mondiale, très au-delà des simples besoins du marché intérieur.


A partir d’un noyau dur constitué par l’Allemagne et les Etats-Unis, qui représentent 50% du marché mondial, d’autres implantations ont été crées, France, Italie, Espagne, Belgique, Afrique du Sud, Singapour, Qatar.


- Le handicap des coûts de main d’œuvre a été combattu par la recherche d’un très haut niveau de qualité et de services, qui permet de situer les produits dans la fourchette haute et d’échapper à la concurrence du bas de gamme. L’automatisation est évidemment généralisée.


- Les fabrications sont implantées à proximité des marchés: Usines  automatiques à Hillsboro ( USA, 2008) , Freiberg ( Allemagne), centre de production en partenariat à Singapour.


- La R&D reste en Allemagne pour bénéficier de l’environnement de haute technicité, le nouveau centre a été inauguré en 2010 à Freiberg. Les semi-conducteurs sont à Dresde.


- La politique de fabrication vise l’excellence, seule façon de tenir la concurrence à distance. Les produits bénéficient de meilleures performances, de meilleures garanties, surtout en ce qui concerne la durée de vie, la résistance aux agressions ( ammoniac, brouillard salin…) , et la linéarité de puissance.


- Les résultats annoncés du dernier exercice montrent le succès de cette politique:


Production: 570 MW


CA 945 Me   ( 1,65 euro/W )


Bénéfice après impôts:   52 Me


Effectifs: environ 3 000 personnes.


Cet exemple montre que la malédiction chinoise peut être surmontée, à condition de mettre en œuvre une stratégie globale à l’échelon mondial.


Il ne s’agit pas d’un exemple unique, nous pourrions développer la même présentation à propos de Aleo Solar GmbH, de Solar Watt, et de bien d’autres entreprises allemandes du secteur photovoltaïque.



 

Repost 0