Overblog Suivre ce blog
Administration Créer mon blog
26 février 2011 6 26 /02 /février /2011 18:08

27 Février 2011


L’émergence d’une nouvelle technologie, concrétisée par une gamme de produits de consommation de masse  utilisables dans le monde entier, s’accompagne toujours d’une mainmise de la Chine sur le nouveau marché .


Cette « malédiction » n’épargne pas le photovoltaïque.


Essayons d’en comprendre un des mécanismes.


Pour quatre sociétés chinoises importantes dans le photovoltaïque, le ratio moyen est de 1 employé pour 110 000 W produits.


( Sociétés Suntech, Solarfun, Yingli Solar, et Trina Solar, données  obtenues sur le site « énergies-renouvelables.com » )


Les panneaux PV se négocient autour de 1,5 euros le Watt ( c’est une moyenne entre les différents types et sur différentes places).


Donc à un employé correspond un chiffre d’affaire de 165 000 euros/an.


Le salaire minimum chinois tourne autour de 130 euros/mois. Le salaire moyen , qui englobe toutes les catégories ( ouvriers, cadres, dirigeants, chercheurs, ingénieurs, commerciaux,…) peut être évalué à 500 euros (estimation large), soit trois fois le salaire min officiel, plus les charges.


Donc, pour 165 000 euros de CA, il y a 6 000 euros de salaire, soit 3,6%. Ou encore 5,4 centimes d’euros par Watt produit.


Si nous remplaçons des employés chinois par des européens, le salaire moyen n’est plus 500 euros/mois, mais 5 000 ( salaire chargé ).


Il faudrait alors vendre les mêmes panneaux 2 euros le Watt, et non plus 1,5, soit un écart de 33%.


C’est impossible sur le même marché, et  avec le même produit.


Comment résoudre cette quadrature du cercle ?


Plusieurs méthodes sont envisagées, parfois en combinaisons:


- Réduire les salaires européens.


Impossible. A la rigueur essayer de freiner les augmentations ( le rêve de Monsieur Trichet), mais personne n’imagine sérieusement aligner les européens sur le standard de vie chinois.


- Faire brûler un cierge pour obtenir que les ouvrier chinois se révoltent et exigent des salaires décents et une couverture sociale digne de ce nom. Méthode peu efficace. On constate bien que les salaires chinois augmentent, du moins en théorie; mais l’écart reste tellement grand que le handicap subsistera encore longtemps.


- Faire aussi bien que les chinois, avec deux fois moins de personnel. On peut effectivement gagner 30%, c’est ce que font les Allemands. Développer l’automatisation, travailler sur la rentabilité. On peut compenser une partie du handicap.


- Imposer des taxes sur les  produits issus de pays qui ne respectent pas nos règles sociales. Méthode efficace seulement si elle est appliquée à l’échelle mondiale.


- Fabriquer des produits de meilleure qualité que les produits chinois. On y pense, mais c’est encore plus cher , et les chinois auraient vite fait de rattraper leur retard. Leur technicité est très bonne et leurs ingénieurs ne sont pas manchots.


Et puis, à courir toujours après des produits nouveaux et des technologies de pointe, on finit par oublier que le business se fait avec des produits lambda.


- Garder nos frontières par des normes spécifiques dissuasives. cela n’a pas de sens dans un contexte de marché mondialisé.


- Conserver la R§D en Europe et délocaliser la production. C’est en général la solution choisie, au détriment de l’emploi européen.


- Acheter des entreprises chinoises, pas très bon pour l’emploi en Europe.


- Augmenter nos productions en recherchant des marchés à l’export. C’est-ce que font les Allemands, mais ils sont bien les seuls .


Ce problème, créé par le différentiel de coût de main d’œuvre, n’a jamais été résolu de manière satisfaisante.  Après le « made in Japan » nous avons eu droit au « made in Korea », et maintenant nous subissons le « made in popular republic of China ».


Sommes-nous condamnés à remplacer nos importations de pétrole par des importations de panneaux solaires ?


En France, les instances concernées ( voir rapport Charpin) se bornent à prendre acte de la situation: L’affaire photovoltaïque commence à nous coûter cher en déficit de la balance à l’export, et le tarif préférentiel d’achat par EDF crée un péril financier à cause des milliards d’euros en jeu. La décision est donc de freiner la consommation en modulant la grille des tarifs et en contrôlant les grands projets par un système d’appels d’offres. Pas très glorieux.


En clair la France constate son impossibilité industrielle à faire face à ce nouveau marché et décide d’en limiter le développement en attendant des jours meilleurs (!).


Les instances constatent également que le faible ( ? ) montant du tarif public de l’électricité en France constitue un frein au développement de la filière PV industrielle, et qu’il faut probablement chercher des marchés ailleurs.


La filière intégrée est représentée par un seul industriel français qui est Photowatt, avec une production modeste de l’ordre de 100 MW, c’est-à-dire le dixième de la production d’un grand acteur chinois.


Avec des salaires français et une production aussi faible, il est hors de question de concurrencer les chinois sur le même marché.


La société Photowatt éprouve actuellement de grandes difficultés et a présenté un plan de réduction des effectifs en début d’année, s’avouant dans l’incapacité de suivre les baisses de prix imposées par les fournisseurs asiatiques, CQFD.


Bien sûr, le moratoire a précipité sa perte mais le fond du problème demeure, comment lutter contre des concurrents dont les salaires et les lois sociales sont différentes des nôtres ?


Faute d’une solution Européenne à ce problème, nos entreprises devront se résoudre soit à délocaliser, soit à disparaître.


Le photovoltaïque n’est bien entendu pas le seul domaine concerné….



 


 


 


 


 


 


 

Repost 0
24 février 2011 4 24 /02 /février /2011 17:27

24 Février 201


Considérons deux pères de famille désirant placer 20 000 euros à long terme pour constituer un petit magot pour  leur retraite.


L’un choisit la solution la plus simple, genre contrat d’assurance vie à fonds bloqués et au taux de 4%. Au bout de vingt ans son capital a atteint la somme de 43 820 euros.


L’autre choisit plutôt de faire installer des panneaux photovoltaïques sur sont toit et de revendre l’électricité à EDF.


Il fait donc disposer 25 m2 de panneaux en intégration à la toiture, pour un montant TTC de 25 000 euros, incluant les travaux de charpente, d’étanchéité, l’onduleur, le cablage, les compteurs, les frais de dossier. Compte tenu du CIDD ( Crédit d’Impôt Développement Durable ) son investissement personnel est de 20 000 euros.


Sa production , estimée à 2 500 KWh/an, achetée au tarif de 58 centimes par EDF, lui rapporte 1 450 euros par an.


Il place cet argent également sur le même support que le précédent, avec un rapport de 4% par an.


Au bout de vingt ans ce placement a atteint la somme de 43 180 euros, c’est-à-dire tout juste ce qu’il aurait obtenu sur un compte épargne.


De plus, au cours de cette période, il aura fallu procéder à des travaux d’entretien, de réparations, que l’on peut estimer à 2 000 euros.  ( Un ou deux panneaux à remplacer, travaux d’étanchéité, pertes de rendement dues au vieillissement, remplacement probable de l’onduleur, pannes hors garantie, sinistre météo non remboursé à 100%, ….


Il faut également inclure l’augmentation de prime d’assurance pour couvrir les risques supplémentaires ( Incendie, dégât des eaux, casse ).


La rentabilité du photovoltaïque n’est donc pas démontrée pour une installation domestique et dans les conditions de prix actuelles.


Par contre, les grosses installations ( toitures de supermarchés, couvertures de parkings, etc…) bénéficient de prix au mètre carré posé beaucoup plus bas et atteignent un TRI ( Taux de Retour sur Investissement) confortable assez rapidement.


Ce qui explique l’énorme flux de dossiers déposés avant l’annonce de révision des tarifs de rachat.


Le particulier soucieux de bonne gestion fera bien d’étudier attentivement son dossier et de réaliser une bonne analyse financière. Il constatera alors qu’il est parfois plus rentable de mettre ses sous sur un plan d’épargne plutôt que de faire des trous dans son toit , au risque de récolter plus d’eau de pluie que de plus-values.


Il  devra, au minimum, obtenir des informations écrites, voire des garanties, sur les points suivants:


- Prix TTC de l’installation 3 KWc en intégration de toiture incluant les travaux de charpente, d’étanchéité, de pose des panneaux et de raccordement au réseau:


- Type et caractéristiques techniques et électriques des panneaux.


- Type et caractéristiques techniques de l’onduleur.


- Rendement global de l’installation incluant l’onduleur, et à température de fonctionnement réelle.


- Conditions et durée de la garantie.


- Perte de rendement des panneaux en fonction de la température.


- Perte de rendement des panneaux en fonction du vieillissement.


- Irradiance solaire annuelle du lieu d’installation ( Source ADEME).


- Garantie du tarif de rachat EDF.


- Montant de la surprime d’assurance ( Risque accru d’incendie, de dégâts des eaux, et de casse).


- Conditions de garantie de l’installation.


- Estimation des coûts de maintenance normale ( vérification annuelle, nettoyage des panneaux )


- Coût de remplacement de l’onduleur ( durée de vie moyenne annoncée : 10 ans).


- Dossier technique avec calcul de la rentabilité.


- Valeur résiduelle en fin de contrat ( en général zéro).


Faute d’une étude précise de rentabilité, l’installation peut se révéler un placement désastreux.


Il faut savoir également qu’entre la région île-de-France et le midi, la différence de rendement est de 30% pour la même installation.


D’autre part, entre un bon panneau bien refroidi, de rendement 14%, et un autre de moyen de gamme mal posé la différence peut atteindre aussi 30%.


Les deux cumulés conduisent à des différences de rentabilités de 60% !


Si de plus on néglige de nettoyer régulièrement les panneaux ( poussière, sable, fientes, moisissures, embruns salés, dépôts acides, …) on peut perdre 10 à 20% de production.


Le placement photovoltaïque n’est pas un long fleuve tranquille….Il demande à tout le moins un peu d’attention et une calculette.


Repost 0
10 février 2011 4 10 /02 /février /2011 15:40

10 Février 2011


Après avoir subi une éclipse de plusieurs décennies pour cause de réchauffement climatique, le CO2 bénéficie d’un retour en grâce par le canal des énergies vertes et notamment du bois énergie.


Bien sûr, le cycle végétal du carbone est connu depuis la nuit des temps, et nos ancêtres du Néolithique ont compris rapidement que le bois peut être source d’énergie pour peu que l’on sache allumer un feu.


Aussi, dès le lancement de la croisade contre les énergies fossiles carbonées, les végétaux sont-ils apparus comme une alternative propre et durable. Une manière , certes compliquée, mais pratique d’utiliser l’énergie solaire. Bien sûr le rendement est minable, mais l’usine est naturelle  et le combustible gratuit.


Les esprits chagrins ont alors très justement fait remarquer que ce procédé de substitution présente quelques inconvénients dont il y aurait lieu de tenir compte:


- La masse végétale est limitée. Les surfaces utilisables sont en concurrence avec les zones agricoles qu’il faut préserver pour nourrir les quinze milliards d’habitants de la fin du siècle, sans oublier une population comparable d’animaux domestiques.


- Il existe d’autres procédés, beaucoup plus efficaces, pour transformer l’énergie solaire sans passer par la production de CO2. Ces procédés nécessitent eux aussi de la surface et seront donc des concurrents du végétal.


- La combustion, ou la distillation, du bois et des végétaux en général, dégage en plus du CO2 des résidus très polluants qu’il faut impérativement éliminer.


- L’utilisation du cycle végétal pour exploiter l’énergie solaire est une opération désastreuse au plan occupation du sol/ rendement énergétique.


Un hectare de sol exploité pour du bois énergie peut fournir de l’ordre de 15 MWh/an ( variable selon le type d’exploitation et les espèces).


La même surface recouverte de panneaux solaires fournit près de


1000 MWh/an, soit environ 70 fois plus.


Il est donc évident que l’exploitation du sol pour le bois énergie doit être réservée aux territoires très vastes , très peu peuplés, et naturellement peu propices à l’agriculture ou a l’élevage. On pense par exemple aux forêts scandinaves.


Dans les pays très peuplés et urbanisés de l’Europe de l’Ouest, la démarche se bornera à exploiter la forêt déjà existante. En France par exemple, la forêt occupe 30% du territoire, elle est très morcelée, répartie entre des milliers de propriétaires; la rationalisation de son exploitation demandera de gros investissements et une probable modification du code forestier. Il n’est pas raisonnable d’envisager son extension.


Si l’on considère que 50% de la surface forestière française pourrait être exploitée en bois énergie ( ce qui est considérable, eu égard aux autres utilisations plus rentables du bois ) , 120 TWh/an pourraient être obtenus (Hors Guyanne française).


La consommation d’énergie primaire de la France est de 3 200 TWh/an.


Le bois énergie d’origine Françe métropolitaine pourrait donc contribuer pour environ 4%.


Les perspectives de nouveaux gisements de bois énergie en France consistent donc essentiellement en une amélioration des conditions d’exploitation  et d’utilisation des ressources déjà existantes:


- Choix des espèces.


- Valorisation des résidus de coupes ( plaquettes et granulés).


- Mesures incitatives pour la mise en exploitation des parcelles privées délaissées.


- Bonification du rachat d’électricité produite par des centrales au bois.


La ressource bois énergie est censée représenter le tiers des énergies renouvelables en 2020, soit 7% de l’énergie totale consommée.



 

Repost 0
10 février 2011 4 10 /02 /février /2011 09:23

10 Février 2011


Durant quasiment tout le vingtième siècle l’automobile est restée une affaire de mécaniciens. Avec un cœur constitué d’un moteur thermique et quelques  accessoires assurant des fonctions électriques simples, aidées par une batterie rustique.


Les deux  dernières décennies du siècle ont vu l’arrivée en force de l’électronique, dans la gestion du moteur, du système de freinage, de la direction, de la boîte de vitesse. Le calculateur central , le cablage multiplexé, le correcteur de trajectoire, le contrôle de la suspension, ont permis à l’électronique de prendre le pas sur la mécanique pure et dure.


Le métier a dû évoluer, l’ingénieur mécanicien a dû se résoudre à assembler des modules électroniques développés par d’autres. La mutation ne s’est pas déroulée sans heurts, souvenons-nous du récent avatar des régulateurs de vitesse. Faire cohabiter la mécanique et l’électronique est une entreprise semée d’embûches.


Et puis, voici qu’une mutation ultime se prépare, le passage à la voiture électrique.


Ce saut dans l’inconnu en fait hésiter plus d’un, l’abandon du moteur thermique est vécu comme une séparation. On sait ce qu’on laisse, on ne sait pas ce qu’on va trouver.


Aussi les plus prudents refusent-ils de brûler leurs vaisseaux; ils adoptent l’électricité mais en conservant le moteur thermique. Le moteur électrique est un enfant dont il faut tenir la main pour l’aider à grandir.


Les autres ont moins d’états d’âmes, point d’étape intermédiaire, le grand saut sans filet. On jette le bébé dans la piscine pour lui apprendre à nager.


Ces audacieux n’hésitent pas à faire reposer entièrement le succès de leur opération sur la batterie, qui devient le cœur du système.


Il aura fallu un demi siècle pour porter les  moteurs thermiques à un excellent niveau de fiabilité, de robustesse, et de longévité.


Les batteries prévues pour équiper les voitures électriques utiliseront une technologie nouvelle, qui n’a jamais été expérimentée sur le terrain.


Il est évident qu’une longue période de mise au point sera nécessaire pour converger vers des produits à la fois fiables, performants, robustes, et d’une longévité suffisante.


Les technologies vont évoluer, les standards vont se définir, il est impossible aujourd’hui de  dire à quoi ressemblera le marché de la batterie en 2020.


Entre la batterie qui va équiper la Renault Fluence ZE en 2011 et celle qui équipera son homologue en 2030, il y aura autant de différences qu’entre le moteur d’une Primaquatre et celui d’une Laguna.


Peut-être même la batterie sera-t-elle remplacée par une pile à combustible.


Et pourquoi pas un retour du moteur thermique devenu « CO2 free » grâce aux carburants vert, comme les chaudières à granulés.


Le marché de l’automobile va donc se trouver bouleversé. Chaque nouveau modèle apportera de telles améliorations que les modèles de quelques années deviendront obsolètes.


Les progrès principaux viendront de la batterie. Aujourd’hui il faut embarquer trois cent kilos de batterie ( le poids de quatre adultes ) pour faire environ cent-cinquante kilomètres avec une voiture moyenne et  à vitesse très modérée, avec un poids qui dépassera une tonne et demi.


Cette situation n’est évidemment pas tenable. Le rendement actuel des accus reste inférieur à 100 Wh/Kg. Il faudra être en mesure de proposer trois fois mieux entre 2015 et 2020.


Les constructeurs d’automobiles n’ont pas les compétences pour développer des batteries. Et pourtant ils doivent impérativement maîtriser cet approvisionnement sous peine de perdre le contrôle de leur marché.


C’est pourquoi des accords sont négociés avec des entreprises spécialisées dans l’électrochimie, des centres d’études sont créés et des chercheurs pointus embauchés à prix d’or.


Il ne suffira pas de mettre au point la soupe qui produira le meilleur rendement, il faudra aussi que le dispositif satisfasse au très sévère cahier des charges automobile, qu’il soit industrialisable à un coût compétitif, et qu’il utilise des matériaux facilement disponibles et recyclables.


Les grandes manœuvres vont rapidement se transformer en guerre ouverte pour prendre les places de marché.


Le centre de gravité du secteur de la construction automobile va donc se déplacer significativement dans les années qui viennent.


Il y a énormément d’argent à récolter sous forme de subventions de la part de tous les ministères de l’Industrie, désireux de soutenir la recherche du Saint Graal pour donner un avantage décisif à leurs industriels.


De nombreuses « start-up » voient le jour, qui proposent leurs compétences et recherchent des « sponsors ». Ces officines font de la surenchère sur l’état d’avancement de leurs travaux. Chacune prétend posséder la recette de la potion magique qui lui permettra  qui d’approcher les 300 Wh/Kg, qui de fournir la plus forte puissance instantanée, qui de résister aux plus grand nombre de cycles, qui de supporter la plus forte température, qui d’offrir le temps de recharge le plus court, qui d’être le moins cher.


L’objectif du constructeur étant bien sûr d’obtenir tout cela en même temps.


La batterie est donc un composant qui va subir une très forte évolution dans les années futures. L’usager ne doit pas être la victime de ces progrès technologiques, il doit au contraire en profiter. C’est pourquoi il sera toujours préférable de choisir l’option location, qui permettra d’avoir toujours une batterie de conception récente et en bon état.



 


 

Repost 0
7 février 2011 1 07 /02 /février /2011 11:23

7 Février 2011


Désormais nul n’ignore les graves lacunes des organismes officiels de gestion des problèmes de santé publique. Il suffit d’évoquer les multiples scandales que chacun a en mémoire, depuis l’amiante jusqu’au médiator, en passant par la thalidomide, le sang contaminé, et quelques autres à chercher dans la fameuse liste des 77 jetée en pâture en guise de contre-feu.


Quelles que soient les raisons de cette incapacité avérée à gérer correctement les risques sanitaires autrement qu’à postériori quand les scandales ont éclaté, le résultat est une perte de confiance totale du public dans les assertions officielles concernant l’innocuité d’un nouveau produit ou d’une nouvelle technologie.


L’utilisation massive des ondes hyperfréquences dans les télécommunications a fait naître dans le public une inquiétude légitime, eu égard à leurs effets spectaculaires dans les fours à micro-ondes. Les professionnels des télécoms, et les organismes officiels de santé publique, ont affirmé que les risques étaient nuls dès lors que certains seuils de champ étaient respectés.


Ces affirmations rassurantes n’ont pas convaincu les usagers, qui gardent la mémoire  de quelques scandales retentissants.


Ce public n’a pas tout à fait tort…


Toujours en référence au four à micro-ondes de nos cuisines, la plupart des études mettent en avant  les possibles effets thermiques des hyperfréquences, et les dégâts éventuels en relation avec le cancer.


Les enquêtes épidémiologiques sur les effets possibles sont donc orientées vers la recherche de cancers. Or les cancers éventuels ne peuvent apparaître qu’au bout de nombreuses années, souvenons-nous de l’amiante. Inutile de dire que ces enquêtes « épidémiologiques » ont été négatives.


Les véritables dangers de l’exposition aux hyperfréquences sont autres. Ils sont d’ailleurs largement documentés dans la littérature scientifique.


Mais ils restent superbement ignorés des instances responsables de la santé publique. Faut-il s’en étonner ?


Notre micro-ondes de référence fonctionne à 2,45 Ghz. Cette fréquence n’a pas été choisie par hasard. Elle correspond au meilleur compromis pénétration-puissance pour chauffer les aliments en créant des pertes diélectriques par vibration des molécules d’eau dipolaires.


Le téléphone portable fonctionne sur les fréquences de 0,9, 1,8, et 1,9 Ghz. Le WiMax utilise la bande de 2 à 11 Ghz ( 3,5 Ghz en Europe ). Donc dans le domaine des hyperfréquences.


Il est donc légitime de s’interroger sur les effets physiologiques de ces ondes.


Il serait naïf de croire que l’effet des hyperfréquences sur la matière vivante se borne aux seules vibrations bien innocentes des molécules d’eau.


Les processus physiologiques sont tous essentiellement électriques. Les échanges ioniques au travers des membranes cellulaires, les transmetteurs neuronaux, la circulation des signaux dans le cerveau et le long des réseaux nerveux, tout est géré par des signaux et des interactions électriques, y compris la structure des molécules d’ADN.


Dès lors que des ondes hyperfréquences pénètrent la matière vivante, des effets se produisent.


Le problème n’est donc plus de prouver l’existence de ces effets, mais de les identifier, de les caractériser, de mesurer leur dépendance à la nature et à l’intensité des ondes, et d’en établir la nocivité s’il y a lieu.


Un tel travail n’a jamais été effectué de manière systématique. Il existe cependant des travaux ciblés donnant des résultats partiels, à partir d’expérimentations animales.


Ces travaux sont trop abondants pour être tous cités ici. On pourra consulter, pour information, les proceedings de l’ICNIR 2003 (International Conference on Non-Ionizing Radiations) :


«Biological effects of microwaves and mobile telephony »


Dans une telle situation, deux attitudes sont possibles:


Faire jouer le fameux principe de précaution, on arrête tout en attendant d’y voir plus clair. Mais les hyperfréquences, c’est comme le pétrole, il y en a partout. Y compris dans la Télé, les canaux 21 à  69 sont dans la bande 0,47 à 0,860 Ghz , dans laquelle certains émetteurs diffusent à puissance considérable, beaucoup plus élevée que dans la téléphonie mobile, et personne ne s’en est plaint jusqu’à présent.


Remarquons que la TNT diffuse maintenant avec une modulation semblable à celle des téléphones portables ( COFDM). Je n’ose même pas vous dire quelle est la puissance des émetteurs de la tour Eiffel….


Rappelons aussi les très fortes puissances des faisceaux hertziens pour les liaisons point à point, dans les bandes de plusieurs Ghz.


Il paraît tout à fait irréaliste se songer à arrêter tout çà.


La seconde attitude consiste à prendre acte du problème ( ce n’est pas fait aujourd’hui ) , mettre en place les structures pour supporter les recherches sérieuses sur les effets physiologiques, pour ensuite prendre des décisions.


Dans l’état actuel , et dans tous les cas où c’est possible, il vaut mieux éviter d’en rajouter une couche. C’est pourquoi il est souhaitable de ne pas disposer des émetteurs WiMax n’importe où sans discernement . Une solution filaire est toujours préférable.



 


 


 


 

Repost 0
6 février 2011 7 06 /02 /février /2011 15:45

6 Février 2011


Pendant que Renault discourt sur la voiture électrique dans les média, près les tribunaux, et mobilise les services de contre espionnage, Toyota vend des voitures électriques hybrides.


Les premières Toyota hybrides roulent dans la nature depuis déjà dix ans. Près de trois millions de véhicules ont été vendus, ce qui a permis à la firme de cumuler une grande expérience technique et une bonne connaissance du marché, des habitudes et des attentes des clients.


On sait que la « vraie » voiture électrique n’existera que lorsque l’on pourra disposer d’une batterie d’au moins 50 KWh pesant moins de 200Kg.


Cette batterie n’existe pas encore aujourd’hui, mais le bout du tunnel n’est pas loin, on sait déjà faire 30 KWh pour 300 Kg, grâce à la technologie Lithium-Ion ( LiMPO4 ).


les ingénieurs de Toyota ne sont pas plus forts que les autres, ils sont seulement plus culotés.


Ils ont présenté en 1997 un véhicule baptisé hybride électrique, qui n’était en fait qu’une auto ordinaire à moteur thermique, munie d’un moteur électrique auxiliaire, et d’une batterie NiMh de seulement 1,5 KWh ( seule la technologie NiMh était disponible à cette époque). Rappelons qu’une batterie classique au plomb stocke 0,8 KWh.


Ce subterfuge a permis d’occuper le terrain, en associant le concept « véhicule hybride » à la notion d’écologie, et d’économie de carburant fossile. Le gain était minime, mais bien mis en valeur par le marketing. Il s’est vendu plus de deux millions de ces engins de par le monde.


Cette première mouture a donc été bien accueillie par le marché, ce qui encourage Toyota à continuer dans cette voie.


La nouvelle version de la Prius sera donc une « vraie » hybride rechargeable ( plug-in ), équipée d’une batterie Lithium-ion de 5,3 KWh qui donnera une petite autonomie électrique d’une trentaine de kilomètres.


500 exemplaires de ce modèle circulent en essai de par le monde, la commercialisation est prévue pour 2012.


Passer de 1,5 à 5,3 KWh peut sembler un saut technologique modeste, mais il est probable que Toyota a prévu un système modulaire permettant de monter une batterie plus grosse sur demande. Le concept peut encore évoluer d’ici 2012.


Cette version permettra au constructeur d’une part de tester le concept PHEV ( Plug-in Hybrid Electric Vehicle) et d’autre part de valider la technologie de batterie Li-ion sur le terrain.


Selon un porte parole de la marque, Toyota estime que la technologie actuelle des batteries ne permet pas encore de diffuser des véhicules tout électriques.


A contrario, Renault a choisi le concept tout électrique, avec le modèle Fluence ZE qui dispose d’une batterie de 22 KWh. Il s’agit d’une approche différente du marché, puisque ce concept n’est valable que s’il existe une infrastructure permettant l’échange standard des batteries ou leur recharge rapide ( système Quick drop, ou bornes dédiées) . Il n’existe aucune infrastructure de ce genre aujourd’hui.


La Fluence ZE doit être commercialisée mi 2011.


La Société Better Place, qui fait la promotion du système « Quick Drop » d’échange standard  de batterie, procède actuellement aux tests du procédé au Japon, en Israël, et au Danemark fin 2011.


Le choix stratégique de Renault est donc risqué, puisque son succès repose sur l’existence d’une infrastructure spécifique très lourde nécessitant des investissements très importants.


Beaucoup de concurrents donneraient cher pour savoir si, et comment Renault va s’y prendre pour développer le réseau Quick Drop.


Si Renault a un secret à cacher, c’est bien de ce côté qu’il faut chercher….


Repost 0
5 février 2011 6 05 /02 /février /2011 16:55

5 Février 2011


Les énergies renouvelables ont donc le vent en poupe. Chez nous le Grenelle de l’environnement avait semble-t-il marqué le début d’une ère nouvelle. La leçon était comprise, l’avenir était aux énergies propres, et le charbon, le gaz, et le pétrole, voués à s’éteindre avant le milieu du siècle.


C’est du moins ce qu’on pouvait lire dans les rapports officiels, qu’ils émanent des officines ministérielles, des instances internationales intéressées au climat et/ou à l’énergie, ou des « ONG » de l’environnement et du développement durable.


Mais que peuvent les bonnes résolutions contre le principe de réalité?


Certes, les énergies renouvelables ont acquis un statut respectable. Le solaire, l’éolien, l’hydraulique, la biomasse, sont montés aux créneaux et ont occupé le devant de la scène. Ils sont désormais l’objet de plans de développement avec des objectifs de croissance ambitieux, qui laissent entrevoir une fin de siècle débarrassée des scories des énergies « sales ».


En y regardant de près, voit cependant que les réalisations ont beaucoup de mal à suivre les plans de croissance. les projets restent des projets, l’argent des investissements n’est pas là.


C’est que certains ont oublié que, depuis quelques décennies, l’Economie est devenue libérale, conformément aux idées d’avant-garde prêchées par les gourous de la spécialité. En foi de quoi fini le dirigisme d’Etat, fini les plans long terme, fini les investissements sur l’avenir, l’Etat ne doit intervenir que pour sauver les banques. Le mot d’ordre des investisseurs privés est le profit le plus immédiat possible.


Or les énergies renouvelables, c’est du très long terme, du gros investissement pour un profit aléatoire, s’il y a profit. Les chrysorchides se soucient peu de  risquer leur argent sur des moulins à vent alors qu’il y a tant de blé à se faire tranquillement en spéculant sur les marchés.


Les Etats ont bien compris qu’on comptait sur eux pour mettre des sous sur cette affaire d’énergies renouvelables, mais d’une part ce n’est plus dans leur rôle ( non interventionnisme oblige ), et d’autre part ils sont endettés jusqu’au cou et personne ne souhaite alourdir sa barque, les agences de notation veillent au grain.


Alors, on bricole.


On tricote des tarifs préférentiels pour convaincre les particuliers d’installer des panneaux PV, avec un montage financier scabreux. On tente de séduire les industriels pour les amener à l’éolien, on vante les mérites du bois énergie, mais on doit importer des granulés.


Cette stratégie des actions sporadiques ne peut mener bien loin, en tous cas pas où le Grenelle de l’environnement avait prévu de nous amener.


Il est donc probable qu’il nous faudra vivre encore longtemps, très longtemps, avec les énergies fossiles carbonées.


Comme on dirait au café du commerce, c’est çà ou le nucléaire.


Il faut dire qu’entre temps la fable de l’épuisement rapide des réserves d’énergie fossiles carbonées a fait long feu. En effet, il est vite apparu que plus le prix du pétrole croît, et plus les réserves d’énergie augmentent. A 100 dollars le baril c’est l’aisance; à 200 dollars ce sera l’euphorie et à 300 dollars,  Byzance.


Oui mais, diront les environnementistes, et le CO2 dans tout çà ?


Je crois bien qu’on l’a un peu oublié. Je ne suis pas sûr que les gourous de Wall Street soient très préoccupés par le taux de CO2, ils sont intéressés par d’autres taux, et par leur plan de carrière.


Plus le pétrole est cher, et plus il y a d’argent pour faire des trous. Alors, on creuse. Et on trouve des choses.


Certains pensaient vaguement à la possibilité d’un pétrole abiotique. On a trouvé beaucoup mieux: les gaz de schistes, en quantité pratiquement illimitée, et partout, même en France.


Ce lapin, sorti du chapeau des modernes puisatiers, sonne le glas des espoirs de voir les réserves fossiles s’épuiser durant ce siècle. Le filon est paraît-il phénoménal, il y en aurait même dans l’Ardèche !


L’exploitation des gaz de schistes n’est pas une nouveauté, mais restait peu rentable tant que l’énergie traditionnelle était relativement bon marché. Mais, avec un baril durablement supérieur à 100 dollars, les énergies non conventionnelles deviennent intéressantes.


Aussi tous les pays se lancent-ils dans des campagnes d’exploration de leurs sols. La France n’est pas en reste.


Mais ce nouvel eldorado possède une face cachée peu reluisante.


Le gaz n’est pas sous pression dans une poche, il est disséminé dans la roche mère sous forme de petits filets qu’il faut faire sortir en injectant de l’eau sous pression ( 700 bar ) à laquelle on ajoute du sable et une sauce chimique de composition secrète.


Les inconvénients sont évidents: risques de pollution des nappes phréatiques par des contaminants chimiques, micro fracturation des sols avec risques de fuite de gaz vers l’extérieur, atteintes à l’environnement à cause des nombreux forages rapprochés nécessaires, énorme consommation d’eau, importantes infrastructures, etc…


Aux Etats-Unis,l’EPA ( Environment Protection Agency)  a demandé à toutes les compagnies actives dans ce domaine, des informations détaillées sur les procédés, les produits, les méthodes utilisées , permettant de réaliser des études d’impact .


La France a octroyé trois permis de prospection en mars 2010 (10.000 km2 en Aveyron, Hérault, Lozère, Ardèche et Drôme).


Total et GDF-Suez sont parties prenantes.


Cette décision a bien sûr été perçue comme une déclaration de guerre contre les énergies durables.


Ce nouveau séisme, ajouté au projet de relance du programme nucléaire, promet de belles empoignades au cours de la campagne électorale.


Allons-nous vers une nouvelle guerre de trente ans ?



 


 


 


 


 


 


 

Repost 0
4 février 2011 5 04 /02 /février /2011 14:39

4 Février 2011


Selon le rapport Puech ( voir article précédent) , la forêt française n’est pas prête pour une exploitation vigoureuse de nature à satisfaire les objectifs 2020 du grenelle de l’environnement.


Ce rapport contient une liste de propositions pour améliorer la situation.


Voici l’essentiel de ce programme.


D’abord l’esprit des propositions:


« L’efficacité passe par l’augmentation de l’exploitation de bois d’oeuvre, porteur de bois d’énergie, et non l’inverse ; ne vouloir que du bois d’énergie serait comme « vouloir des pieds de porc sans se préoccuper des jambons ! »


L’expression imagée traduit la volonté de ne pas tout miser sur l’aspect énergétique, mais bien de mettre sur pied une filière qui préserve les capacités à fournir un bois d’œuvre de bonne qualité. Cette volonté sous-tend l’ensemble du projet.


L’idée étant que « l’énergie la moins chère est celle que l’on ne gaspille pas », le bois de construction reste un bon matériau pour réduire les pertes énergétiques, il faut donc promouvoir son utilisation.


Quelques-unes des mesures proposées ( extraits):



«Pour conserver des emplois qualifiés et éviter des licenciements, accorder la prise en charge à 100% des indemnités de chômage partiel ».



«Mettre en place les conditions de financement de stages de formation indemnisés, permettant de développer le savoir-faire et les connaissances en matière de techniques d’exploitation, de sécurité et de protection de l’environnement ».



« Revoir les directives et orientations régionales en  raccourcissant d’environ 20 % les âges d’exploitabilité pour presque toutes les essences,  en  recourant à des éclaircies plus fortes pour accroître rapidement le diamètre des arbres et la stabilité des peuplements, en  préparant le remplacement de peuplements inadaptés et susceptibles de dépérir, et en  allongeant la durée de validité des documents de gestion ».



«Créer un fonds de reboisement et d’adaptation au changement climatique, puissant et stable, hors incertitudes de l’annualité budgétaire. La forêt doit se gérer dans le long terme et seul un tel fonds peut garantir une vraie politique forestière ».



 


 


 


«Créer un Fonds Forêt Bois pour la mobilisation du bois d’oeuvre, d’industrie et d’énergie, par le lancement d’appels d’offres pouvant faire émerger des acteurs couvrant l’animation, la formation, les investissements pour une meilleure accessibilité des parcelles, l’équipement des entrepreneurs de travaux forestiers, et des plates-formes logistiques, dans le respect du plan d’action forêt de la Stratégie Nationale de Biodiversité ».



«Inviter les collectivités, des communes à l’État, à se


doter d’un patrimoine boisé ou à le développer par la voie notamment des résorptions d’enclave  et à veiller à l’intégrer dans le développement local ».



«Prolonger pour une durée de 3 à 5 ans le plan de modernisation des scieries du ministère de l’Agriculture au-delà de 2009, son échéance actuelle, en doublant ses moyens d’intervention, soit 20 M€ dont la moitié pour des aides aux investissements dans la valorisation des sciages dont le séchage et les produits techniques, et autant pour les aides aux investissements dans l’augmentation de production ».



«Créer un Fonds d’investissement stratégique pour la filière bois doté de 100 à 150 millions d’euros. Ce fonds devra être articulé avec le fonds chaleur, et également avec le Fonds Forêt Bois de mobilisation ».



«Pour déclencher l’utilisation de bois pour l’énergie électrique, il convient de tripler l’actuel tarif d’achat obligatoire d’électricité bois, en le portant à 150 €/MWh, sous conditions de puissance, au moins 3 MWe, d’incorporation de 50 % de plaquettes forestières et de garanties


d’approvisionnement visées par les cellules biomasse ».



«Recommander, ou exiger immédiatement dans le cadre des opérations aidés financièrement par l'État pour les constructions neuves ou celles du


plan de relance, de multiplier par dix ce minimum ( d’incorporation de bois) en le portant à 20 dm3/m2, pour toute opération de construction individuelle ou, en moyenne pour un ensemble ».



 


 


« Création d’un label bâtiment « biomatériaux » ou « biosourcé »pour les constructions neuves et les réhabilitations lourdes. Avec plusieurs niveaux d’exigences liés aux objectifs à court, moyen et long terme du Grenelle, il s’appuierait sur les Fiches de Déclaration Environnementale et Sanitaire. L’État y adossera ses aides ».



 


« Accorder un crédit d’impôt sur la mise en place de lambris et parquets notamment, ce dispositif serait calqué sur celui actuellement en place pour les économies d'énergie, c’est à dire une "déduction du montant d'impôt ».



« Nombre de ces propositions ne relèvent que de simplification de la réglementation ou de l’organisation administrative, d’autres demandent la création de fonds pour enclencher cette nouvelle dynamique devant lui faire acquérir une situation d’autonomie économique.


Les propos tenus sur la forêt et le bois par Monsieur le Président de la République Nicolas Sarkozy dans les Vosges à Darney le 18 décembre 2008, ont redonné de l’espoir à la profession qui attend de ce rapport une reconnaissance et des décisions ».



Ce plan de mobilisation semble à la mesure de la tâche à accomplir.


Nous en suivrons l’application avec attention.


Repost 0
4 février 2011 5 04 /02 /février /2011 11:02

4 Février 2011

 

La forêt française représente près de 30% du territoire ( 15,5 M ha ).

 

On peut penser qu’un tel patrimoine naturel favorise le développement d’une filière bois performante de nature à placer notre pays en bonne position commerciale, notamment à l’exportation.

 

Qu’en est-il exactement ?

 

Le rapport Puech, commandé par Nicolas Sarkozy, nous fournit un certain nombre d’informations:

 

Ref:  Rapport Puech/ 2008/ Forêt française/ « agriculture.gouv.fr »

 

- Le secteur bois participe au second rang au déséquilibre de la balance du commerce extérieur, pour un déficit de 6,3 milliards d’euros !

 

- La régénération par plantation est en panne, le nombre de plants a chuté de 70% en 15 ans.

 

- La régénération est essentiellement naturelle, méthode trop longue et aléatoire, et insuffisante à reconstituer les couverts.

 

- La grande diversité des espèces complique l’exploitation des parcelles.

 

(La richesse écologique est en même temps un handicap commercial).

 

- Sur les 525 000 ha détruits par la tempête de 1999, seulement 125 000 ont été reconstitués.

 

- Les dégâts de Klaus ne sont pas encore réparés.

 

- Les 40 à 80 000 ha supplémentaires revendiqués chaque année ne sont que des friches broussailleuses inaptes à participer à la filière bois. En fait il s’agit essentiellement de déprise agricole dont le potentiel bois est faible.

 

- Les investissements consacrés à la forêt française sont parmi les plus faibles d’Europe.

 

- Le FFN ( Fonds Forestier National), créé en 1946 pour soutenir le développement de la forêt française, a été supprimé en 2000, pour réduire les charges des industriels de la filière bois.

 

- La filière du granulé est à peine en phase de croissance, et déjà la France doit importer des granulés d’Allemagne et d’autres pays de l’UE.

 

- Les industriels du bois n’exploitent que 60% de la ressource potentielle, ce qui laisse chaque année 36 Mm3 de bois inexploités.

 

- La forêt est trop morcelée, et 74% de la surface boisée est disséminée entre 3,5 millions de petits propriétaires privés.

 

- Une partie importante des forêts françaises est en zone montagneuse et/ou difficilement accessible.

 

- Les populations de grands gibiers, en surnombre, portent souvent préjudice à la régénération .

 

Ce tableau apocalyptique est probablement à nuancer, mais dans les grandes lignes il donne une bonne mesure de l’effort qui est à accomplir pour donner à notre pays une chance d’atteindre les objectifs fixés par le Grenelle de l’environnement.

 

Le rapport Puech fournit des propositions que nous analyserons dans un prochain article.

 
Repost 0
3 février 2011 4 03 /02 /février /2011 14:02

2 Février 2011


Le rapport final du projet EUWOOD de Juin 2010 nous apprend que les vingt-sept pays de l’Union on consommé cette même année 71 Mtep de bois-énergie, c’est-à-dire de bois de chauffage.


Ce chiffre impressionnant est à rapprocher de la consommation totale d’énergie , qui est de 1 900 Mtep.


Le bois-énergie ne représente donc que 3,7% du total, ce que l’on savait déjà par ailleurs.


La production de bois de toutes natures s’est élevée à  747 millions de m3 en 2010 dans l’Union.


70% en provenance des forêts.


30% issus de la biomasse hors forêts.


Ce bois a servi pour 57% comme bois d’oeuvre pour le bâtiment, l’ameublement, le conditionnement, l’aménagement des locaux, etc…, et pour 43%  comme source d’énergie.


Dans la stratégie de substitution des énergies fossiles carbonées par des énergies renouvelables, six candidats sont sollicités:


- Solaire.


- Eolien.


- Bois énergie/ Biomasse.


- Valorisation des déchets.


- Hydraulique.


- Géothermie.


La participation de chaque secteur dépendra évidemment des potentiels respectifs. Chaque secteur possède ses limites, soit liées à la ressource, soit à l’emprise foncière, soit à un conflit avec l’environnement, soit à la rentabilité, ou à toute autre raison.


Le secteur bois-énergie n’échappe pas à la nécessité d’évaluer le potentiel des forêts de l’Europe des 27 , ce qui permettra d’assigner un objectif de croissance réaliste à la filière.


Les travaux du projet EUWOOD ont permis d’évaluer le potentiel annuel théorique de biomasse des forêts de l’Europe des 27.


Pour 2010, ce potentiel THEORIQUE était de 1 277 millions de mètres cube. Cette valeur repose sur une base d’exploitation de 50 années.


Les analyses d’évolution laissent prévoir une légère décroissance, pour arriver à 1 254 Mm3/an en 2030. La répartition est la suivante:


Fûts: 52%


Souches: 21%


Résidus: 26%


Divers:   1%


La capacité théorique de production ne peut jamais être pleinement exploitée. Un certain nombre de contraintes doivent être prises en compte:


- Contraintes environnementales ( préservation des espaces).


- Contraintes sociales ( droit de propriété, droit des Etats ).


- Contraintes techniques ( accessibilité ).


- Contraintes économiques ( rentabilité).


En 2010, compte tenu de ces contraintes, la production Européenne a été de 747 Mm3.


Les estimations pour 2030 vont de 600 Mm3 à 900 Mm3 selon différents scénarios d’évolution des contraintes.


Si la proportion de bois énergie se maintient à 43%, les volumes disponibles pour l’énergie devraient demeurer à peu près constants, au niveau d’aujourd’hui, environ 70 Mtep, environ 320 Mm3.


Le volume pourrait augmenter de 20% en 2030 si une politique volontariste est mise en place au niveau européen.


Mais la ressource n’est pas extensible. Des besoins supérieurs ne pourraient être satisfaits que par l’importation hors zone de l’Union.


Aujourd’hui le bois énergie est utilisé essentiellement sous forme de bûches. Les briquettes et granulés (pellets) ne participent encore que pour une faible part et sont issus de la valorisation des résidus de scieries.


L’accroissement de la demande de granulés ne pourra pas être satisfait par les seuls résidus de scierie. Il sera nécessaire de transformer du bois « normal ».


Le développement de la filière granulés ne pourra donc  se faire que sur la base d’un partage de la ressource à peu près constante, c’est-à-dire au détriment du marché des bûches. Il en résultera une tension sur les approvisionnements et donc sur les prix.


De plus, le remplacement, même partiel, des combustibles fossiles (charbon, fuel, gaz) par du bois entraînera mathématiquement une accroissement considérable de la demande.


Or nous avons vu que la ressource bois restera constante sur les prochaines décennies. Il faudra donc recourir aux importations, avec des incidences imprévisibles sur les prix.


Le rapport final de l’EUWOOD estime que la demande dépassera l’offre entre 2015 et 2020.


Voici leur conclusion:


«if Europe wants enough wood supply for both material and energy


purposes in 2030, action according to a comprehensive strategy should start now » .

Repost 0