Overblog
Suivre ce blog Administration + Créer mon blog
7 février 2011 1 07 /02 /février /2011 11:23

7 Février 2011


Désormais nul n’ignore les graves lacunes des organismes officiels de gestion des problèmes de santé publique. Il suffit d’évoquer les multiples scandales que chacun a en mémoire, depuis l’amiante jusqu’au médiator, en passant par la thalidomide, le sang contaminé, et quelques autres à chercher dans la fameuse liste des 77 jetée en pâture en guise de contre-feu.


Quelles que soient les raisons de cette incapacité avérée à gérer correctement les risques sanitaires autrement qu’à postériori quand les scandales ont éclaté, le résultat est une perte de confiance totale du public dans les assertions officielles concernant l’innocuité d’un nouveau produit ou d’une nouvelle technologie.


L’utilisation massive des ondes hyperfréquences dans les télécommunications a fait naître dans le public une inquiétude légitime, eu égard à leurs effets spectaculaires dans les fours à micro-ondes. Les professionnels des télécoms, et les organismes officiels de santé publique, ont affirmé que les risques étaient nuls dès lors que certains seuils de champ étaient respectés.


Ces affirmations rassurantes n’ont pas convaincu les usagers, qui gardent la mémoire  de quelques scandales retentissants.


Ce public n’a pas tout à fait tort…


Toujours en référence au four à micro-ondes de nos cuisines, la plupart des études mettent en avant  les possibles effets thermiques des hyperfréquences, et les dégâts éventuels en relation avec le cancer.


Les enquêtes épidémiologiques sur les effets possibles sont donc orientées vers la recherche de cancers. Or les cancers éventuels ne peuvent apparaître qu’au bout de nombreuses années, souvenons-nous de l’amiante. Inutile de dire que ces enquêtes « épidémiologiques » ont été négatives.


Les véritables dangers de l’exposition aux hyperfréquences sont autres. Ils sont d’ailleurs largement documentés dans la littérature scientifique.


Mais ils restent superbement ignorés des instances responsables de la santé publique. Faut-il s’en étonner ?


Notre micro-ondes de référence fonctionne à 2,45 Ghz. Cette fréquence n’a pas été choisie par hasard. Elle correspond au meilleur compromis pénétration-puissance pour chauffer les aliments en créant des pertes diélectriques par vibration des molécules d’eau dipolaires.


Le téléphone portable fonctionne sur les fréquences de 0,9, 1,8, et 1,9 Ghz. Le WiMax utilise la bande de 2 à 11 Ghz ( 3,5 Ghz en Europe ). Donc dans le domaine des hyperfréquences.


Il est donc légitime de s’interroger sur les effets physiologiques de ces ondes.


Il serait naïf de croire que l’effet des hyperfréquences sur la matière vivante se borne aux seules vibrations bien innocentes des molécules d’eau.


Les processus physiologiques sont tous essentiellement électriques. Les échanges ioniques au travers des membranes cellulaires, les transmetteurs neuronaux, la circulation des signaux dans le cerveau et le long des réseaux nerveux, tout est géré par des signaux et des interactions électriques, y compris la structure des molécules d’ADN.


Dès lors que des ondes hyperfréquences pénètrent la matière vivante, des effets se produisent.


Le problème n’est donc plus de prouver l’existence de ces effets, mais de les identifier, de les caractériser, de mesurer leur dépendance à la nature et à l’intensité des ondes, et d’en établir la nocivité s’il y a lieu.


Un tel travail n’a jamais été effectué de manière systématique. Il existe cependant des travaux ciblés donnant des résultats partiels, à partir d’expérimentations animales.


Ces travaux sont trop abondants pour être tous cités ici. On pourra consulter, pour information, les proceedings de l’ICNIR 2003 (International Conference on Non-Ionizing Radiations) :


«Biological effects of microwaves and mobile telephony »


Dans une telle situation, deux attitudes sont possibles:


Faire jouer le fameux principe de précaution, on arrête tout en attendant d’y voir plus clair. Mais les hyperfréquences, c’est comme le pétrole, il y en a partout. Y compris dans la Télé, les canaux 21 à  69 sont dans la bande 0,47 à 0,860 Ghz , dans laquelle certains émetteurs diffusent à puissance considérable, beaucoup plus élevée que dans la téléphonie mobile, et personne ne s’en est plaint jusqu’à présent.


Remarquons que la TNT diffuse maintenant avec une modulation semblable à celle des téléphones portables ( COFDM). Je n’ose même pas vous dire quelle est la puissance des émetteurs de la tour Eiffel….


Rappelons aussi les très fortes puissances des faisceaux hertziens pour les liaisons point à point, dans les bandes de plusieurs Ghz.


Il paraît tout à fait irréaliste se songer à arrêter tout çà.


La seconde attitude consiste à prendre acte du problème ( ce n’est pas fait aujourd’hui ) , mettre en place les structures pour supporter les recherches sérieuses sur les effets physiologiques, pour ensuite prendre des décisions.


Dans l’état actuel , et dans tous les cas où c’est possible, il vaut mieux éviter d’en rajouter une couche. C’est pourquoi il est souhaitable de ne pas disposer des émetteurs WiMax n’importe où sans discernement . Une solution filaire est toujours préférable.



 


 


 


 

Partager cet article
Repost0
9 décembre 2010 4 09 /12 /décembre /2010 11:45

9 Décembre 2010


Concernant le débit que l’usager peut espérer d’une liaison WiMax, on trouve des indications très variables. En fait, la seule réponse sensée serait «  çà dépend… » un peu comme le fût du canon de Fernand Raynaud.


En effet, la norme IEEE 802-16 permet une transmission dite « adaptative » , ce qui est une qualité incontestable, mais qui implique par ailleurs certaines contraintes.


Le procédé grâce auquel les informations numériques sont transmises est trop complexe pour être décrit ici. Il suffit de savoir que la station de base ( l’antenne ) sait identifier chacun des abonnés individuellement, en terme de distance, de type de matériel de réception, de qualité de son antenne réceptrice, de type de service qui est demandé. De plus, la base est capable de mesurer la qualité de la transmission avec cet abonné, et ceci en permanence.


Par ailleurs la base a la possibilité technique d’adapter en temps réel le débit numérique servi à cet abonné , et de choisir le débit pour lequel la qualité de transmission sera convenable en fonction de certains critères ( QoS, Quality of Service).


Chaque abonné se verra donc attribué un débit de transmission individuel, qui pourra être différent de celui des autres abonnés.


Par exemple, si un abonné est situé loin de l’antenne, ou masqué par un obstacle, la transmission sera difficile; dans ce cas la base choisit , pour lui, un type de modulation plus « robuste », qui lui assurera une bonne réception. Or si on augmente la « robustesse » de la transmission c’est au détriment du débit, qui va être plus faible.


Pour un autre abonné qui se trouve près de l’antenne , la base va pouvoir lui servir la modulation la plus performante , avec un débit très supérieur au cas précédent.


Donc, le même jour, à la même heure, deux abonnés du même secteur d’antenne pourront avoir des débits très différents.


En plus de cet ajustement technique du débit , il faut également compter avec le nombre d’abonnés connectés simultanément sur le réseau. Pour éviter la cacophonie digitale, la base doit procéder à une régulation des accès. Pour cela elle fait appel à un algorithme qui gère lui-même les « temps de parole » en tenant compte de l’harmonisation des délais, du type de service demandé, et bien sûr du contenu du contrat d’abonnement.


Pour toutes ces raisons il n’est pas possible de connaître à l’avance le débit sur lequel on va pouvoir compter.


Une seule certitude: plus on se rapproche de l’antenne et plus les performances s’améliorent.

Partager cet article
Repost0
7 décembre 2010 2 07 /12 /décembre /2010 11:41

7 Décembre 2010


Le Gouvernement a lancé en Décembre 2009 le label « Haut débit pour tous »


Il s’agit d’attribuer un label de qualité pour permettre à l’usager de voir clair dans la multiplicité des offres qui lui seront présentées.


Grâce aux média le WiMAX est perçu du grand public comme LA solution ADSL performante capable de pallier avantageusement les défaillances de la paire de cuivre dans les « zones blanches ».


Mais WiMAX est une norme adaptative qui permet de moduler les performances en fonction de la robustesse du canal utilisé ( distance, hauteur d’antenne, obstacles, interférences, etc…). D’autre part, comme dans toute liaison radio , la ressource disponible sur un canal donné doit être partagée entre les usagers de ce  canal.


WiMAX peut donc offrir le meilleur comme le pire selon les circonstances.


Il est donc intéressant de se pencher sur le cahier des charges que les FAI devront respecter pour avoir droit au fameux label.


Voici l’essentiel des performances exigées:



«Le service d’accès à Internet doit permettre d’échanger des courriels et des fichiers de taille raisonnable (de l’ordre de 1 Mo) et de consulter et d’utiliser la plupart des sites internet accessibles au public en bénéficiant en fonctionnement normal, avec un objectif de disponibilité du service permanente, du débit théorique suivant :





un débit descendant minimum de 512 kbit/s ;


un débit montant minimum de 96 kbit/s.





Au-delà de l’échange de 2 Go de données sur un mois (dont 300 Mo en émission), le débit maximum proposé est susceptible d’être limité et la connexion coupée.



L’usage intensif des téléchargements peer-to-peer et la visualisation prolongée de vidéos ne sont donc pas exigés des prestataires.



Il n’est pas exigé que le service proposé permette la réception de la télévision ou de la radio, l’utilisation des jeux vidéo en réseau, ou d’un service de téléphonie dont le flux serait différencié des autres flux de données ».


 

 

 

http://www.hautdebitpourtous.telecom.gouv.fr/cahier_des_charges.php  



Voici donc ce que pourra offrir un FAI détenteur du label « Haut débit pour tous » sans risquer de se voir poursuivi .


Pas de peer-to-peer, pas de jeux vidéo en ligne, pas de transferts d’images, et bien sûr pas de télévision ni de radio, et menace de coupure de connexion en cas de dépassement d’un quota.


Je conseille aux usagers intéressés par le WiMAX de bien lire le contrat et le cahier des charges avant de signer.



 


 


 


 


 


 


 


 


 

 
Partager cet article
Repost0