•  

    Contribution à la concertation publique sur les zones d'accélération des énergies renouvelables* 

    L'exemple du Pays de St Gilles Croix de Vie

    De la théorie à la pratique

    Par Daniel André et Didier Chabaillé

    * La Loi d'accélération de la production d'énergie renouvelable (APER) prévoit que les communes peuvent désormais définir, après concertation avec leurs administrés, des zones d'accélération, où elles souhaitent prioritairement voir des projets d'énergies renouvelables s'implanter.

    Le Pays de St Gilles Croix de Vie et les zones d'accélération des énergies renouvelablesPréambule 

    Il ne faut pas considérer notre communauté d'agglomération comme une île isolée devant vivre en autarcie complète.

    La communauté d'agglomération s'intègre dans un département, une région, un pays: la France et l'Europe.

    A propos du projet gouvernemental sur l'objectif zéro carbone en 2050, le ministre Bruno Lemaire annonce des budgets de dizaines de milliards d'Euros et déclare :

    "Ces éléments seront affinés par décret. Plutôt que de passer par une loi de programmation pluriannuelle de l’énergie, le ministre assume ne pas solliciter le vote des parlementaires pour atteindre l’objectif de neutralité carbone en 2050." 

    On demande aujourd'hui à la population son avis sur ce dossier de concertation sur les zones d'accélération des énergies renouvelables.

    C'est un exercice très difficile voire impossible car il fait complètement l'impasse sur notre environnement géographique, énergétique, économique, politique et son financement.

    On peut également craindre que le choix assumé par le gouvernement d’ignorer toute concertation avec la représentation parlementaire nationale n'aboutisse in-fine à déclarer cette procédure brouillonne, inconstitutionnelle.

    Est-ce que le Conseil Constitutionnel et le Conseil d’État accepteront ces budgets considérables non financés ?

    Ils engageront l'avenir de la France pour des dizaines d'années sans que les conséquences financières, économiques, climatiques, écologiques et même son indépendance ne soient discutées, estimées et approuvées par la représentation nationale ?

    Il est clair que le projet gouvernemental sur la transition écologique est prématuré, mal étudié et incomplet. Il ne prend pas en compte la réalité du pays et l'avis des populations. Il ignore les nombreux développements en cours dans de nouvelles technologies. Monsieur Lemaire veut accélérer les décisions. Un tel projet "mal ficelé" peut ruiner définitivement la compétitivité de notre Pays.

    La concertation publique sur les zones d’accélération des énergies renouvelables est largement prématurée car elle porte sur un projet inconnu à  ce jour.  

    Nous demandons donc que cette concertation prématurée soit déclarée nulle.   

    Nous signalons ci-après de nombreux points qui selon nous, doivent être étudiés sérieusement.

    Il nous semble que l'objectif de la transition énergétique est de produire et consommer localement pour réduire notre empreinte carbone.

    Au niveau européen, des investissements considérables ont été faits dans le développement des énergies renouvelables intermittentes : l’éolien et le photovoltaïque. Ces dépenses dans des solutions intermittentes inabouties et non-rentables conduisent le marché de l'électricité à des aberrations :

    Les périodes de production importante (Vents forts, ensoleillement important) sont imprévisibles et décorrélées des périodes de consommation importante. Cette situation prévisible entraîne des résultats aberrants :

    Les prix de gros de l'électricité baissent jusqu’à devenir négatifs. On paie alors de gros consommateurs pour qu'ils consomment les excédents produits !

    Les énergies renouvelables ayant un accès prioritaire au marché, EDF a dû récemment arrêter six réacteurs nucléaires de 900 MW. Ces arrêts intempestifs sont très coûteux et, à terme, leur multiplication pourrait entraîner une fatigue et un vieillissement prématuré de ces réacteurs.

    Les énergies renouvelables bénéficient d'un accès garanti au marché à des prix garantis. Dans les périodes de surproduction, on est parfois obligé de déconnecter des parcs d'éoliennes du réseau et les exploitants sont alors indemnisés pour l'électricité non-produite.

    -              Durant les périodes de production insuffisante (Absence de vent, manque de luminosité), les prix de gros de l'électricité s'envolent et atteignent des sommets. Les exemples chinois et allemands prouvent qu'un développement important des énergies renouvelables intermittentes nécessite en parallèle un développement important des moyens de production d'énergies pilotables, c'est à dire, le plus souvent, la construction de centrales au fuel, au charbon ou au gaz très polluantes et/ou la construction de stations de stockage coûteuses et aux capacités réduites.

    Ces politiques brouillonnes expliquent les hausses phénoménales du prix de l'électricité en France

             

    Sur les conséquences d'un 2éme parc en mer en Vendée 

    Le gouvernement prévoit de passer la production de l’éolien en mer de zéro à 20 % de notre production en 25 ans, soit 18 gigawatts en 2035, l’équivalent de 11 réacteurs nucléaires, a confirmé Monsieur Bruno Le Maire.

    Cet objectif nous semble non souhaitable et utopique.  La commission européenne est du même avis puisqu'elle envisage de sanctionner la France pour son inaction dans la transition écologique.

    Les parcs éoliens en mer ont une durée de vie d'environ 15 à 20 ans. Le vieillissement des premiers parcs construit en Mer du Nord révèlent de nombreux problèmes. La maintenance de parcs vieillissants devient très lourde et très coûteuse.

    Les technologies ont évolué et les pièces détachées manquent ; les Chinois sont aux abonnés absents…

    La déconstruction est très difficile. Le remplacement par de nouvelles éoliennes est en général inenvisageable. On ne sait pas recycler les pales, etc...

    Il est à craindre que les opérateurs, après s'être enrichis, ne déposent leur bilan et que nous léguions à nos enfants des forêts d’éoliennes rouillées et polluantes.

    Bien que le devenir du futur deuxième parc éolien de Vendée dépende du gouvernement, ce projet aura de nombreuses conséquences pour notre communauté d'agglomération et nos habitants.

    En plus, le gouvernement prévoit la construction de 14 EPR2 pour environ 100 milliards et le développement de petits réacteurs nucléaires de 3ème et 4ème génération.

    Selon les promoteurs du parc de l’Île d'Yeu / Noirmoutier, la puissance installée de 496 MW doit produire en moyenne 1900 GWh/an d'électricité, quantité d'électricité suffisante pour 800.000 habitants, soit plus que la population vendéenne.

    * Le nord-ouest vendéen va donc produire localement beaucoup plus d'électricité qu'il n'en consommera.

    * Ce parc éolien est raccordé à la station électrique RTE de Soullans, commune limitrophe de notre communauté d'agglomération.

    * Les prix qui circulent pour l'investissement dans la construction des éoliennes et de leur raccordement au réseau vont de 2 à 2,5 milliards d'Euros.       C'est énormément d'argent qui in fine, sera payé par le consommateur et/ou le contribuable qui sont en fait les mêmes personnes !                                          * En attendant de savoir ce qu'il adviendra de ce 2éme parc vendéen, il serait plus sage, plus rationnel, plus écologique et plus économique de bloquer tout investissement supplémentaire dans les énergies renouvelables intermittentes dans notre communauté d’agglomération.

    Par ailleurs, le dossier de concertation sur les zones d'accélération des énergies renouvelables ne parle que de la production locale des énergies renouvelables. Il n'aborde pas le devenir de l'électricité produite localement.

    Rien ne sert de produire localement si nous ne prévoyons pas aussi des moyens de stocker localement ou d'adapter le réseau pour expédier les excédents produits ou recevoir les quantités manquantes.

    Ces deux prérequis seront probablement inatteignables. Les solutions de stockage sont peu performantes et très chères à développer en quantité significativement utile.

    Pour l'adaptation des réseaux aux niveaux national et local, les experts et Enedis et RTE s'accordent à dire que nous seront incapables de respecter nos prévisions.

    Enedis en 2021 envisageait qu’il faudrait investir entre 2 et 8 milliards d'Euros supplémentaires chaque année jusqu'en 2050. Cette trop large fourchette fait peur, alors que le gouvernement est obligé de racler les fonds de tiroirs pour faire quelques petites économies.

    Il est admis que nous manquerons de minéraux pour la transition énergétique, notamment de cuivre dont le prix côtoie déjà les 10.000 $ la tonne.

    Il n'échappe à personne que l'état des finances de la France, des collectivités locales et des Français ne permettra pas de financer un tel programme finalement hors de notre portée.

    Nous proposons que nous bloquions dans notre communauté d'agglomération toute décision d'investissement dans les énergies renouvelables intermittentes.  

    Sur les panneaux photovoltaïques 

    Le ministre Bruno Lemaire prévoit d'investir par la commande publique 20 milliards dans les panneaux solaires. Pour nous fournir, nous dépendons actuellement à 90 % de la Chine. Il n'y a pas mieux pour ruiner toute tentative d’initiative technologique française, enfoncer un peu plus notre déficit extérieur déjà plombé par les subventions aux véhicules électriques.

    Le photovoltaïque pourrait être le seul point où il pourrait être intéressant d'investir mais à condition que ce soit d'abord dans la recherche.

    Des sociétés françaises comme le CEA et SOITEC travaillent sur de nouveaux panneaux aux pérovskites qui seront beaucoup plus performants et moins chers à produire que ceux au silicium. SOITEC a déjà obtenu un rendement de 38,9 % avec ces panneaux soit environ le double des panneaux classiques

    La France tente d'investir dans des usines françaises de panneaux photovoltaïques. Il serait suicidaire et incompréhensible d'accélérer les achats de panneaux chinois.

    Attendons qu'une production Française ou européenne compétitive soit disponible sur notre marché.

    Le programme d'accélération des énergies renouvelables prévoit que cette énergie soit développée au niveau des parkings des Grandes Surfaces et des habitations individuelles. A aucun moment le programme d'accélération présenté n'aborde les coûts engendrés. 

    Compte tenu de la situation financière catastrophique qui règne en France à tous les niveaux, nous pensons que tout programme sérieux doit être en mesure de s’autofinancer.

    Nous demandons que la communauté d'agglomération n'accorde aucune subvention pour des maisons individuelles ou des parkings de grandes surfaces mais plutôt une aide avec un prêt remboursable sur une durée acceptable, 5 ans par exemple.

    Ce prêt ne serait accordé qu'aux projets prévoyant une solution de stockage d'énergie pour une consommation donnée, par exemple de 3 jours à une semaine de consommation.

    En effet seules les installations lissant les pics et les manques d’électricité pourraient  être utiles à la communauté

    L'installation d'ombrières  

    En ce qui concerne l'installation d'ombrières au-dessus des parkings de la grande distribution, l'idée, a priori, peut sembler bonne mais elle mérite d'être affinée.

    Premièrement, attendons d'avoir des panneaux produits en Europe.

    Deuxièmement, les panneaux transforment actuellement environ 20 % de l’énergie reçue en électricité. Ces panneaux noirs absorbent le reste de l’énergie lumineuse, notamment les infra-rouges, et la dissipent sous forme de chaleur. Une grande surface de panneaux entraîne localement une élévation importante de la température et un assèchement des sols.

    Il faudra être vigilants pour construire des ombrières et pas des étuves irrespirables. La grande distribution ne semble d'ailleurs pas emballée par le fait de couvrir de panneaux ses  parkings de plus de 1500 mètres carrés.

    Leur association, la PERIFERM, souligne que ceci ne doit pas se faire à n'importe quel prix ! En clair, nous ne voulons pas payer, c'est aux collectivités locales de le faire !

    Elle souligne également que l'installation des ces panneaux stérilisera pour 15 ou 20 ans d'immenses surfaces de qualité. Avec le développement des zones zéro artificialisation nette, ce foncier de qualité est un capital de grande valeur bloqué.

     

    Conclusion 

    Nous pensons qu'il est déraisonnable, en fonction des éléments d’information précédemment évoqués, qu’il est inutile, contre-productif et ruineux de prendre aujourd'hui des décisions d'accélération des énergies renouvelables dans notre communauté d'agglomération.

    Nous pensons, au contraire, qu'il est urgent de freiner ce développement tant que nous n'avons pas l'ensemble des paramètres permettant de faire une évaluation sérieuse et précise des besoins futurs et des conséquences en matière de production et consommation locale et nationale d'électricité, sur l'adaptation des réseaux, sur la disponibilité de technologies européennes compétitives capables de s'autofinancer et sans connaître l'apport de technologies nouvelles : hydrogène blanc, captation géologique du CO2 ou captage et réutilisation du CO2 comme matière première, etc..

    Au rythme actuel d’évolution  des différentes technologies, nous y verrons plus clair dans 2 ou 3 ans, simple considération de bon sens…

     

     

    Daniel André

    Didier Chabaillé                    

     

     

    85270 Saint Hilaire de Riez

    85270 Saint Hilaire de Riez

     

     

       : 

     

     

     

    Partager via Gmail Yahoo!

    votre commentaire
  • Fuites dans les médias : Le changement climatique par des armes météorologiquesLe 18 octobre 2023, nous avions consacré un article à ce sujet éminemment "complotiste" : Armes climatiques - Réalité ou utopie ?

     http://www.renitens85.fr/armes-climatiques-realite-ou-utopie-a214897953  

     Avec, un lien vers la liste des 173 brevets déposés depuis... le 6 août 1913. L'idée n'est pas nouvelle et ce nouvel article vient confirmer ce que nous savions déjà : les "complotistes" ont généralement raison avant tout le monde. Pourquoi ?

    "Le problème n'est pas que vous n'ayez pas été éduqué. Le problème est que vous avez été éduqué juste assez pour croire ce qu'on vous a enseigné, mais pas assez pour remettre en cause tout ce qu'on vous a dit"

    Edgar Morin

     

    Sources : : www.kla.tv/28646

    Les causes de la chaleur, des incendies prolongés et autres catastrophes météorologiques semblent évidentes : le changement climatique provoqué par l'homme et donc les émissions élevées de CO2. Mais c'est justement dans les grands médias que des indices suspects sur d'autres causes à peine connues ont filtré. Une raison de plus pour Kla.TV de jeter un coup d'œil de l’autre côté de la clôture et de s'intéresser aux causes peu connues des changements climatiques.

    Des vagues de chaleur, les sécheresses, les incendies interminables, les tremblements de terre, les tornades, les tsunamis et bien d'autres catastrophes météorologiques tourmentent de plus en plus l'humanité.

    Sommes-nous confrontés à un « changement climatique d'origine humaine » ? Alors que les médias ne se lassent pas de faire porter la responsabilité au simple citoyen, il y a de plus en plus d'indices d'une manipulation ciblée de la météo qui filtrent. Il est question de technologies de modification du temps contrôlées par l'homme qu'il est urgent de faire connaître au public. 

    Dans ce qui suit, Kla.TV reprend des indications provenant des médias dominants qui démontrent que la recherche et l'utilisation d'armes climatiques sont réelles et ont une longue histoire. 

    1)    Le 14 mars 2019, la ministre suisse de l'environnement Simonetta Sommaruga a déclaré dans une interview en marge de la 4e Assemblée des Nations unies sur l'environnement : « Oui, la Suisse a essayé de mettre sur la table le thème de la géo-ingénierie, c'est-à-dire l’épandage de particules dans l'atmosphère, de rassembler les informations et d'examiner les bénéfices les risques ... Ce sont des essais que l'on fait sans même en connaître les conséquences. Mais nous continuerons à nous battre pour cela. Nous devons parfois nous y reprendre à deux fois. Et cela continuera de toute façon. Le sujet est trop important et, le cas échéant, trop problématique pour que nous puissions simplement faire l’autruche.    (https://youtu.be/5-yaUvqzIq4?si=H5MFIOz86coTX_Nr )

     

    2) Le 14 janvier 2009 déjà, le météorologue diplômé Gunther Tiersch a fait quelques remarques troublantes lors de l'annonce du bulletin météo  sur la chaîne allemande ZDF. Il a décrit le temps sur la carte affichée comme suit : « Et puis nous avons ici quelque chose que nous ne pouvons identifier ni comme de la neige ni de la pluie, ici à l'ouest, ces lignes sinueuses, c'est probablement ce que quelques avions, des avions militaires, ont libéré l'après-midi au-dessus de la mer du Nord, à une altitude d’environ 5-6 000 mètres. Rien à voir avec la météo... » Peu de temps après, suite aux nombreuses questions des téléspectateurs sur ce bulletin météo, la ZDF a interviewé le spécialiste Karsten Brandt du service météorologique. Voici sa réponse originale, fortement abrégée. 

    Présentateur : « Un phénomène que Karsten Brandt du service météorologique 'Donnerwetter' connaît bien. Les météorologues ont remarqué ces étranges nuages fantômes pour la première fois en 2005. Les navires de guerre se camouflent également avec de tels nuages artificiels. Ces paillettes ont été développés dès la Seconde Guerre mondiale.

    Si à l'époque, elles étaient constituées de fragments d'aluminium, ce sont aujourd'hui des fibres de verre vaporisées à l'aluminium d'une longueur de 15 à 25 millimètres et d'un diamètre d'environ 100 micromètres. 

    Si les filaments sont deux fois plus petits que la longueur d'onde du radar, des faux échos se produisent.

    Concernant les énormes nuages fantômes provenant de la côte hollandaise, des tonnes de cette substance sont régulièrement répandues sur la République fédérale. » Le météorologue Karsten Brandt : « Nous mettons en place des zones environnementales et autres, mais apparemment, ces zones environnementales ne sont pas respectées à 4 à 5 000 m d'altitude au-dessus de la mer du Nord, ni au-dessus de l'Allemagne. Peu importe ce qui y est épandu. Je trouve cela incroyable ! » ...

     

    Présentateur : « Même si ces nuages ne provenaient pas de l'armée allemande, que personne ne se sente responsable de ces substances régulièrement déversées au-dessus de l'Allemagne, ce qui est interdit en fait, les météorologues estiment que c’est tout simplement absurde. » Conclusion de la présentatrice : « Absurde est un bel euphémisme, car ici, la population est dupée ! » 

    3) Le physicien et présentateur de télévision allemand Joachim Bublath a fait des déclarations très détaillées sur le thème des manipulations météorologiques par les militaires dans un documentaire pour la ZDF. Il y évoque les manipulations météorologiques effectuées par les militaires au moyen d'installations d'antennes géantes et la création de nuages artificiels. Ici également, un extrait du texte original. Joachim Bublath : " On soupçonne que les puissants émetteurs et les grandes installations d'antennes HAARP sont également utilisés pour ces essais militaires ". 

     

    Fuites dans les médias : Le changement climatique par des armes météorologiquesGakona/Alaska : « Loin de toute civilisation, les militaires américains exploitent une installation destinée à manipuler l'ionosphère. Ce projet mystérieux se nomme HAARP. Une immense forêt d'antennes peut émettre des ondes radio dans l'ionosphère... Avec ces ondes radio, ils essaient de modifier l'ionosphère. Les ondes radio pompent de l'énergie dans cette couche de particules chargées électriquement. L'ionosphère se charge, se dilate à ces endroits et présente des perturbations. Un moyen de créer des difficultés à l'adversaire militaire... » Plus loin, Bublath fait état d'une installation similaire près de Troms, en Norvège. Vient ensuite un extrait de la BBC qui évoque la création de nuages artificiels par la NASA. 

    Bref bilan intermédiaire : 

    Il y a plus de dix ans, la chaîne de télévision allemande ZDF a fait un reportage sur les opérations du secteur militaire visant à influencer la météo à des fins militaires par l'épandage de particules et l'installation d'antennes géantes. Vous entendez maintenant une autre voix qui parle de manière très détaillée de la nature et des objectifs des manipulations météorologiques.

    4. La chaîne de télévision espagnole « La 8 Zamora TV » a interviewé Josefina Fraile de l’« Asociacion Terra SOS-Tenible » le 19 octobre 2017 ; l’interview est intitulée : «Géo ingénierie - Pacte de discrétion». Vous pouvez écouter ici quelques extraits à ce sujet. Au début, il est question d'une interdiction des armes dites climatiques. Josefina Fraile se réfère à la convention ENMOD (« Convention sur l'interdiction de l'utilisation des technologies de modification de l'environnement à des fins militaires ou toutes autres fins hostiles »). Il s'agit d'un traité international qui a été adopté par les Nations Unies (ONU) en 1976 sous la forme de la résolution 31/72. Sont expressément mentionnées les interventions qui provoquent : 

    - des tremblements de terre ou des modifications de la croûte terrestre 

    - des tsunamis 

    - des phénomènes météorologiques comme des cyclones, des tornades, la formation de nuages, des précipitations, des pluies 

    - la perturbation de l'équilibre écologique d'une région 

    - une influence sur les courants marins, etc.

    Josefina Fraile : « Un accord a été conclu pour que l'arme climatique ne soit pas utilisée lors de conflits armés. Mais en réalité, elle est toujours utilisée. »

     

    Que peut-on faire et que fait-on avec cette arme ? Avec cette arme, on peut créer de la pluie, des tempêtes, des nuages, des éclairs, des orages à n'importe quel endroit du monde. Ou bien le contraire : on peut dissoudre des fronts de pluie, arrêter la grêle et des chutes de neige et aussi, bien sûr, créer de la sécheresse. » 

    Ces exemples qui ont fuité dans les médias de masse ne représentent qu'une petite partie des preuves de l'existence et de l'utilisation des technologies de modification du temps. L'ancien président américain Lyndon B. Johnson a souligné leur énorme influence dès 1962 lors d'une conférence en déclarant : « Celui qui contrôle la météo contrôle le monde. » Un document officiel de l'US Air Force datant de 1996 s'intitule « La météo comme amplificateur de forces », avec le sous-titre « maîtriser la météo en 2025 ».

     

    Chers téléspectateurs, 

    Si les médias dominants font l'impasse sur ce sujet et rejettent la faute et le fardeau du changement climatique sur le simple citoyen, cela dépend plus que jamais de nous tous. Vous aussi, aidez-nous à mettre en lumière les véritables responsables du « changement climatique d'origine humaine ». Le fondateur de Kla.TV, Ivo Sasek, explique comment cela peut se faire de manière très pratique dans son discours récent : « Des updates pour Greta ! - Les vrais tueurs du climat » 10 février 2024 | www.kla.tv/28157 

     

     

     

     

     

     

     

     

     

     

     

    Partager via Gmail Yahoo!

    votre commentaire
  • John P. Clouser, lauréat du prix Nobel de physique 2022 le dit : "il manque aux modèles climatiques actuels une variable importante qui change le résultat dans son ensemble"... Il affirme que la "crise climatique" n'est pas ce que "des journalistes avides de sensationnalisme et des politiciens malhonnêtes" nous décrivent. 

    Le changement climatique vu par le prix Nobel de physique 2022

     

    John P. Clouser lors de la cérémonie de remise du prix Nobel à Stockholm, le 10 décembre 2022 | Agence de presse TT/Alay 

    Le ton est donné. Va-t-on dire qu'il est devenu fou à l'instar d'un autre prix Nobel (2008,) le regretté Professeur Montagnier,  mis au ban de la société pour des déclarations contraires à la doxa ?

    Voici le compte-rendu d'une interview révolutionnaire de J.P. Clouser, sur un sujet  brûlant.

    " Les scientifiques prétendent aujourd’hui que le changement climatique est principalement dû au dioxyde de carbone, et je soutiens que la plupart des changements se produisent en raison d'un processus complètement différent.  Si vous lisez tous les différents rapports du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) - qui est considéré comme une source faisant autorité importante, les rapports de l'Académie nationale [des sciences] et ceux de la Royal Society, ils n'en ont tous aucune idée. "a déclaré John P. Clauser, lauréat du prix Nobel de physique 2022, lors d'une interview donnée à un média américain (Epoch Time 01/01/2024).

    J.P. Clouser a été interviewé par le Dr. Klauser, un physicien théoricien et expérimental né aux États-Unis, dont les recherches dans le domaine de la mécanique quantique ont démontré que le phénomène de l'intrication quantique, apparemment impossible en physique classique, existe bel et bien. Avant de remporter le prix Nobel, il a reçu le Prix Wolf israélien en 2010 avec deux partenaires pour ses réalisations en physique quantique.

    Dr Klauser :  félicitations pour avoir remporté le prix Nobel de physique 2022. La première question évidente est de savoir comment vous êtes-vous impliqué dans la question climatique ?

    - J.P. Clouser" Le domaine du climat n'est pas nouveau pour moi. Je m'y suis intéressé lorsque j'ai navigué une dizaine de fois dans l'océan Pacifique avec mon bateau, avant même qu'on ne parle de réchauffement climatique. J'ai installé des panneaux solaires dessus pour qu'ils rechargent les batteries, et j'avais un ampèremètre qui montrait la production d'électricité. Bien sûr, à chaque fois que nous avons navigué sous le nuage, la production des panneaux solaires a chuté de 50 pour cent. Puis, lorsque nous sommes passés derrière le nuage - boum, leur valeur a remonté. J'ai également passé beaucoup de temps à observer les nuages ​​- comment ils se déplacent et à quoi ils ressemblent. Vous pouvez en apprendre beaucoup sur les nuages ​​simplement en naviguant sur la surface de l'océan Pacifique. C'est ainsi que j'ai développé une curiosité sur le fonctionnement des nuages.

    Quand ils ont commencé à parler des problèmes climatiques, j'ai vite réalisé que la couverture nuageuse avait un effet profond sur la chaleur entrant sur Terre, car les nuages ​​réfléchissent une énorme quantité de lumière vers l'espace. J'ai ensuite lu tous les différents rapports de l'Organisation intergouvernementale. Groupe d’experts sur l’évolution du climat (GIEC) et les rapports de la National Academy sur ce sujet.

    En tant que physicien, j'ai travaillé dans d'excellentes institutions : Caltech (California Institute of Technology), Columbia University et UC Berkeley, où la science est censée être menée avec beaucoup de soin. Mais lorsque j'ai lu ces rapports, j'ai été horrifié de constater à quel point leurs méthodes étaient négligées. " Le travail était superficiel. En fait, il était déjà très clair dans les rapports que le rôle de la couche nuageuse ​​n'est pas du tout compris et qu'il est plutôt mal traité ".

    - Dr Klauser : Ne vous a-t-on pas dit « Vous feriez mieux de rester dans le domaine de la mécanique quantique, le changement climatique n'est pas votre domaine » ?

     - J.P. Clouser : " Même lorsque je faisais des expériences de mécanique quantique, on me disait ceci : 'Tout le monde connaît les résultats de l'expérience et ils ne sont pas importants. Vous perdez votre temps'. Mais ces expériences m'ont valu le prix Nobel."

    - Dr Klauser : Avant de nous plonger dans le changement climatique, expliquez-moi ce que vous avez découvert dans les expériences que vous avez menées et qui vous ont valu le prix Nobel.

    - JP. Clouser : " C'est un travail que j'ai réalisé il y a plus de 50 ans, alors que j'étais encore étudiant diplômé à l'Université de Columbia. J'ai réalisé que c'était une façon de régler un débat de longue date entre Albert Einstein et Erwin Schrödinger, d'une part, et Niels Bohr et John von Neumann de l'autre.

    Lorsque la théorie quantique a commencé à prendre forme, au début du siècle dernier, certains scientifiques, dont Albert Einstein, avaient des réserves à son égard. Ils étaient gênés par une idée centrale qu’elle défendait. Selon la théorie quantique, un système n’est généralement pas dans un état défini, mais dans une sorte de combinaison d’états appelée « superposition ». Ainsi, lorsque vous répétez exactement la même expérience, vous obtenez des résultats différents. Les pionniers de la théorie quantique, dirigés par le physicien Niels Bohr, affirmaient que ce n'est que lorsque le chercheur mesure l'état du système que celui-ci « s'effondre » dans un certain état, un état déterminé comme par une sorte de loterie.

    Einstein avait du mal à accepter l'hypothèse selon laquelle l'état du système était déterminé comme par une sorte de loterie et affirmait que « Dieu ne joue pas aux dés ». Bohr, du moins c'est ce qu'on dit, a répondu : "Einstein, arrête de dire à Dieu quoi faire." Plus tard, Einstein a tenté de nier les hypothèses fondamentales de la mécanique quantique et, avec ses partenaires, il a publié un article dont le but était de révéler une contradiction interne dans la théorie. Mais au lieu d'une contradiction, il a découvert "l'intrication quantique" - un phénomène dans lequel deux particules créées ensemble au même moment et au même endroit dépendent l'une de l'autre - si l'une change, l'autre change également en conséquence, de sorte que leurs états ne peuvent pas être modifiés. décrit individuellement. Comme l'a expliqué Einstein, en raison de l'étroite dépendance entre elles, si elles éloignent les particules les unes des autres et changent ensuite l'état d'une particule, cela affectera également immédiatement l'état de son partenaire, même s'il se trouve à des années-lumière d'elle. .

    Mais Einstein a souligné un problème : dans le cas où les particules sont très éloignées les unes des autres (par exemple à des années-lumière), pour que l'intrication ait lieu et que l'information passe entre elles, l'information doit voyager à la vitesse de la lumière. Mais selon l’une des hypothèses de la théorie de la relativité, rien ne peut se déplacer plus vite que la vitesse de la lumière. Par conséquent, soutenait Einstein, l’intrication ne peut exister que s’il existe des variables cachées que nous ne connaissons pas.

    Celui qui a tenté de proposer une solution à ce débat était le physicien irlandais John Stuart Bell qui, en 1964, a proposé une méthode expérimentale pour tester si, comme le prétendait Einstein, il existe des variables cachées dans la mécanique quantique.

    J'ai réalisé que la proposition de Bell était une façon de régler le débat entre les scientifiques. L'expérience que j'ai menée a montré que l'intrication quantique est un processus bien réel, que les particules restent intriquées par la mécanique quantique, quelle que soit la distance entre elles. Dans mon expérience, il y avait des particules exposées qui étaient séparées les unes des autres par une certaine distance. d'environ 6 mètres, et elles étaient toujours enchevêtrées. Plus tard, il y a eu aussi des expériences où les particules étaient distantes de 1 000 kilomètres et restaient toujours enchevêtrées. 

    L'intrication quantique a attiré l'attention des gens. L'argent du programme de recherche venait de la CIA et de la NSA, qui ont réalisé qu'il pouvait être utilisé dans des communications cryptées. Une fois que l'argent a été intégré à l'accord, tout le monde en a parlé.

     De nos jours, il semble que toute la théorie d'Einstein soit mise à mal, y compris certains des piliers qui sous-tendent la théorie de la relativité générale. Mais je ne sais pas si la théorie de Bohr, qui pensait que ces choses se produisent simplement et que nous n'avons pas besoin de poser trop de questions, est également satisfaisante." 

    - Dr KlauserRevenons à la question du changement climatique. Vous affirmez que les travaux scientifiques menés sur le terrain sont « bâclés », et que la question de la nébulosité n'est pas prise en compte. Expliquez-nous ce que cela sous-entend réellement ?

    - J.P. Clouser : "Le Dr Steven Kunin, qui était le scientifique en chef du ministère de l'Énergie sous l'administration Obama (avant cela, il a été conseiller scientifique spécial sur les questions énergétiques auprès du ministère de la Défense et du Pentagone, 1991), a publié un livre en 2021. intitulé :           « Non résolu : ce que la science du climat nous dit, ce qu'elle ne dit pas et pourquoi est-ce important ». Le message fondamental du livre est que le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) dispose de 40 modèles informatiques statistiques différents qui, selon la presse, prédisent l’apocalypse de la crise climatique. Le problème est que les modèles prédisent des choses qui sont incohérentes. Aucun des modèles n'est capable de prédire rétroactivement ce qui s'est passé et d'expliquer l'histoire du climat terrestre au cours des 100 dernières années. Kunin a affirmé que c'était très inquiétant."

    Le changement climatique vu par le prix Nobel de physique 2022Kunin est considéré comme un expert international en matière de modèles statistiques. L’un des premiers articles qu’il a publié au cours de sa carrière portait sur des modèles informatiques analysant la réaction nucléaire qui se produit dans les étoiles et conduit à la formation d’oxygène dans l’univers. Il a ensuite développé un cours de physique computationnelle au Caltech (le California Institute of Technology), c'est-à-dire un cours de modèles informatiques, et a écrit l'un des premiers manuels sur le sujet, utilisé par les chercheurs qui voulaient traduire la physique apprise dans des simulations utiles. 

    Steve KUNIN, auteur de Unsolved

    "Ce que la science du climat nous dit, ce qu'elle ne nous dit pas et pourquoi c'est important".

    Dans son livre, Kunin écrit que « parce que nous avons une très bonne compréhension des lois physiques qui régissent la matière et l'énergie, il est facile d'être tenté de penser que nous pouvons simplement introduire l'état actuel de l'atmosphère et des océans dans un ordinateur, faire certaines hypothèses sur l'impact futur que l'homme et la nature auront sur le climat, et ainsi prédire avec précision le climat dans les décennies à venir. Malheureusement, il s'agit d'un fantasme, comme l'enseignent les météorologues, qui ne peuvent prédire le temps qu'il fera environ deux semaines plus tard. C'est certainement mieux qu'il y a 30 ans, en grande partie grâce à une plus grande puissance de calcul, ainsi qu'à des observations améliorées de l'atmosphère qui fournissent un point de départ plus précis pour les modèles. Mais la faible précision des prévisions météorologiques - deux semaines à l'avance - reflète un problème fondamental […] Le temps est chaotique - de petits changements dans la façon dont nous démarrons le modèle peuvent conduire à des prévisions très différentes après quelques semaines. " augmente de façon exponentielle à mesure que les prévisions s'étendent dans le futur. Une puissance de calcul accrue ne peut pas surmonter cette incertitude fondamentale."

    "En pratique, explique Kunin, les chercheurs qui construisent des modèles climatiques divisent la Terre en une grille tridimensionnelle de carrés. La taille de chaque carré est de 100x100 kilomètres (en mer, la taille des carrés est plus petite - 10x10 kilomètres). Une fois la grille 3D prête, les modèles informatiques utilisent les lois fondamentales de la physique pour calculer comment l'air, l'eau et l'énergie, dans chaque carré de cette Terre 3D, se déplacent dans un laps de temps donné (une dizaine de minutes) vers d'autres carrés voisins. . Répéter ce processus des millions de fois simule le climat pendant 100 ans.

    "Tout cela semble simple, mais ce n'est pas du tout facile à faire", écrit Kunin. "En fait, c'est terriblement difficile, et quiconque dit que les modèles climatiques sont 'juste de la physique', soit ne les comprend pas, soit est délibérément trompeur. L'un des défis majeurs est que les modèles n'utilisent que des valeurs uniques de température, d'humidité, etc. pour décrire les conditions à l'intérieur des carrés de la grille 3D. Cependant, de nombreux phénomènes importants se produisent à une échelle inférieure à 100 km (la taille du carré 3D, 11), comme les nuages ​​et les orages, les chercheurs doivent donc faire des hypothèses sur ce qui se passe dans la "sous-grille" (à l'intérieur du carré 11) afin qu'ils puissent construire un modèle complet."

     

    Le changement climatique vu par le prix Nobel de physique 2022Pour cette raison, selon Kunin, les modèles sont clairement inexacts. A titre d'exemple, il cite l'effet des nuages. Les nuages ​​jouent un rôle clé dans le climat, explique-t-il : « Leur type et la façon dont ils se forment refléteront la lumière du soleil ou intercepteront la chaleur en différentes quantités », écrit-il. Cependant, comme les modélisateurs informatiques ne peuvent faire que des hypothèses partielles sur la couverture nuageuse dans une certaine zone du carré 3D, le résultat est qu'une très grande variation entre les modèles peut être obtenue.

     

    Pour les besoins des modèles, les scientifiques divisent la Terre en une grille tridimensionnelle de carrés mesurant 100 x 100 kilomètres carrés, mais les nuages ​​sont beaucoup plus petits, il est donc nécessaire de faire de nombreuses hypothèses à leur sujet dans les modèles. 

    J.P. Clouser explique que lorsque des nuages ​​blancs et brillants se forment, ils renvoient 90 % de la lumière solaire qui les frappe vers l'espace et celle-ci n'atteint plus la terre et ne la réchauffe pas. "Si l'on suppose un instant que seulement un tiers de la Terre est couvert de nuages ​​à un moment donné, cela signifie qu'une grande quantité de lumière solaire frappe l'océan et provoque la formation de vapeur d'eau. La vapeur d'eau flotte vers le ciel et forme nuages. Au début, il y a une faible formation de nuages, puis leur nombre augmente. Le taux de formation des nuages ​​est très élevé. Enfin, nous atteignons une couverture nuageuse étendue, un état dans lequel la quantité de chaleur entrant dans la terre est bien moindre. Dans un tel état nuageux, si vous voulez lire un livre à l'intérieur, sans allumer la lumière, vous constaterez qu'il fait trop sombre. Où va la lumière du soleil ? Il n'y a qu'un seul endroit où elle peut aller. - Elle a été dispersée dans l'espace, et il ne réchauffe plus la Terre."

    Et, il ajoute : "Maintenant, lorsque vous regardez les images satellite de la Terre disponibles sur le site Web de la NASA, vous pouvez voir différentes variations de couverture nuageuse allant de 5 à 95 pour cent. Le pourcentage de couverture nuageuse sur Terre change considérablement entre deux jours et deux semaines, et cette fluctuation de la couverture nuageuse est ce qui permet à la lumière du soleil de contrôler le climat, de contrôler la température de la Terre et de la stabiliser, comme un thermostat, un mécanisme qui n’a pas été pris en compte dans les modélisations du GIEC jusqu’à présent. »

    Kunin note dans son livre que « les fluctuations normales de la hauteur et de la couverture nuageuse peuvent affecter le flux de lumière solaire et de chaleur, tout comme les influences humaines peuvent [affecter le réchauffement] ». Il souligne que "la plus grande incertitude dans les modèles climatiques vient de l'absence de traitement des nuages."

    Dr Klauser : J.P. Clouser me raconte que lorsqu'il est arrivé à Stockholm pour recevoir le prix Nobel et s'est présenté devant le comité qui le lui a décerné, il lui a indiqué qu'il n'était pas d'accord avec le prix Nobel décerné un an plus tôt, en 2021 ! Le prix a été décerné aux chercheurs qui ont développé des modèles de prévision du changement climatique. Leurs recherches ont permis de prouver que le réchauffement climatique est causé par les émissions de dioxyde de carbone provenant de l’activité humaine.

    il a alors déclaré à la tribune : " Il manque à presque tous ces modèles informatiques une partie importante de la physique : l'effet des nuages",  a-t-il expliqué. « Le rapport de 2003 des National Academies a admis qu'ils s'étaient complètement trompés et qu'ils avaient fait une série d'inexactitudes sur les effets des nuages. [...] Ce que le Groupe d'experts intergouvernemental sur l'évolution du climat et d'autres utilisent [pour leurs estimations], c'est une Terre sans nuages. Normalement, la Terre est couverte de nuages, au moins entre un tiers et deux tiers de sa surface.

     QUESTIONS :

    Dr Klauser :  Je veux m'assurer de bien comprendre : êtes-vous en train de dire que la couverture nuageuse n'est incluse dans aucun des modèles informatiques utilisés par le Groupe d'experts international sur l'évolution du climat (GIEC) ?

    J.P. Clouser : Cela n'était pas inclus dans les premiers rapports. Kunin le mentionne dans son livre. En 2013, dans le rapport dit AR5, une section sur la couverture nuageuse a été ajoutée, mais ils n'ont obtenu aucune des fonctionnalités que je viens de mentionner, comme s'il y avait une énorme fluctuation de la couverture nuageuse, car ils n'ont vraisemblablement pas fait les calculs adéquats mais une simple estimation à la volée...

    Dans tous les modèles, ils ont fait beaucoup d'efforts pour mentionner "l'albédo" de la Terre. L'albédo est la réflectance moyenne de la lumière solaire frappant un corps ou une certaine surface (le rapport entre la quantité de rayonnement électromagnétique réfléchie par un corps ou une surface et la quantité qui l'a frappé. Kunin explique dans son livre que puisque la Terre est pas complètement noire, elle n'absorbe que 70 pour cent de la lumière solaire qui lui arrive ; les 30 pour cent restants sont réfléchis dans l'espace et ne contribuent pas au réchauffement climatique. Ce nombre de 30 pour cent, qui correspond à la réflectance de la Terre, est appelé « albédo ». .» Lorsque l'albédo est plus élevé, la Terre réfléchit davantage de lumière solaire et est donc légèrement plus froide, et vice versa. Lorsque l'albédo est inférieur, la Terre absorbe plus de lumière solaire et, est plus chaude.

     Kunin écrit que si l'albédo moyen de la Terre est de 0,30 (30 pour cent), sa valeur à un moment donné dépend de la partie de la Terre qui fait face au Soleil (les océans sont plus sombres, la terre est plus claire, les nuages ​​sont plus clairs). , et la neige ou la glace sont très légères). Autrement dit, la moyenne mensuelle varie d'environ 0,01 pour cent. Kunin ajoute que si d'une manière ou d'une autre l'albédo moyen devait augmenter de 0,30 à 0,31, disons en raison d'une augmentation de 5 pour cent de la nébulosité, le retour du rayonnement des nuages ​​vers l'espace provoquerait un refroidissement, et ce refroidissement compenserait le réchauffement qui provoquerait un doublement des émissions de dioxyde de carbone dans l'atmosphère. Personne ne semble remarquer que l'énorme variation entre 5 et 95 pour cent des nuages La couverture est bien visible. Je ne sais pas comment ils auraient pu la manquer...

    Dr Klauser : C'est-à-dire qu'ils n'ont pas pris en compte le changement du pourcentage de couverture nuageuse, et donc, le chiffre de l'albédo reste plus ou moins le même dans tous les modèles ?

    J.P. Clouser : "L'albédo reste le même. En plus de cela, il y avait plusieurs propositions mauvaises et stupides qui étaient censées l'augmenter, comme peindre tous les toits et toutes les autoroutes du monde en blanc (couleur qui reflète le rayonnement. Une proposition suggérait de dépenser un billion de dollars par an pour la gestion du rayonnement solaire. Ce que je dis ici, c’est que la Terre possède sa propre gestion du rayonnement solaire. C’est intégré et cela se produit naturellement. Ça marche, c'est très efficace et c'est gratuit. Vous n’êtes pas obligé de dépenser des milliards de dollars pour cela.

    Quand j'étudiais la mécanique quantique, je suis tombé sur deux gros "éléphants" dans la pièce que presque tous les experts en mécanique quantique et les physiciens ignoraient. C'est évident quand on les voit et qu'on y pense, mais ce n'est pas évident si on ne les a pas regardés ou pensés. Par exemple, lorsque Bohr parlait à Einstein, chacun supposait que l'autre travaillait dans un autre espace ; l'un travaillait dans l'espace spatial et l'autre dans l'espace laboratoire. Pour une raison quelconque, ces deux gars brillants n'ont pas remarqué que leurs affirmations fonctionnaient sur deux avions séparés et se chevauchaient, et c'est pourquoi ils les ont été formulées différemment. Les discussions sur le sujet se sont poursuivies pendant des décennies, jusqu'à ce que j'en parle dans un article que j'ai écrit récemment.

    Dr Klauser : Savez-vous si les modélisateurs tentent désormais d’incorporer des variables réelles qui affectent l’albédo ?

    J.P. Clouser : " Pour autant que je sache, pas encore. Je n'ai parlé à aucun des créateurs de modèles et aucun ne m'a encore contacté. En fait, ce que je vous raconte sont les premières révélations publiques  que je fait de tout cela."

    Dr Klauser : Lorsque nous avons parlé avant l'interview, vous avez dit que, dans le domaine du climat, il existe beaucoup de pseudo-science, c'est-à-dire des choses qui sont acceptées comme vraies, même si elles n'ont pas été prouvées comme telles.

    J.P. Clouser : "Dans ce domaine, il existe une désinformation très malhonnête de la part de divers politiciens. Par exemple, en 2012, un article a été publié dans Physics Today, le journal d'information standard pour les physiciens. Il a été écrit par deux auteurs non scientifiques, Jane Lubchenco et Thomas Karl.  Lobchenko était sous-secrétaire au Commerce pour le changement climatique et Karl était directeur du changement climatique à la National Oceanic and Atmospheric Administration (NOAA). Ils ont publié un article désinformateur particulièrement scandaleux. Je ne sais pas comment sa publication a pu être approuvée.  C’était à une époque où le changement climatique était en train d’être rebaptisé. Au début, cela a été traité comme un "réchauffement climatique". Soudainement, vers 2013, cette question a été rebaptisée "changement climatique".

    Pourquoi ont-ils changé le nom ? La raison invoquée à l'époque était "parce que c'est vraiment plus qu'un simple réchauffement ". : "Tempêtes tropicales, vagues de chaleur, vagues de froid, inondations et sécheresses. Des choses terribles et apocalyptiques vont se produire à cause du "réchauffement climatique. C'est pourquoi nous allons l'appeler changement climatique. "

    "L'article de Physics Today a produit un indice des événements météorologiques extrêmes, qui était en fait une sorte de moyenne pondérée du nombre de sécheresses, d'inondations et d'ouragans. Dans cet article, ils résumaient cent ans de données enregistrées par le National Oceanic et Administration atmosphéric. […] Dans le titre de leur article, ils ont écrit que les événements météorologiques extrêmes sont tous causés par le réchauffement climatique et que leur fréquence a considérablement augmenté, en particulier au cours des trois dernières décennies (!).

    Lorsque je travaillais à l'Université de Californie à Berkeley sur mes diverses expériences en mécanique quantique, j'ai rencontré deux lauréats Nobel très importants, Luis Alvarez et Charles Townes. Alvarez est devenu célèbre pour avoir développé ce qu'on appelle les "cinq critère sigma pour la fiabilité des expériences de physique". Alvarez examinait les articles selon ce critère et disait ensuite : « C'est la ligne la plus plate que j'aie jamais vue. Towns était un peu plus incisif, et il disait : « Je ne vois pas dans les données ce que vous me dites que je devrais voir. » Lorsque j'ai examiné les données présentées dans les graphiques de l'article selon le « Critère Five Sigma pour la fiabilité des expériences de physique », il est devenu clair qu'il était très difficile, voire impossible, d'affirmer que les événements climatiques extrêmes sont en augmentation.

    De plus, j'ai remarqué une chose notable qu'ils ont omise dans la liste des événements météorologiques extrêmes : c'est la fréquence d'apparition des tornades de force EF3 et supérieure. Si vous les ajoutez, le graphique qu'ils ont présenté diminue en fait, ce qui signifie que la fréquence des tornades à haute intensité sont en fait en diminution, certainement au cours des 50 dernières années. Ceci n'est qu'un exemple d'un article qui présente de la désinformation sur le terrain.

    Dr Klauser : Quel est le résultat final attendu ? Selon vous, que devrait-on faire à ce sujet ? 

    J.P. CLouser : " Avant tout, nous devons arrêter tous les programmes qui existent dans presque tous les organismes gouvernementaux pour limiter le dioxyde de carbone et le méthane dans l'atmosphère et dans l'environnement. Ils conduisent à un gaspillage énorme et massif de ressources précieuses qui pourraient être utilisées  à des fins humanitaires. Nous n'avons pas à nous soucier du dioxyde de carbone ou du méthane. Les préoccupations concernant le réchauffement climatique sont une pure invention de journalistes sensationnalistes et de politiciens malhonnêtes.

    Dr Klauser : C’est une déclaration très brutale. Avez-vous demandé à d'autres scientifiques, ou à des personnes impliquées dans le domaine spécifique dont vous parlez - la couverture nuageuse - d'examiner ce que vous avez découvert et de donner leur avis à ce sujet, de leur point de vue d'experts ?

    J.P. Clouser : "Oui. Avant l'interview, je vous ai envoyé le texte d'une conférence que je devais donner sur le sujet. Je l'ai également envoyé à William Happer, qui était le conseiller scientifique de l'administration Bush père et qui dirige aujourd'hui le "CO 2 Coalition ", pour commentaires. Je l'ai également envoyé à Steve Kunin, qui était le conseiller climatique d'Obama comme mentionné. Tous deux sont des physiciens brillants. Lors des discussions avec de nombreux autres physiciens, personne n'a pu me démontrer que j'avais tort, mais il faudra du temps pour apprendre.

    Ce que je fais maintenant, c'est ce que font les physiciens : ils remarquent que le roi est nu. Cela peut conduire à des domaines qui ne sont pas politiquement corrects, mais cela ne me dérange pas. Personnellement, je suis en faveur de la vérité. C'est ce que font les physiciens : ils découvrent la vérité naturelle. »

    Dr KlauserDans une récente conférence que vous avez donnée en Corée, vous avez mentionné qu’il existe deux types de vérité.

    J.P. Clouser"Oui, il existe une vérité qui est ce que font les physiciens, ou du moins ce que nous devrions faire : observer la nature et tirer des conclusions à partir de ce que nous voyons réellement dans nos observations et expériences. Si les expériences sont faites avec soin, analysées de manière critique et soumises à l'examen des pairs. critique par d'autres, c'est fiable.

    « La deuxième vérité est la « vérité perçue ». Evidemment, elle ne peut pas être trouvée en mesurant et en obtenant des données réelles...

    Imaginez que vous ne pouvez pas vendre la [vraie] vérité, parce qu'elle ne correspond pas au produit que vous vendez, à la cause que vous défendez ou à la guerre que vous voulez créer. Que ferez-vous ? – changer la ! Par exemple, le Groupe d'experts intergouvernemental sur l'évolution du climat identifie la couverture nuageuse. Bien entendu, cette perception est clairement en contradiction avec les observations. Il suffit de regarder des images satellite et de constater que la couverture nuageuse est soumise à changements fréquents. Lorsque les gouvernements et les politiciens en font la promotion, cela s'appelle de la propagande et pour la propagande. Ils ont simplement besoin que l'information semble être ce qu'ils vous en disent...

    C'est malheureusement assez courant aujourd'hui. Récemment, des hommes politiques sont devenus des scientifiques à part entière et promeuvent la désinformation scientifique en inventant simplement des informations scientifiques. C'est très courant dans la science du climat, très courant en médecine (on l'a bien vu avec le Covid et les "spécialistes de plateaux T.V.", et particulièrement courant en économie. Le problème est qu'il n'existe pas de vérificateurs de faits compétents et honnêtes. 

    Maintenant, il y a aussi l'intelligence artificielle ChatGPT qui est efficace pour propager la désinformation en fonction des biais idéologiques avec lesquels on l'a formatée. Le logiciel invente simplement des choses selon les besoins. Il peut mentir, il peut tricher et il peut fabriquer des sources d'information. Récemment, il y a eu un article dans le New York Times à propos d'un pauvre avocat qui a soumis au tribunal un mémoire rédigé par ChatGPT. Le juge a examiné le mémoire et a ensuite remarqué que presque toutes les citations du mémoire étaient stéréotypées et peu crédibles. Effectivement, aucune d'entre elles n'était vraie.  Sa licence d'avocat a été révoquée par le juge pour avoir fait cela. 

    Le gros problème de l'intelligence artificielle, selon les sujets plus ou moins sensibles qui lui sont soumis, est qu'elle commet des tas d'erreurs. Pire encore, elle utilise des données en ligne comme source et n'a pas la moindre idée de ce qui relève de la fiction et de ce qui ne l'est pas.  Et d'une manière ou d'une autre, l'industrie de l'intelligence artificielle a réussi à nous convaincre que « oui, bien sûr, l'intelligence fait des erreurs, mais nous y travaillons ». C'est un problème très grave qui va générer des situations ubuesques voire dramatiques selon les cas et je blâme directement   l’intelligence artificielle. Je pense que c’est une catastrophe. » 

    Dr Klauser : Vous avez commencé à travailler avec la « CO 2 Coalition », une organisation qui prétend que le dioxyde de carbone profite réellement à la planète. Quel est son but ?

    J.M. Clouser : "Ils m'ont invité à les rejoindre. Je suis d'accord avec leur message, mais il n'est toujours pas clair de savoir s'ils sont d'accord avec le mien. Si vous mettez du dioxyde de carbone dans une serre, vous pouvez augmenter considérablement le taux de croissance des plantes qui y poussent. Ils affirment donc que le dioxyde de carbone, est bénéfique à bien des égards.

    Par exemple, lorsque les dinosaures parcouraient la Terre, les niveaux de dioxyde de carbone étaient 10 fois plus élevés que ce que nous connaissons aujourd'hui. Les dinosaures ne pourraient pas survivre sur Terre avec le niveau actuel de dioxyde de carbone, car les arbres et le feuillage n'auraient pas poussé assez vite pour les nourrir. " Ils sont gros, ils ont un gros appétit et ils mangent beaucoup de choses. Il faut le niveau élevé de dioxyde de carbone présent dans l'atmosphère rien que pour les nourrir. "

    Art Robinson, un de mes amis du California Institute of Technology, a fondé le Heartland Institute, qui présente également le dioxyde de carbone comme un gaz bénéfique. Pour autant que je sache, il n'y a rien de mal avec le dioxyde de carbone, et en particulier, et ce n'est ce que j'ai mentionné plus tôt : ce n'est pas un gaz important lorsqu'il s'agit de gérer le climat de la Terre.

    La politique actuelle des organismes gouvernementaux, qui tentent de limiter le dioxyde de carbone et le méthane, est un gaspillage total d'argent, de temps et d'efforts. C'est un désastre absolu. Mais les gens n'aiment pas qu'on leur dise qu'ils ont commis des erreurs de cette ampleur. , donc ils ignoreront probablement ce que je dis ". 

    Dr Klauser : Avez-vous parlé aux décideurs politiques ? est-ce qu'ils vous ont dit quelque chose ?

    J.M. Clouser : "J'ai eu une très brève conversation avec Joe Biden dans le bureau ovale alors que j'étais en route pour Stockholm pour recevoir le Nobel. Je n'ai eu que quelques minutes pour lui rappeler tout cela. Son commentaire était : "Cela semble clair ; la science bat de l'aile".' A part ça, je ne suis pas allé très loin"...

     

     

     

     

    Partager via Gmail Yahoo!

    votre commentaire
  • Attention ! Ce sont les contribuables qui vont payer... Et vous pourrez compter sur les doigts de vos deux mains, les élus qui feront de la résistance, par honnêteté intellectuelle et bon sens, tout simplement ! SOYEZ VIGILANTS !

    Etienne Henri est titulaire d'un diplôme d'Ingénieur des Mines. Il débute sa carrière dans la recherche et développement pour l'industrie pétrolière, puis l'électronique grand public. Aujourd'hui dirigeant d'entreprise dans le secteur high-tech, il analyse de l'intérieur les opportunités d'investissement offertes par les entreprises innovantes et les grandes tendances du marché des nouvelles technologies.

     Emprunts verts = nouvelle escroquerie intellectuelle d’Etat à destination des élus locauxVous avez aimé les « guerres » censées nous débarrasser du terrorisme et du coronavirus ? Le soutien à l'économie "quoi qu'il en coûte", concept contradictoire dont le grand public commence tout juste à comprendre l'inanité ? Le gigantesque plan de "réduction de l'inflation" de Joe Biden, qui n'est autre qu'une impression monétaire d'ampleur inédite dans l'histoire des Etats-Unis ?

    Nous avions eu un avant-goût de la moralisation de l'économie avec les critères dits "ESG", ce sigle flou qui indique que l'activité d'une entreprise n'est pas évaluée uniquement sur ses éléments financiers, mais aussi en fonction de certains critères liés à l'environnement, au social et à la gouvernance.

    Alors vous allez adorer le nouveau concept de justification morale de la dette, qui fait voler en éclat toute notion de prudence budgétaire.
    Surfant sur la confusion des citoyens, toujours méfiants lorsqu'il s'agit de parler crument de considérations pécuniaires, notre gouvernement tire un nouveau lapin de son chapeau avec le concept d'emprunts verts.

    Un amendement des députés Renaissance au projet de loi de finances – soutenu par le gouvernement – permettrait aux collectivités locales d'isoler la dette contractée pour financer la transition écologique.

    Politiquement, ce montage créatif aurait le double mérite d'apporter une justification sociale à l'emballement de la dette publique et de rendre plus difficile sa comptabilisation. De la même manière que le budget de l'Etat est souvent présenté "hors charge de la dette" (55 Mds€ cette année, tout de même), que les engagements envers les futurs retraités de la fonction publique n'apparaissent pas dans la dette publique, la mesure permettra aux collectivités locales de comptabiliser leur endettement "vert" hors des enveloppes actuelles.

     

    En pratique, cela reviendra à ouvrir une nouvelle poche d'endettement qui viendra encore grever les comptes publics et conduira à de nouvelles augmentations des taxes, lorsqu'il faudra la rembourser.

    Le danger d’oublier la performance économique 

    A l’aide d’un battage politico-médiatique sans précédent, les critères ESG se sont frayé un chemin dans les assemblées générales, les rapports d’orientation et même chez les analystes de fonds d’investissement, qui se sont mis à évaluer les performances des placements à l’aune de ces valeurs sociales.

    En France, la confusion quant au rôle des entreprises dans notre société a sans doute atteint son paroxysme avec la loi Pacte du 22 mai 2019, qui a même fait entrer définitivement les notions d’intérêt social, de raison d’être et de société à mission dans le droit.

    Ces éléments ont permis de détourner l’attention des épargnants de la performance économique réelle des entreprises dites socialement responsables. Car les chiffres sont formels : à long terme, les grands entreprises ESG ne font pas mieux que les marchés dans leur ensemble. En s’appuyant sur plus de 1 100 papiers de recherche, la prestigieuse NYU (université de New York) a prouvé qu’il n’existe aucune corrélation entre le respect des critères ESG des fonds et leur réussite économique.

    Les épargnants commencent à prendre conscience qu’afficher de belles valeurs sociales ne permet pas, comme annoncé au début de la mouvance, de dégager des bénéfices. Se pose désormais crûment la question de savoir s’ils sont prêts à perdre de l’argent pour financer le comportement social de l’entreprise. Les débats houleux qui ont eu lieu lors de plusieurs assemblées générales cette année montrent que la réponse est loin d’être évidente.

    La situation de la future dette verte des collectivités locales est équivalente. Compartimenter et justifier la dette des collectivités locales « au nom de la planète » ne fera pas diminuer son poids pour les contribuables. 

     

    Cachez ces dépenses que je ne saurais voir

    Le député des Hauts-de-Seine, Pierre Cazeneuve, concédait récemment dans la presse que « les collectivités se trouvent face à un mur d’investissements, non seulement pour réduire leurs émissions de gaz à effet de serre (rénovation des bâtiments publics, éclairage, mobilité, etc.), mais aussi pour s’adapter au réchauffement climatique (végétalisation des cours d’écoles, aménagements des berges des cours d’eau, par exemple) ».

    En d’autres termes, la trajectoire zéro carbone sur laquelle les gouvernements successifs se sont engagé, n’est pas financée, et pas finançable, si les collectivités suivent les bonnes pratiques budgétaires.

     

    Comment gérer cette situation inextricable ? En cassant le thermomètre, pardi !

    De l’aveu même des rapporteurs, compartimenter la dette verte a pour objectif premier de « déculpabiliser » les décideurs et de déclencher les dépenses correspondant aux investissements pour la transition énergétique.

    Les gestionnaires des collectivités locales n’ont pourtant pas besoin d’encouragement pour laisser filer les budgets.

    Depuis la fin de la pandémie, les dépenses de fonctionnement suivent globalement l’inflation (+4,5% en 2022, +4,9% estimés pour 2023), avec des frais de personnels qui augmentent plus vite que les salaires moyens en France (+5,1%, contre 4,5% l’an passé). Cette hausse des dépenses, jamais vue depuis les années 1980, s’est traduite par une hausse tout aussi importante des taxes et impôts (+3,9% en 2021, puis +4,8% en 2022).

    Mais tout ceci n’est rien par rapport aux besoins de la décarbonation. Pour les députés, il est nécessaire que les collectivités locales réalisent près d’un tiers des dépenses publiques liées à la transition énergétique. Or, selon les méthodes de calcul, cela pourrait représenter un besoin en financement de 20 Mds€ (rapport Pisani-Mahfouz, mai 2023) à « plusieurs centaines de milliards » (Cour des Comptes, juillet 2023).

    Une chose est certaine : peu importe la manière de comptabiliser ces dépenses et la dette afférente, ces investissements verts seront payés par le biais des taxes et impôts locaux. Un euro emprunté, même pour la bonne cause, est un euro qui doit être remboursé...

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    Partager via Gmail Yahoo!

    votre commentaire
  • Avant-propoARMES CLIMATIQUES : réalité ou utopie ?s :

    En France, le sujet évoqué à bas-bruit, ne fait l’objet d’aucun débat même si quelques publications scientifiques françaises voient le jour petit à petit, mais n’ont d’audience que dans les milieux scientifiques, en dehors desquels,  l’évocation de ce sujet sulfureux vaudra à tout un chacun d’être taxé de « complotiste ».

    A titre d’exemple, cette émission de France Info, du 10 novembre 2022,  titrait : Climat : les "chemtrails", une théorie du complot venue du ciel ...

    Ailleurs, le sujet est évoqué plus librement comme en Italie ou en Allemagne.

    C’est pourquoi, il m’a paru intéressant de vous retranscrire ici, l’interview que le journaliste scientifique Marco Pizzuti (dont les ouvrages sont traduits dans 19 pays) a donné au quotidien allemand  DWN (Actualités économiques allemandes) réputé pour son professionnalisme… 

    Pour simplifier votre lecture, les sources vers les liens de références, sont insérées dans le corps du texte, il suffit de les copier dans votre moteur de recherche pour les ouvrir. 

    Faites-vous votre propre opinion…

     « Le journaliste scientifique italien Marco Pizzuti évoque le sujet peu abordé des armes météorologiques et le fort intérêt militaire américain pour cette technologie. Les efforts visant à interdire l’utilisation de ces armes sont très (trop) limités… 

    Quelle importance stratégique cette technologie pourrait-elle avoir dans le futur par rapport aux armes nucléaires ?

    Les armes géophysiques, telles que les manipulations météorologiques, peuvent être extrêmement sélectives et dévastatrices. 

    Contrairement aux armes chimiques, biologiques et nucléaires, les armes météorologiques suscitent peu de débats. 

    Existent-elles au moins ? Ou s’agit-il de pure fiction ? Quoi qu’il en soit, il existe de nombreux brevets sur certains aspects de la manipulation météorologiqueL’ONU s’est penchée sur la question dès 1977Et en 2002, pas moins de 188 députés russes à la Douma ont signé un appel à l’ONU pour protester contre les armes climatiques américaines. Deutsche Wirtschaftsnachrichten (DWN) s'est entretenu avec le journaliste scientifique italien et auteur à succès Marco Pizzuti sur les développements inquiétants sur le front météorologique.

     

    DWN : De quoi parle le document « Posséder la météo en 2025 » et dans quelle mesure est-il réaliste ?

    Marco Pizzuti : L'un des plus grands désirs de l'humanité a toujours été de pouvoir contrôler les forces de la nature, et bien que l'existence de la géo-ingénierie soit catégoriquement niée par les sources institutionnelles de tous les pays de l'OTAN, il existe de nombreuses preuves, documents et brevets enregistrés. Cela démontre au contraire l’extrême intérêt militaire des États-Unis pour cette technologie, que le Pentagone développe et utilise effectivement depuis un certain temps. Dès 1947, le ministère américain de la Défense discutait des conséquences juridiques des expériences avec des armes climatiques destinées à projeter des éclairs sur le sol. [1 Horace R. Byers, History of Weather-Modification, dans Wilmor N. Hess, éd. Weather and Climate Modification, John Wiley & Son, New York, 1974.] 

    La première utilisation officielle historiquement documentée de cette technologie remonte à « l’opération Popeye », menée par les Américains de 1967 à 1972 pendant la guerre du Vietnam. Il s'agissait d'inoculer aux nuages ​​des produits chimiques tels que l'iodure d'argent et l'iodure de plomb pour déclencher des pluies torrentielles et prolonger la saison de la mousson, en particulier dans les zones de la piste Ho Chi Minh. Les pluies continues ainsi produites ont prolongé la saison de mousson de 30 à 45 jours dans les zones d'Asie du Sud-Est de plusieurs pays (Thaïlande, Cambodge, Laos et Vietnam) touchés par les pulvérisations chimiques, et ont réussi à ralentir les mouvements terrestres des forces ennemies. Il s'agissait d'une opération top-secrète menée par la CIA sans l'autorisation officielle du secrétaire à la Défense de l'époque, Melvin Laird, qui avait catégoriquement nié au Congrès l'existence d'un programme sur le changement climatique comme arme tactique [2 La production de pluie utilisée comme arme en Asie du Sud-Est, Daytona Beach Morning Journal, Daytona Beach, Floride, 19 mai 1974. ].

    Après des événements comme ceux-ci, les Nations Unies ont adopté une résolution en 1977 interdisant l'utilisation d'armes climatiques [3 Bulletin du Département d'État des États-Unis, 74, n.1981, juin 1977] , mais 19 ans plus tard, le développement de la géo-ingénierie était déjà bien avancé et en 1996 l'armée de l'air américaine (USAF) a publié un rapport militaire, au cours duquel a été présentée la possibilité technique d'établir un système mondial de contrôle du climat basé sur des manipulations artificielles de l'atmosphère et de l'ionosphère. L'un des systèmes les plus importants mentionnés dans le document intitulé « La météo comme multiplicateur de force : posséder la météo en 2025 » étaient les micro-ondes et les aérosols projetés dans le ciel [4 Colonel Tamzy J. House, lieutenant. Colonel James B. Near, Jr., LTC William B. Shields, major Ronald J. Celentano et al., La météo comme multiplicateur de force : posséder la météo en 2025, USA Air Force (USAF), 1er août 1996 - [ apps.dtic.mil ] id="ftn5">] . 

    Cependant, comme il s'agissait d'un rapport militaire utilisant une technologie classifiée non approuvée par l'ONU, l'introduction du document excluait toute responsabilité du gouvernement. Au lieu de cela, l'accent a été mis sur l'objectif prétendument philanthropique de faire face aux catastrophes naturelles qui entraînent des pénuries d'eau et de nourriture dans un monde où la population ne cesse de croître : « 2025 » est une étude préparée sous la direction du chef d'état-major de l'armée de l'air, pour examiner les concepts, les capacités et les technologies dont les États-Unis auront besoin pour rester la nation aérospatiale dominante dans le futur. Ce rapport, soumis le 17 juin 1996, a été préparé librement par l'École de Défense dans l'intérêt académique de promouvoir les concepts liés à la défense nationale. Les opinions exprimées dans ce rapport sont celles des auteurs et ne reflètent pas la politique ou la position officielle de l’armée de l’air américaine, du ministère de la Défense ou du gouvernement américain.

    Le document précise que dès 1996, au moment de la rédaction du rapport scientifique, l'US Air Force était capable de créer artificiellement du brouillard, des nuages, des inondations, des orages et une désertification forcée, mais seulement sur certaines zones, et qu'il était donc nécessaire pour atteindre l’objectif du contrôle climatique mondial dans les décennies suivantes : « D’ici 2025, il faudra créer un système mondial de contrôle climatique qui soit fiable, précis et capable de fonctionner en temps réel. Aujourd’hui, le changement climatique et la modification des phénomènes météorologiques ne peuvent s’effectuer que dans une zone limitée et pour une durée limitée. Au cours des trois prochaines décennies, la technologie relative au changement climatique progressera au point où la météo pourra être manipulée à grande échelle. Afin d'atteindre cette capacité avec un haut niveau de précision, certains obstacles technologiques et juridiques doivent être surmontés [...]. Dans les décennies à venir, la croissance démographique exercera une pression sur la disponibilité de l’eau et de la nourriture. Les mauvaises récoltes causées par les catastrophes naturelles inciteront les gouvernements et d’autres organisations à poursuivre la recherche de technologies de lutte contre le changement climatique toujours plus précises et fiables [...]. Selon nos projections, d’ici 2025, la technologie militaire sera capable d’influencer le climat à la fois à l’échelle méso-échelle (<200 km2) et à l’échelle locale »[5 Colonel Tamzy J. House, op. cit., chapitre 2, pp.4-5, chapitre 3, p.8.  ].

    Curieusement, le phénomène des traînées de condensation persistantes (qui ne se dissipent pas et se propagent progressivement sur de vastes étendues, jusqu'à modifier le climat en formant un manteau laiteux) a commencé dans le ciel de tout l'Occident à la fin des années 1990, soit après la publication du rapport de l'USAF. L'apparition de ces traînées de condensation, si différentes des traînées de condensation ordinaires - jusque dans les années 1990, les traînées de condensation étaient rares et se dissipaient en quelques minutes, puis elles apparaissaient obstinément et si fréquemment qu'elles recouvraient le ciel presque partout et à tout moment de la journée - a fait l'objet de nombreuses questions parlementaires à travers le monde, et l'une des plus récentes a été soumise en 2013 par l'actuel vice-Premier ministre italien Matteo Salvini. [6 Interrogatoire parlementaire - E-008804/2013 - [ www.europarl.europa.eu ] id="ftn7">  ]

    Une recherche dans la base de données des brevets montre également qu'une méthode de production artificielle de pluie a été enregistrée dès 1991 : US0462795 - 16 juillet 1991 - Méthode de production de pluie. [7 US0462795 – 16 juillet 1991 – Méthode de production de pluie - [ brevets.google.com ] id="ftn8">]

    En conséquence, au moins 174 brevets supplémentaires sur le changement climatique ont été déposés, dont le dernier a été consulté en 2013 : « US8373962 – 12 février 2013 – Charged seed cloud as a method for Increase particule collisions and for scavenging airborne biologique agents and other ». contaminants » . [8ème  US8373962 – 12 février 2013 – Nuage de graines chargé comme méthode pour augmenter les collisions de particules et pour éliminer les agents biologiques en suspension dans l'air et autres contaminants - [ brevets.google.com ] id="ftn9">] 

    173 autres brevets suivent :

     

     DWN : Parlons de la base scientifique de chaque arme météorologique. Si je voulais provoquer un tremblement de terre ou un tsunami, que devrais-je faire ? Quels principes scientifiques une telle arme utiliserait-elle ?

    Marco Pizzuti : Les principes de fonctionnement des armes géophysiques pour générer des secousses sismiques et des tsunamis sont peu connus, mais très faciles à expliquer et à appliquer. Historiquement, leurs racines remontent aux expériences et aux études révolutionnaires menées à la fin du XIXe siècle par Nikola Tesla, inventeur des moteurs électriques à courant alternatif radiocommandés modernes, des portes logiques informatiques et de centaines d'autres inventions extraordinaires. En 1899, le scientifique d'origine serbe quitte son domicile à New York pour construire un nouveau laboratoire au sommet de Pikes Peak, près de Colorado Springs, et mener une série d'expériences révolutionnaires. L'un de ses objectifs était la transmission sans fil de l'énergie électrique à travers des milieux naturels tels que l'air et le sous-sol. Puisque toute matière est constituée d'atomes qui s'agrègent en molécules qui vibrent à des fréquences spécifiques et déterminables avec précision, il réalisa qu'il pouvait exploiter le principe de résonance pour accélérer les vibrations des molécules du sol souterrain à tel point que des tremblements sismiques locaux seraient déclenchés, en pompant du courant électrique aux fréquences appropriées dans le sol. La même technique pourrait également être utilisée au fond des océans pour déclencher des tsunamis, et Tesla a appelé cette technologie « télé-géodynamique » . [9 Nikola Tesla, Tesla's Tidal Wave to Make War Impossible, English Mechanic and World of Science, 3 mai 1907, p.296. ]

    Après sa mort, le 7 janvier 1943, le matériel expérimental de son laboratoire fut confisqué par le gouvernement américain et restitué seulement partiellement au Musée de Belgrade.  Certaines de ses études ont également été déclarées top secrètes pour des raisons de sécurité nationale. À la fin des années 1980, le Dr. Brooks Agnew a réalisé, sans le savoir, certaines des expériences de Nikola Tesla à Colorado Springs, confirmant ainsi ses affirmations. Une compagnie pétrolière lui avait confié la tâche de détecter les gisements de pétrole et de gaz souterrains en les cartographiant avec des ondes ELF (Extremely Low Frequency) grâce à la technique de la tomographie terrestre. Cependant, Agnew a noté que certaines fréquences des ondes ELF peuvent déclencher involontairement des secousses sismiques. Sa déclaration sur le sujet est très claire : « Au printemps 1987, nous sommes allés à Rosburg, dans l'Oregon, pour utiliser la technologie des ondes ELF pour localiser des gisements de combustibles fossiles, mais au cours de nos recherches, nous avons eu des résultats inattendus car immédiatement après avoir irradié le faisceau d'ondes, quelque chose s'est produit, un tremblement de terre d'une magnitude de 4,5 sur l'échelle de Richter. Nous avons été étonnés des conséquences de ces deux événements. L’émission d’ondes ELF suffisait à provoquer un tremblement de terre ! » .

    Après des années d'expérience dans ce domaine, Agnew a reproduit l'expérience avec les ondes ELF à plus petite échelle dans un modèle pour montrer, ce phénomène physique à la fréquence de résonance, aux téléspectateurs. La possibilité de déclencher des secousses sismiques à l'aide d'ondes électromagnétiques basse fréquence a été officiellement confirmée dans des rapports scientifiques de la NASA, reconnus par le gouvernement américain : « Les enregistrements d'émissions géo acoustiques [ ...] ont les effets de l'influence d'un champ électromagnétique sur la déformation de la croûte. [10 J. Scoville, F. Freund, Sample records for sismique simulation électromagnétique, NASA Astrophysics Data System (ADS), 12 janvier 2013 - [ www.science.gov ] id="ftn11">] 

    Des études et des expériences de la NASA ont montré que les tremblements de terre et les tsunamis peuvent également être déclenchés par des modifications des charges électromagnétiques dans l'ionosphère : « Les résultats d'expériences sur le terrain et en laboratoire sur le déclenchement électromagnétique d'événements sismiques nous permettent d'aborder le problème des relations between pour regarder la lithosphère et l’ionosphère sous un angle différent. Considérant que la densité de courant générée dans la croûte terrestre par une source électrique artificielle est comparable à la densité des courants telluriques induits lors de perturbations ionosphériques sévères (par exemple les orages magnétiques), ils pourraient, dans certaines conditions favorables dans la lithosphère, générer des évènements dont il est difficile à ce stade, d’évaluer toutes les conséquences [11 Ibidem ]

     

    Cependant, l'installation HAARP construite par l'US Air Force, qui émet des ondes électromagnétiques, fait l'objet de nombreuses controverses précisément en raison de sa capacité à provoquer des changements électromagnétiques importants dans l'ionosphère avec une puissance de 500 mégawatts. Officiellement, il s'agit d'un système d'antennes émettrices construit exclusivement dans le but de rechercher scientifiquement les effets des micro-ondes dans les couches supérieures de l'atmosphère et de l'ionosphère sur les communications radio militaires. Cependant, il ne fait aucun doute qu’une telle installation peut également être utilisée comme arme géophysique, puisque tout changement électromagnétique significatif généré dans l’ionosphère affecte le climat et les événements sismiques.

    DWN : Et pour provoquer des orages, des pluies soudaines ou des périodes de sécheresse ? 

     Marco Pizzuti : C'est également le même scientifique Nikola Tesla qui a découvert le premier, le système permettant de générer tous les phénomènes météorologiques possibles (sécheresse, pluie, etc.). Cela s'est produit à la fin du XIXe siècle lors d'expériences à Colorado Springs sur la transmission d'énergie sans fil dans l'ionosphère. Après avoir construit un projecteur ionisant aux propriétés similaires à celles des lasers, qui n'avait été officiellement inventé que dans les années 1960, il l'a utilisé pour créer des couloirs d'air électriquement conducteurs qui parcouraient en ligne droite l'atmosphère sur des dizaines de kilomètres au-dessus du sol (L'air est un isolant électrique naturel). De cette façon, il a pu envoyer d’énormes quantités d’électricité et de micro-ondes dans la région de l’atmosphère où l’air est si raréfié qu’il est électriquement conducteur. Cette technologie Tesla est, jusqu’à présent, quasiment inconnue dans le secteur civil, mais le Japon l’utilisera en 2025 pour transmettre l’énergie solaire depuis l’espace vers une station de réception au sol. [12  Anthony Cuthbertson, Le Japon vise à diffuser de l’énergie solaire depuis l’espace d’ici 2025, Independent, 30 mai 2023.] 

     Dans cette expérience futuriste, qui a été suivie avec étonnement par la population locale, le scientifique a découvert qu'en électrifiant l'ionosphère depuis le sol, il est possible de modifier le temps, d'éclairer le ciel et de créer des aurores boréales artificielles. Ainsi, grâce à la technologie moderne, modifier artificiellement le climat est non seulement possible, mais aussi très facile à mettre en œuvre. Cependant, pour rendre la technologie de la pluie et de la sécheresse beaucoup plus efficace et précise, il est nécessaire de rendre la basse atmosphère électriquement conductrice en pulvérisant des produits chimiques capables d’ioniser l’air. 

     

    DWN : Et les incendies comme les feux de forêt ?

    Marco Pizzuti : Tous les graves incendies de forêt que nous avons connus ces dernières années ont été provoqués par des incendies criminels, et grâce à certains enregistrements officiels, nous pouvons affirmer avec une relative certitude que la plupart d'entre eux ont été déclenchés avec une technologie militaire : des armes à énergie dirigée qui exploitent la résonance de principe. Si nous comparons l'incendie de Californie en 2017 avec celui de Rhodes en 2023 [13 Incendi a Rodi, le mistero degli ulivi che bruciano dall'interno nel VIDEO virale sul web, Il Giornale d'Italia, 14 août 2023 - [ www.ilgiornaleditalia.it ] id = "ftn14">] ,  nous constatons que les deux incendies portent la marque d'armes à énergie dirigée, car les enregistrements officiels des plus grandes chaînes d'information du monde documentent que les arbres de l'intérieur ne brûlent pas, comme d'habitude, de l'extérieur. [14 Californie : l'albero « infernale » che brucia dall'interno, Il Corriere della Sera, 14 octobre 2017 - [ video.corriere.it ]]  

     

    Les armes à énergie dirigée, interdites par les conventions internationales, mais que les États-Unis ont secrètement utilisées pendant la guerre en Irak (par exemple le canon à micro-ondes appelé "Zeus") utilisent le principe de résonance et peuvent être provoquées par le rayonnement de micro-ondes aux fréquences appropriées : la fréquence de vibration des molécules de n’importe quel matériau jusqu’à ce qu’il brûle de l’intérieur vers l’extérieur. Des témoins de la « bataille de l'aérodrome » , qui a eu lieu en Irak en avril 2003, ont rapporté que des soldats étaient morts, touchés par des rayons invisibles qui ne brûlaient que certaines parties de leur corps. La caractéristique indubitable de cette technologie, qui la différencie considérablement des effets des incendies normaux, est qu'elle produit un type de combustion très sélectif qui, non seulement agit de l'intérieur, mais laisse également indemnes les matériaux voisins qui ont une fréquenARMES CLIMATIQUES : réalité ou utopie ?ce de résonance différente... 

     

    Ce n’est pas un hasard si cette « bizarrerie » est visible sur des photos prises en Californie, à Rhodes et dans de nombreux autres incendies majeurs de ces dernières années, tels qu’à Maui, le récent incendie dans les îles hawaïennes, dans lequel des bateaux ancrés près du port ont même pris feu individuellement. 

    Les preuves circonstancielles, pour ne pas dire les preuves, qui indiquent l'existence d'armes à énergie dirigée sont innombrables : les jantes en alliage des voitures complètement fondues par les températures élevées près des vitres sont restées intactes, les maisons qui ont brûlé et les arbres qui les protégeaient,  sont restés intacts, etc.

     

     

    DWN : Quelle importance stratégique les armes météorologiques ont-elles par rapport aux armes biochimiques ou nucléaires ?

    Marco Pizzuti : En 1957, le Comité consultatif américain sur le contrôle climatique a explicitement reconnu l'énorme potentiel militaire de la géo-ingénierie et a déclaré qu'elle pourrait devenir plus importante que la bombe atomique. D'un point de vue militaire, les armes géophysiques sont sans aucun doute meilleures que les armes nucléaires car elles sont extrêmement sélectives, ne laissent pas de radiations et leur effet destructeur peut être limité précisément aux zones touchées. En outre, il s’agit d’une technologie qui peut, au moins potentiellement, être utilisée secrètement en temps de paix par la puissante élite financière et industrielle à l’avant-garde de la mondialisation pour utiliser le spectre de l’apocalypse climatique pour imposer l’ordre économique et social qu’elle souhaite (par exemple, l’ordre social : contrôle et abaissement du niveau de vie des citoyens par l'introduction d'une « Carte Carbone » individuelle pour limiter les émissions de CO2 de la population, ce qui entraîne des écotaxes, des restrictions à la liberté de circulation et de consommation etc.).

    DWN : Quelle est l’étendue des zones où les armes météorologiques peuvent être utilisées ? En kilomètres carrés ?

    Marco Pizzuti : Malheureusement, il n'est pas possible de le savoir avec certitude car il s'agit d'une technologie militaire secrète, mais d'après les rapports scientifiques publiés par l'USAF, nous savons que jusqu'en 1996, il était possible de contrôler le climat dans une limite maximale de 200 km². Cependant, je pense qu'à l'heure actuelle, il n'y a pas de limites et que la taille de la zone concernée dépend uniquement du nombre de véhicules utilisés dans de telles opérations.

    GWN : Existe-t-il des contre-mesures contre les armes géophysiques ? Ou des tentatives d’interdiction de l’utilisation d’armes météorologiques ?

    Marco Pizzuti : Officiellement, ce sont des technologies qui n'existent pas et, hormis l'interdiction de l'ONU, peu de choses ont été faites pour empêcher leur utilisation et leurs tests. En 2002, pas moins de 188 députés russes à la Douma ont signé un appel à l'ONU pour protester contre les armes climatiques américaines et exiger la fermeture de l'installation américaine HAARP à Gakona (Alaska). Dans ce document, Moscou appelle officiellement Washington à abandonner la construction et le développement de nouvelles armes géophysiques destinées à manipuler artificiellement le climat.

    DWN : Pouvons-nous estimer si, et dans quelle mesure, des armes météorologiques seront développées dans les années à venir ? Qui y aura accès – et qui n’y aura pas accès ?

    Marco Pizzuti : Je crois que les armes géophysiques, basées sur des principes de fonctionnement extrêmement simples, ont déjà été perfectionnées jusque dans les moindres détails et sont capables de produire de la grêle de la taille d'une balle de tennis, des grenades sous-marines, des orages et des sécheresses. Mais officiellement, elles n’existent pas et, du moins en Occident, le monopole de cette technologie est clairement entre les mains de Washington et des lobbies qui contrôlent la Maison Blanche. Malheureusement, nous ne disposons d’aucune donnée officielle sur le développement de ces technologies par d’autres grandes puissances comme la Russie et la Chine..."

     

     

     

     

     

     

    Partager via Gmail Yahoo!

    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique