- ENTREE de SECOURS -



lundi 12 février 2024

Des updates pour Greta ! Les vrais tueurs du climat

 

54 commentaires:

  1. Je vais maintenant vous expliquer de quelle manière nous aussi, à Kla.TV, nous nous sommes laissés instrumentaliser par ces escrocs du climat - et ce que nous en avons appris. En fait, nous sommes nous aussi tombés dans leur piège. Et comment cela ? Tout simplement en contredisant l'affirmation constante selon laquelle le changement climatique est dû à l'homme, avec des climatologues et des scientifiques de haut niveau. Ceux-ci ont démontré, à l'aide des exemples les plus convaincants, qu'il existe depuis des millénaires un changement climatique naturel, des variations constantes des températures, des vents et des conditions météorologiques, etc. Et cela est et reste correct.

    Mais plus nous avons pu prouver de manière convaincante que le changement climatique ne peut pas être d'origine humaine, plus nous avons fait le jeu de ces faiseurs de crises climatiques ! Maintenant, tu vas bien sûr demander : Pourquoi donc ? Qu'est-ce qui pourrait être plus utile que de comprendre que nous, les humains, ne pouvons avoir, au mieux, qu'une influence de 0,000-quelque chose sur le climat ? Cela prouverait clairement que « Gretchen » ne fait que répandre des absurdités... Et vous voyez, c'est précisément ce va-et-vient permanent, cette lutte de pouvoir à ce niveau bien trop bas (pour savoir si le changement climatique est d'origine humaine ou non) qui est le point de vue secondaire absolument voulu sur lequel ces renards malins du climat nous ont manœuvrés.

    Mais ce qui m'est apparu clairement ces derniers jours, après avoir consulté des brevets de manipulation météorologique de haut niveau, c'est le fait que de nombreux changements actuels de notre temps et de notre « climat » sont tout de même d'origine humaine ! Mais pas par des personnes inconscientes comme toi et moi, c'est-à-dire au niveau le plus bas, mais par des ennemis de l'humanité sans scrupules au niveau le plus haut ! Ni par nos systèmes de chauffage, ni par les gaz d'échappement de nos voitures, ni par nos industries ! Et bien sûr pas par des pets de vache quelconques, auxquels on attribue en plus les trous dans la couche d'ozone. Non, dans d'innombrables brevets qui existent déjà depuis de nombreuses décennies, on peut lire noir sur blanc que par la géo-ingénierie, c'est-à-dire par les techniques de manipulation météorologique les plus diverses, on provoque entre autres des trous dans la couche d'ozone. Mais les brevets de ces armes météorologiques montrent qu'elles provoquent également des tremblements de terre, des inondations, des sécheresses, des tempêtes de neige, des éclairs avec ou sans tonnerre, des vagues de chaleur, du froid, des vents violents et même des tornades.

    RépondreSupprimer
  2. On y trouve même des tsunamis, que personne ne connaissait à l'époque, et tout ce que nous avons dû vivre d'horrible au cours des dernières décennies ! Dans le brevet officiel américain 4686605 qui s'affiche à l'arrière, il est décrit avec précision comment les armes électromagnétiques HAARP extrêmement dangereuses peuvent également générer de la chaleur ou des incendies de forêt ! Vous trouverez en annexe de nombreux autres brevets américains numérotés – je ne peux même pas les lire ici à cause de leur nombre, et encore moins en faire un résumé. En examinant les différents brevets de ce type, j'ai appris que ces brevets coûtent très, très cher et ne sont accordés que si les techniques proposées fonctionnent vraiment. J'ai également constaté que la grande majorité des brevets sur la manipulation du temps sont d'origine militaire. C'est d'ailleurs la raison pour laquelle, dès les années soixante, de nombreux projets de loi ont été élaborés pour que ces armes météorologiques ne puissent pas être utilisées à des fins guerrières. Rien qu'entre 1947 et 1978, 110 programmes de manipulation météorologique ont déjà été approuvés par le Congrès américain. En 1962, LYNDON B. JOHNSON a estimé « Cela permettra aux hommes de déterminer l'histoire mondiale de la Terre et, en fin de compte, de contrôler le temps. Et celui qui contrôlera le temps contrôlera le monde. »

    Mais puis j'ai vu tous ces chiffres, combien de millions de tonnes de particules de suie par exemple sont régulièrement injectées dans notre ciel. Dans les années 1970, l'armée de l'air américaine a créé le terme de chemtrails. Lorsque les premiers lanceurs d’alerte indépendants ont eu vent de ce crime secret, la CIA a immédiatement commencé à discréditer ces personnes en les qualifiant de conspirationnistes. C'est ainsi que tous ceux qui avaient dénoncé ces bandes hautement toxiques, et destructrices de la nature, ainsi que l'obscurcissement du ciel ont été rabaissés pendant des décennies de tous côtés comme des fous, avec une préférence pour les nazis et les théoriciens du complot.

    RépondreSupprimer
  3. En 2008 encore, alors que Werner Altnickel avait présenté des centaines de preuves de l'utilisation de chemtrails en relation avec HAARP et la technologie des micro-ondes lors de la 1ère AZK, l'assaut contre lui et tous les témoins de l'époque ne s'est pas seulement poursuivi, il a même pris de l'ampleur. Ce n'est qu'après que des milliers de preuves irréfutables ont été rendues publiques, que non seulement Wikipedia mais aussi toutes sortes de sites web gouvernementaux et scientifiques ont officiellement admis que la technologie des chemtrails existait depuis des dizaines d'années, mais qu'elle était désormais appelée géo-ingénierie.

    Cette soudaine concession générale à l'utilisation du nouveau terme technique n'a donc en aucun cas disculpé, justifié ou même réhabilité la réputation bafouée de ceux qui ont dévoilé les chemtrails. Au contraire, ils ont été d'autant plus acculés dans le coin des conspirationnistes et se sont entêtés à affirmer que la géo-ingénierie ne consistait pas à pulvériser des substances nocives, mais à effectuer des modifications météorologiques utiles pour le bien de l'humanité... Et c'est ainsi qu'a été forgé le narratif selon lequel on ne vise que le bien de l'humanité. Mais ce qui ressort clairement d'un grand nombre de ces brevets démantelés, c'est le contraire : vous trouverez ci-dessous, en annexe du texte de l'émission, de nombreuses sources sur les dommages absolument dévastateurs causés à la santé par la géo-ingénierie.

    Mais le pire, c'est que ce sont précisément ces interventions colossales et empoisonnantes qui modifient effectivement le temps et le climat. Et bien qu'il n'existe pas de climat mondial, ces épandages de cocktails toxiques, combinés aux hautes fréquences de HAARP, de la 5G, de la 4G, des technologies intelligentes, etc. influencent de manière irréfutable les différents climats régionaux de la Terre.

    Ce qui était jusqu'à présent dénoncé comme une amère théorie du complot s'est révélé être une forêt d'environ 1 000 techniques de manipulation météorologique brevetées, utilisées sans pitié depuis des décennies, à l'insu des peuples et sans qu'ils aient leur mot à dire. Certains brevets relatifs à l'influence du temps ont été déposés il y a plus de 100 ans déjà, ont été autorisés et utilisés immédiatement après la Seconde Guerre mondiale. Vous trouverez dans l'annexe du texte de l'émission une liste complète de ces brevets avec les sources et d'autres liens vers des documentations approfondies.

    RépondreSupprimer
  4. Selon l'expert en géo-ingénierie Dane Wigington, même les cyclones et les ouragans sont manipulés. Les manipulations des cyclones sont effectuées de manière ABSOLUMENT SÛRE. L'armée américaine est engagée dans des programmes de manipulation des ouragans depuis au moins 1947, et ce jusqu'à aujourd'hui. Selon Dane Wigington, l'ingénierie climatique est le facteur causal le plus important en ce qui concerne les incendies de forêt de plus en plus nombreux. Et tandis que dans le monde entier on nous impose des filtres à particules de plus en plus chers, afin d'empêcher que les véhicules diesel etc. rejettent des particules de suie nocives pour le climat, des géo-ingénieurs comme le Dr David Keith et le Dr. Ken Caldeira, insistent sur le fait que chaque année jusqu'à 20 MILLIONS de tonnes de poussière de charbon et de nanoparticules sont pulvérisées dans le ciel mondial.

    Vous avez bien compris ? Depuis longtemps, des millions de tonnes de particules de suie et de nombreux produits chimiques mortels sous forme de nanoparticules sont projetés chaque année dans l’atmosphère. D'où les soi-disant pluies acides qui détruisent impitoyablement toute notre végétation depuis des décennies.

    Malheureusement, toute explication de ce type manque totalement de crédibilité. Et ce pour la simple raison que les médias complices affirment comme un mantra que toutes ces armes météorologiques et climatiques ne seront jamais utilisées. Au lieu de cela, ils préfèrent accompagner la nuit des terroristes cagoulés qui dégonflent les pneus de milliers de véhicules au nom de la protection du climat. Ils s'entretiennent gentiment avec eux devant les caméras et masquent même leur voix lorsqu'ils répondent et laissent éclater leur colère contre les pollueurs automobiles. Bien que la police soit à la recherche de ces terroristes, les médias mainstream les couvrent délibérément au lieu de les dénoncer. Ne sommes-nous pas complices si nous continuons à verser nos taxes obligatoires à ces criminels du mainstream ? Avec notre argent, ils couvrent manifestement les véritables tueurs du climat et des peuples. Ils le font aussi délibérément en affirmant comme un mantra qu'aucun gouvernement au monde ne porterait atteinte à ses citoyens de manière intentionnelle et, de surcroît, sans s'en rendre compte. C'est le récit qu'on nous martèle. Mais de nombreux documents et faits prouvent malheureusement le contraire. D'une part, il y a toute une série de catastrophes sismiques et environnementales qui ont été découvertes et qui sont dues à l'activation d'armes météorologiques. Dès les années cinquante et soixante, les premiers attentats terroristes de ce type ont dû être ouvertement reconnus. Mais sans aucune retombée positive pour la population mondiale abusée. Ce n'est ici que le début ou une petite pointe de cet iceberg abominable :

    RépondreSupprimer
  5. Depuis 1945, plus de 2 100 essais de bombes nucléaires ont été détectés et ont certainement contribué à un changement climatique d'origine humaine !
    Au total, rien que 520 de ces explosions nucléaires répertoriées dans Wikipedia ont eu une puissance 45 000 fois supérieure à celle de la première bombe atomique sur Hiroshima. En d'autres termes, Hiroshima a été répétée 45 000 fois depuis 1945 par des scientifiques et des bellicistes insensés, rien que dans l'atmosphère et sous l'eau ! - Malheureusement, il manque à ce calcul au moins 1 680 autres explosions nucléaires mises à la lumière, sans compter ce qui est encore caché, de sorte qu'Hiroshima a probablement été répétée plus de 100 000 fois. Vous comprenez de quoi nous parlons ici ? Et pourtant, nos agriculteurs se voient actuellement retirer leurs vaches parce qu'apparemment elles pètent trop, ce qui nuit aux terres, aux prairies et au climat...

    En 1952, le projet « Cumulus » a provoqué une méga-inondation catastrophique en Grande-Bretagne, faisant des dizaines de morts.
    De 1962-71, le projet « Stormfury » a provoqué des ouragans et les a dirigés de manière ciblée.
    De 1967-72, le projet « Popeye » a provoqué de gigantesques précipitations au Vietnam, qui ont délibérément bouché et coupé les voies d'approvisionnement des Vietcongs [Front national pour la libération du Sud-Vietnam ; organisation de guérilla pendant la guerre du Vietnam].

    Comme vous pouvez le voir, tout cela remonte à bien plus de 50 ans. Notre génération a déjà été frappée par d'innombrables autres inondations, tsunamis, tremblements de terre et autres. Et pour ce qui est de l'affirmation mensongère de la presse mainstream, selon laquelle aucun gouvernement ne porterait sciemment atteinte à son peuple sans le savoir, je vous renvoie encore une fois à notre documentaire en allemand, USA - Essais toxiques sur sa propre population, du 24 janvier 2024 (www.kla.tv/27988.)

    RépondreSupprimer
  6. Car en 1994, d'autres expériences à grande échelle sur les peuples ont été dévoilées aux Etats-Unis. Là, les sujets de test involontaires étaient des citoyens américains, de grandes villes entières. Des avions militaires les ont aspergés de poison de manière ciblée pendant de longues périodes (l'armée voulait voir ce qui allait se passer), car les produits destinés au combat doivent être testés avant d'être utilisés chez « l'ennemi ». Même une école primaire avec des enfants a été aspergée quotidiennement et de manière ciblée de sulfure de zinc et de cadmium pendant trois mois. Les conséquences ont été cruelles. La moitié d'une classe entière en est morte, l'autre moitié a souffert de maladies très graves, de stérilité ou de handicap. Les victimes ont ensuite donné naissance à des enfants gravement handicapés, etc. Le gouvernement a prétendu que les avions n'avaient pulvérisé que des produits chimiques inoffensifs. Mais les mesures ont révélé que du sulfure de zinc et de cadmium, entre autres, était présent. C'est-à-dire précisément ces substances toxiques qui, comme nous l'avons déjà mentionné, sont secrètement pulvérisées depuis des décennies par millions de tonnes au-dessus de presque tous les pays du monde, et ce, chaque année !

    Et vous voyez, ces tueurs de climat et ces gigantesques malfaiteurs ont depuis le début rejeté sur nous, les peuples inconscients, la responsabilité de la pollution mondiale des sols et des eaux. Mais comment ? En nous accusant d'utiliser des shampoings et des produits d'entretien nocifs. Mais en même temps, ils pulvérisent continuellement des dizaines de millions de tonnes supplémentaires de cocktails toxiques indicibles sur le monde entier, de sorte qu'aucune région du globe n'est désormais épargnée par ces pollutions. Et à cause de ces pulvérisations, les arbres, les abeilles, les insectes et donc les oiseaux meurent partout. Et toutes nos eaux et tous nos sols sont également fortement empoisonnés par la géo-ingénierie. Dans le brevet américain 9924640, des avions Boeing sont transformés pour transporter des charges de 25 tonnes de nanoparticules sableuses à 18 000 mètres d'altitude. Ces particules restent jusqu'à deux ans dans la haute atmosphère, puis elles se déposent silencieusement sur nos champs, nos jardins, nos forêts, nos lacs, nos rivières et nos prairies !

    RépondreSupprimer
  7. De plus, l'OTAN, fondée par des francs-maçons de haut grade, vend depuis longtemps environ 90 % de son carburant JP8 à l'aviation civile, c'est-à-dire à presque tous les grands aéroports du monde. Par ce biais, il se produit à nouveau une seule et même chose. Nous ne devons jamais oublier que les responsables cachés de cette campagne mondiale d'épandage veulent sérieusement réduire la population mondiale à 500 millions. C'est ce qu'ils ont fait graver en dix langues sur leurs monuments de 120 tonnes, les fameuses Guide Stones. Ou est-ce un simple hasard si les carburants de l'OTAN qui nous sont vendus contiennent eux aussi comme additifs exactement les mêmes substances hautement dangereuses ? En effet, on a trouvé dans ce carburant militaire des quantités élevées d'aluminium, de baryum, de béryl, de plomb, de cadmium, de chrome, de cobalt, de fer, de cuivre, de molybdène, de sodium, de nickel, de strontium, de titane, de vanadium, de zinc et d'étain, ainsi que les oxydes de ces métaux et d'autres substances toxiques.

    Vous voyez, c'est reparti. Portez donc des banderoles dans les rues et les manifestations pour le climat, sur lesquelles on peut lire : Les carburants de l'OTAN dans nos avions sont des tueurs de climat ! Le plomb, le strontium et l'oxyde de fer nous tuent ! L'épandage dans l'atmosphère de 20 millions de tonnes de poussières de charbon par an est un génocide !

    Tout ce qui a été dit jusqu'à présent est donc d'origine humaine ! C'est pourquoi nous n'affirmerons plus jamais avec Kla.TV que le changement climatique dénoncé actuellement n'est pas dû à l'homme ! Mais nous allons désormais donner des leçons particulières à tous et toutes les Greta Thunberg du monde en brandissant nos propres banderoles au milieu des manifestations sur le climat ! Et sur ces banderoles, on pourra lire quels sont les hommes qui provoquent toutes ces catastrophes climatiques et avec quels moyens. Nous expliquerons à Greta et à ses jeunes successeurs, QUI sont les véritables pollueurs du climat, et ce devant les caméras de la presse mainstream. Nous brandirons nos banderoles sur lesquelles il sera écrit QUI, par exemple, déverse chaque année dans notre atmosphère 10 millions de tonnes de poussières fines d'aluminium, etc. Et quels sont les effets exacts sur notre santé humaine ! Regardez les listes de maladies en bas de l'émission, ça vous donnera des frissons.

    RépondreSupprimer
  8. Non seulement Greta Thunberg et la jeunesse fanatisée avec elle, mais aussi tous les gens inquiets de ce monde doivent savoir qui injecte exactement combien de millions de tonnes de quel poison mortel dans l'atmosphère, pour ensuite nous faire porter la responsabilité de toutes ces destructions environnementales, à nous, les citoyens du monde bernés.
    Ce qui est encore plus grave, c'est que ces mêmes conspirateurs mondiaux nous arnaquent également avec toutes sortes de taxes et d'amendes pour le climat. Les objectifs climatiques proclamés au niveau international, associés à l'Agenda 2030, nous révèlent que leur folie climatique, en particulier, conduira au prélèvement des plus grands tributs de tous les temps, si nous n'arrêtons pas ces fous ! Car grâce à cette attitude de base qui nous accuse tous, ces génocidaires se cachent habilement derrière nous. Tout ce qu'ils font eux-mêmes, ils nous le mettent sur le dos - c'est leur stratégie ancestrale - une stratégie du diable en l’espèce, soit dit en passant. N'oubliez jamais que tous ces crimes sont imprescriptibles. Et parce qu'ils couvrent et embellissent tout par le biais de leurs médias mainstream et qu'ils censurent de plus en plus toute divulgation par le biais de leurs plateformes Internet, tous leurs vassaux doivent également être désarmés et mis sous les verrous en tant que complices.

    Sur nos banderoles, que nous brandirons à l'avenir aux manifs de Greta et Cie, il doit être possible de voir d'un seul coup d'œil combien d'installations HAARP existent dans le monde et QUI utilise précisément ces armes météorologiques pour faire bouillir notre ionosphère afin de déclencher ici-bas des cataclysmes de tout genre. La population mondiale doit dénoncer ces tueurs de masse et les mettre derrière les barreaux, sans aucune alternative. Mais si, malgré toutes ces révélations, aucune justice ne s'engage pour la population mondiale lésée, pas même une quelconque justice restante, ils contraindront les peuples devenus sans défense à se choisir de nouveaux gardiens et juges, qui seront là pour défendre la vie des peuples. Oui, alors la Justice se sera disqualifiée elle-même par son refus de servir et elle sera obligée obligé le monde à créer et à habiliter également de nouveaux tribunaux gratuits, car : Le Nouveau Monde est sans argent !
    Je suis Ivo Sasek, qui se tient devant Dieu depuis 47 ans.

    RépondreSupprimer
  9. de is
    Sources / Liens :
    La folie nucléaire - les faits réels ...…
    https://en.wikipedia.org/wiki/List_of_nuclear_weapons_tests

    https://www.nzz.ch/international/nordkorea-vergleichbar-mit-hiroshima-nordkoreas-atombombentests-im-vergleich-ld.116220

    www.kla.tv/19915:Les
    brevets météorologiques : Où se cachent les faiseurs de catastrophes
    https://wetteradler.de/mediathek

    https://vimeo.com/567794253

    Manipulations météorologiques : Ce que nous savons avec certitude - Conférence du physicien ETH Dr. Philipp Zeller
    https://aktuelle-nachrichten.app/schweizer-physiker-ueber-chemtrails-und-haarp-die-frage-ist-was-dem-kerosin-beigemischt-wird-video/

    www.kla.tv/14463:

    https://de.wikipedia.org/wiki/Luft

    https://www.youtube.com/results?search_query=Robert+Farle+erkl%C3%A4rt+den+Co2-Irrsinnwww.kla.tv/27872:

    https://www.kla.tv/fr

    RépondreSupprimer
    Réponses
    1. https://rudy2.wordpress.com

      https://educate-yourself.org/mc/

      https://nwohaarp.wordpress.com/2017/10/05/haarp-the-day-after-tomorrow/

      Supprimer
  10. Jean-Pierre Petit, le génie français qui bouscule la science depuis 40 ans


    2 février 2024


    Le modèle Janus, la magnétohydrodynamique, les armes hypersoniques, l’Ukraine, les ovnis, son parcours, ses rapports avec la communauté scientifique.

    Dans un entretien «document» de 94 minutes qu’il a accordé au magazine Nexus, Jean-Pierre Petit, l’un des plus grands scientifiques, mais aussi l’un des plus controversés, se dévoile sans masque. Physicien, astrophysicien, ancien directeur de recherche au CNRS, il est aujourd’hui âgé de 86 ans. Mais il conserve toujours une formidable énergie.

    Entretien réalisé par Armel Joubert des Ouches, journaliste au pôle vidéo de Nexus.

    https://reseauinternational.net/jean-pierre-petit-le-genie-francais-qui-bouscule-la-science-depuis-40-ans/

    RépondreSupprimer
  11. Le lien a été mis en ligne par le « Ministère fédéral de la protection du climat, de l'environnement, de l'énergie, de la mobilité, de l'innovation et de la technologie » (communément appelé ministère de l'Environnement), dont la directrice, Leonore Gewessler, possède des qualifications modestes en plus de travailler pour Global 2000 et étant membre du conseil consultatif du Green Education Workshop, ainsi qu'en sciences politiques - un baccalauréat peut être mentionné.

    Puisque les jours de l'existence de ce gouvernement sont probablement comptés, le nouveau monstre législatif prévu est en cours de révision rapide depuis le 12 janvier 2024 et son nom complet sera « Loi sur l'économie de l'électricité, loi sur la définition de la pauvreté énergétique et loi sur le contrôle de l'énergie » (vulgo ElWG) . La nouvelle loi vise à remplacer la précédente loi de 2010 sur l'industrie et l'organisation de l'électricité (également connue sous le nom d'ElWOG 2010) et constitue un ensemble complet comprenant :

    Loi sur l'industrie électrique (ElWG),

    Loi sur la définition de la précarité énergétique (EnDG) également
    un amendement à la loi sur le contrôle de l'énergie (E-ControlG) comprenant des explications et une « évaluation d'impact axée sur les effets ».
    Les milliers de déclarations ignorées contre la malheureuse loi sur la vaccination obligatoire contre le Corona qui a été adoptée à l’époque (et stoppée seulement par le pouvoir judiciaire) ont prouvé à quel point le droit du citoyen ordinaire d’avoir son mot à dire dans l’élaboration des lois est « puissant ». Après tout : formellement, chaque Autrichien peut envoyer sa protestation par e-mail à l'adresse vi-4@bmk.gv.at jusqu'au 23 février 2024 et recevra même un accusé de réception ministériel s'il demande un accusé de lecture.

    RépondreSupprimer
  12. D’ailleurs, le « Blue Minds Group », un groupe millionnaire dirigé par l’ancien chancelier du SPÖ Christian Kern et son épouse Eveline Steinberger-Kern, s’est spécialisé depuis longtemps dans l’analyse « légale » des données des compteurs intelligents. En établissant des sièges sociaux à Vienne et à Tel-Aviv (désormais également à Linz, Graz et Munich), Christian Kern a probablement profité de ses anciennes relations avec Tal Silberstein.

    Des rapports circulent également en ligne selon lesquels Google, le géant mondial des données, envisage d'offrir de l'électricité gratuitement en guise de « récompense » à tous ceux qui révèlent « volontairement » les données de leur compteur intelligent.

    Comme d’habitude, l’Autriche pratique l’obéissance anticipée : lorsqu’une directive européenne a donné aux États la liberté d’agir en matière de compteurs intelligents, le gouvernement rouge-blanc-rouge a non seulement immédiatement crié « ici », mais a immédiatement dépassé les exigences. La Haute-Autriche est le premier Land à avoir déjà achevé le déploiement des compteurs intelligents, et d'autres Länder suivront bientôt.

    Pour le compteur intelligent, outre la transmission de données par radio (comme un émetteur de téléphone portable), il existe également la communication par ligne électrique (généralement variante PLC), désormais privilégiée en Autriche et dans d'autres pays, dans laquelle un appareil est utilisé pour contrôler ou réguler une machine ou un système est utilisé et programmé sur une base numérique. Cela remplace la commande programmée par connexion « câblée ».

    Il ne faut pas oublier que les compteurs intelligents ont toujours besoin d’amplificateurs (sans fil) sur les trajets intermédiaires. C’est pourquoi non seulement leurs propres fréquences sont « flottantes », mais aussi celles de tous les voisins. À l'avenir, de nombreux paquets de données circuleront chaque seconde sur les ondes. C'est pourquoi des avertissements concernant l'électrosmog circulent déjà au sein de l'Association médicale autrichienne. La sensibilité météorologique enregistrée par les personnes sensibles se situe entre trois et 100 kilohertz, et c'est exactement la plage des compteurs intelligents qui peut provoquer un stress cellulaire. Le prix Nobel de médecine a été décerné en 1991 pour la découverte selon laquelle les cellules communiquent entre elles par le biais de fréquences. Des intensités de champ relativement gigantesques sont désormais courantes dans notre environnement et, d'un point de vue médical, elles sont encore augmentées par la technologie des compteurs intelligents.

    RépondreSupprimer
  13. Les citoyens critiques craignent également que la technologie des compteurs intelligents puisse être utilisée pour couper l’électricité à distance et – à l’instar du blocage des comptes bancaires (« debanking ») – « gênant » et/ou que les non-payeurs pourraient un jour être arbitrairement privés de leur existence même. Formellement, le client peut faire « désactiver » l'arrêt à distance, mais l'exploitant du réseau peut en principe le remettre en « activation » à tout moment (Loindl). Sans compter que la règle générale est la suivante : plus les logements sont transformés en appartements intelligents, plus leur équipement électronique devient étendu, ce qui signifie que la « toute-puissance orwellienne » des opérateurs de réseaux s'accroît encore davantage.

    D'ailleurs, selon Loindl, il existe actuellement « de nombreux problèmes liés à des mesures incorrectes avec des consommateurs cadencés ». Les clients se plaignent du fait que les factures d’électricité ont augmenté depuis l’installation du compteur intelligent. Pour clarifier ces allégations, des enquêtes sont en cours auprès des seconds compteurs. Une étude réalisée par l'Université de Twente aux Pays-Bas a montré que sur 9 appareils testés, un seul (!) donnait des informations correctes. Ici, on vous rappelle involontairement les mensonges sur l’efficacité des vaccinations de l’ère Corona.

    Enfin, selon Fritz Loindl, les compteurs intelligents sont une « folie écologique » : alors que les compteurs Ferrari classiques durent 50 à 100 ans, les compteurs intelligents n'ont qu'une période d'étalonnage maximale de 10 à 13 ans.

    La frénésie boursière autrichienne, qui touche 5,4 millions de compteurs électriques, génère des « déchets électroniques sans fin ». Mais il y a aussi la « folie économique » : des études e-économiques ont montré que « l’innovation » des compteurs intelligents coûte 2,53 milliards d’euros, mais les bénéfices qui en découlent ne s’élèvent qu’à 127 millions.

    Pourquoi les médias système sont-ils silencieux ?

    On peut supposer que les médias grand public ne parlent pas ou peu de ce sujet, car les opérateurs de réseaux sont de riches clients publicitaires et parce que les éditeurs mettent donc leurs journalistes sous pression pour qu'ils restent silencieux sur le problème des compteurs intelligents.

    RépondreSupprimer
  14. Par ailleurs, l’argument sans issue largement répandu selon lequel la résistance des consommateurs est inutile puisque « les compteurs intelligents sont désormais installés presque partout » ne s’applique pas – du moins jusqu’à la fin du délai d’opposition légal, le 23 février. Rétrospectivement, la protestation a encore de bonnes chances en termes de délai.

    Selon la loi en vigueur, vous pouvez toujours refuser d’installer des compteurs intelligents qui ne sont pas encore installés. Les avocats de Stop Smartmeter s'efforcent actuellement d'empêcher une annulation planifiée du droit d'opposition - par exemple au moyen de clauses insérées. Il n’est pas non plus exclu que les plus hautes juridictions autorisent un jour une obligation de démontage gratuite. À propos, il existe des filtres de ligne que tout électricien peut installer pour empêcher l’extraction du signal.

    Les opinions exprimées dans cet article ne reflètent pas nécessairement les opinions des auteurs permanents de TKP. Les droits et la responsabilité du contenu incombent à l'auteur.

    Bernd Stracke ist freier Journalist und Buchautor.

    https://tkp.at/2024/02/12/smartmeter-protest-galgenfrist-endet-in-kuerze/

    RépondreSupprimer
  15. La plus grande erreur des socialistes français depuis 1936


    le 11 février 2024


    Depuis 1936 la France est gouvernée, on devrait plutôt dire gérée sans que personne ne s’en rende compte, par des socialistes non pas élus mais constituant une administration tentaculaire qui a envahi l’ensemble des centres de décision du pays. Ces administrations peuvent ne pas mettre en œuvre les directives du pouvoir central puisqu’elles sont hors-sol, en d’autres termes elles ne prennent pas en compte les désirs et besoins du peuple. De plus le totalitarisme rampant mais bien réel de la Commission européenne qui émet des normes et des « directives » fait l’objet d’une adaptation idéologique de cette administration. À l’heure où cette même Commission se préoccupe du réchauffement du climat et décide de mesures surréalistes pour juguler ce réchauffement il faut remonter dans le temps pour comprendre ce que cette administration fonctionnant avec elle-même et pour elle-même, chapeautée par les « grands corps » de l’État issus de l’École nationale d’administration ou des grandes écoles d’ingénieurs, notamment l’École polytechnique. Le désastre annoncé se réalise sous nos yeux.

    L’exemple du transport ferroviaire constitue une illustration lumineuse et presque caricaturale de cette totale incurie de l’administration française.

    En 1936 le réseau ferroviaire français comptait plus de 50000 kilomètres de voies sans prendre en compte la multitude de tramways qui imprégnaient la proximité de presque toutes les villes du territoire. Les trains étaient tractés par des locomotives à vapeur de tailles variées selon la longueur de ces lignes et la plupart des tramways (plus de 15000 kilomètres de lignes) étaient alimentés par des générateurs de courant continu disséminés autour des villes mus par du charbon. Dès l’accession du Front populaire au pouvoir, on ne peut pas trouver plus socialiste comme administration centrale, il y eut une véritable révolution dans le transport ferroviaire français. Les compagnies privées qui se partageaient le réseau existant furent nationalisées :

    - voir carte sur site -

    RépondreSupprimer
  16. Le nombre de petits épargnants qui avaient placé leurs économies dans ces compagnies qui avaient créé le réseau ferré qu’ils utilisaient pour se déplacer constatèrent que leur épargne avait disparu mais les intérêts financiers des gros investisseurs furent en grande partie préservés. Le premier résultat résultat de cette nationalisation fut de démantèlement de plus de 5000 kilomètres de voies, soit près de 10 % du réseau ferré (hors tramways) national. Où partit l’acier récupéré ? Les mauvaises langues prétendent qu’une grande partie de cet acier fut vendu à l’Allemagne mais il est difficile de trouver des informations à ce sujet. Toujours est-il qu’une explication peut être trouvée en considérant le fait que les finances publiques se dégradèrent et que la France, confrontée à l’armée du Troisième Reich, fut lamentablement vaincue car l’industrie du pays souffrait de toutes les mesures sociales décidées par le Front populaire. Après la guerre le démantèlement du réseau ferroviaire reprit son cours, les premières voies ferrées victimes de ce mouvement furent les petites lignes de tramway de banlieue puis toutes les voies ferrées qui ne servaient au mieux qu’à une seule circulation par jour. Le réseau d’avant-guerre dont l’objectif avait été de connecter toutes les sous-préfectures au réseau afin d’offrir aux citoyens, au peuple, une facilité de transport unique en Europe au prix de travaux parfois somptuaires, disparut et le réseau ferré s’éclaircit de manière alarmante.

    Pratiquement tous les réseaux de tramways urbains disparurent, les lignes de ceinture et de grande ceinture de Paris disparurent alors qu’elles étaient remarquablement connectées au réseau national et progressivement l’électrification de seulement quelques grandes lignes se développa en suivant l’évolution des technologies de traction : de la vapeur au diesel puis à l’électrique. Aujourd’hui la situation n’a jamais retrouvé celle d’avant-guerre alors que le gouvernement prône le remplacement des voitures « thermiques » par des véhicules électriques pour préserver le climat.

    - voir carte sur site -

    RépondreSupprimer
  17. Aujourd’hui, selon des données gouvernementales officielles, le réseau ferré français comprend à nouveau 50 000 kilomètres de voies (j’émets quelques doutes) mais une très grande partie de ces voies ne sont empruntées que par une unique circulation par jour et le réseau se caractérise par les lignes à grande vitesse qui sont supposées servir le public. Il faut qu’on m’explique comment une ligne à grande vitesse comme Paris-Marseille dessert peut répondre aux besoins locaux, c’est-à-dire se déplacer de Mâcon à Villefranche-sur-Saône alors que la ligne à grande vitesse passe par ces deux villes. J’ai choisi cet exemple parce que je suis d’origine lyonnaise et il illustre la difficulté de se déplacer en train dans le tissu provincial français : si le train à grande vitesse s’arrête à Mâcon le problème consiste alors à trouver un moyen pour se rendre à la gare ferroviaire de cette ville puis attendre un hypothétique train dit « régional » pour rejoindre Villefranche-sur-Saône et c’est exactement la même situation dans tout le couloir rhodanien, bel exemple d’une gestion étatique calamiteuse qui ignore les besoins du provincial moyen qui va bientôt se retrouver sans voiture personnelle puisqu’il n’aura pas les moyens financiers de s’offrir une voiture électrique. Voilà le résultat d’une gestion administrative de gauche décomplexée qui hait les initiatives privées. Pauvre France de mon enfance, qu’es-tu devenue ?

    Illustrations:Wikipedia, RFF et aussi cette carte interactive : https://commons.wikimedia.org/wiki/File:Railway_map_of_France_-_animated_-_fr_-_small.gif?uselang=fr

    Note. Chaque fois que je séjourne à Tokyo je suis invariablement émerveillé par le fonctionnement tel une montre suisse des transports ferroviaires urbains et péri-urbains depuis Nikko, Narita et Chiba jusqu’à Kamakura et les alentours du Mont Fuji, je n’en dirait pas plus : https://www.jreast.co.jp/e/routemaps/pdf/routemap_majorrailsub.pdf

    https://jacqueshenry.wordpress.com/2024/02/11/la-plus-grande-erreur-des-socialistes-francais-depuis-1936/

    RépondreSupprimer
  18. « Plus jamais ça ! » Ni de gauche ni de droite !


    11 février 2024
    par Alain Vannod


    Dans une interview accordée le 24 janvier à la publication en ligne « Die Ostschweiz », l'éthicien des affaires Thomas Beschorner de l'Université de Saint-Gall en Suisse explique que l'Allemagne montre actuellement ce qu'est une démocratie défensive. En tant que participant à une grande manifestation anti-droite à Berlin, il a apparemment reconnu les dangers que représentent l'extrémisme de droite et l'AfD.

    Malheureusement, la situation économique et sociale actuelle en Allemagne n’est pas du tout évoquée dans cette interview ! En couverture de « 20 Minutes » dans l’édition imprimée du 30 janvier 2024 : « Un géant stupéfiant : l’Allemagne, nation industrielle, s’en prend aux chiens ». Les symptômes évoqués sont : « La société s'appauvrit », « De plus en plus de sans-abri », « Les gens grossissent », « Des normes scolaires dramatiques », « Elle devient de plus en plus violente », « La ghettoïsation augmente », « Les infrastructures comme une bombe à retardement ».

    Rien de tout cela n’est contesté par personne. M. Beschorner aurait dû être interrogé sur les raisons possibles de cela et sur qui, selon lui, en est responsable. S’agit-il des partisans de l’AfD ou même des nazis qui semblent déjà se cacher partout ? Les performances indescriptibles du gouvernement des feux de circulation ne sont-elles pas la principale raison pour laquelle le budget de l'ancienne puissance économique se creuse profondément et que, dans le même temps, des milliards d'euros affluent à l'étranger pour des projets ?

    Et il n'y a rien à apprendre des milliers d'agriculteurs, d'entrepreneurs, de moyennes entreprises et d'artisans qui manifestent dans les rues de nombreuses villes, du chancelier, qui est sifflé partout, et du ministre de l'Économie, qui voit le protestation légitime comme une tentative de coup d’État.

    Science et éthique en 2021 en Suisse

    L'entretien avec le scientifique et éthicien des affaires Beschorner montre également qu'un ordre fondamental libre-démocratique et la liberté de l'individu sont très importants pour lui. Dans le « Zeit Online » du 23 juillet 2021, M. Beschorner lit, entre autres, ce qui suit sous le titre « La discrimination à l'encontre des personnes non vaccinées est éthiquement justifiée » :

    RépondreSupprimer
  19. « Afin d’augmenter le taux de vaccination, une obligation de vaccination indirecte, voire directe, est en cours de discussion. D’un point de vue éthique, il y a peu de raisons de s’opposer aux deux options. La vaccination obligatoire est considérée comme appropriée si certaines conditions sont remplies : premièrement, la personne vaccinée ne se cause pas de préjudice disproportionné. Deuxièmement, la vaccination réduit non seulement la probabilité de tomber malade elle-même, mais réduit également considérablement la probabilité de contaminer autrui. Troisièmement, les vaccinations présentent le meilleur rapport bénéfice/risque par rapport aux autres mesures. Sa conclusion est claire : « Les preuves scientifiques sur ces trois conditions sont claires. »

    Le regard dans le « look »
    C'est « l'attitude éthique » d'un professeur d'éthique des affaires et directeur de l'Institut d'éthique des affaires de l'Université de Saint-Gall. En bref, le « Blick » du 30 janvier : « Le rapport annuel de la commission de surveillance parlementaire montre que depuis le début de la pandémie corona, plus de doses de vaccin ont été éliminées que vaccinées. Jusqu’à présent, 18,6 millions de canettes périmées ont fini à la poubelle et 17 millions de canettes ont été utilisées. À ce stade, je ne veux pas entrer dans les détails de la tragédie humaine des nombreuses victimes du vaccin.

    Depuis quatre ans, je vis de plus en plus de moments dont, au début, je ne sais pas s'il s'agit de rire ou de pleurer. La dernière question de l’interview « Suisse orientale » sur le thème de l’incertitude sert d’exemple : « Quelle boussole recommandez-vous aux personnes désorientées ? Le conseil de M. Beschorner : "Il ne peut jamais faire de mal de jeter un coup d'œil à la Constitution fédérale !" …

    Il suffit d’y ajouter ceci : veillons à ce que la situation allemande ne s’étende pas encore davantage aux pays voisins. Car là aussi, toutes les voix critiques, quel que soit le sujet, sont attribuées par les « médias d’État » au camp peu recommandable de l’extrême droite. L'écrivain et socialiste italien Ignazio Silone, décédé en 1978, a déclaré :

    RépondreSupprimer
  20. "Si le fascisme revient, il ne dira pas : 'Je suis le fascisme'. Non, il dira : 'Je suis l'antifascisme.'"

    *

    Alain Vannod Saint-Gall, Suisse. Actif dans le mouvement Swiss Grasswurzle depuis sa création. Supporteur de divers nouveaux médias indépendants. A travaillé comme correcteur pour le magazine « Die Freien ». Avant sa retraite en tant que typographe/relecteur et spécialiste dans le domaine du support occupé

    https://tkp.at/2024/02/11/nie-wieder-weder-von-links-noch-rechts/

    RépondreSupprimer
  21. Scandale France : Macron débloque 30 millions d’euros pour sauver la presse « papier » détenue par des milliardaires


    By Cheikh Dieng
    10 février 2024


    Une info à ne jamais oublier!

    En pleine crise de l’hôpital et au moment où les citoyens français font face à une inflation record, le gouvernement annonce une aide de 30 millions d’euros destinée aux éditeurs de presse les plus touchés par l’augmentation de certains de ses coûts de production

    L’annonce de cette nouvelle a été faite, dans un communiqué publié le 14 décembre 2022, par le ministère de la Culture

    Lecourrier-du-soir.com vous invite à lire le communiqué dans sa version originale

    Excellente lecture

    « M. Bruno Le Maire, ministre de l’Économie, des Finances et de la Souveraineté industrielle et numérique, M. Gabriel Attal, ministre délégué chargé des Comptes publics et Mme Rima Abdul Malak, ministre de la Culture annoncent une aide de 30 millions d’euros aux éditeurs de presse les plus touchés par l’augmentation de certains de ses coûts de production. Cette augmentation remet en cause la capacité de la presse à remplir sa mission essentielle d’information du public qui contribue à l’objectif à valeur constitutionnelle de pluralisme.

    Face à ces surcoûts, certains éditeurs de presse ont été contraints de réduire la pagination de leurs publications et de supprimer la parution de numéros spéciaux et hors-série. Conscient de la menace que cette crise conjoncturelle fait peser sur certains titres, déjà structurellement fragiles, et sur l’offre d’information au public, le Gouvernement annonce la mise en place à brève échéance d’un soutien exceptionnel aux éditeurs de presse les plus touchés.

    Doté d’une enveloppe de 30 millions d’euros, ce soutien au bénéfice des éditeurs dont les publications sont reconnues par la commission paritaire des agences de presse et des publications (CPPAP) sera ciblé sur les acteurs dont la situation économique est particulièrement affectée par les conséquences de la guerre en Ukraine. Il se traduira par une prise en charge partielle, pour les éditeurs les plus fragilisés, de l’augmentation de certains coûts de production.

    Cette enveloppe de 30 millions d’euros sera notamment financée par des crédits destinés au secteur de la presse qui n’ont pas été consommés dans le cadre du plan de relance et par 5 millions d’euros ouverts en loi de finances rectificative à la suite d’un amendement du député Denis Masséglia.

    Il s’inscrira dans l’encadrement temporaire en matière d’aides d’Etat qui permet de verser des aides de montant limité aux entreprises touchées par la crise actuelle.

    Dans le chaos informationnel que vient amplifier la guerre en Ukraine, l’Etat reste engagé aux côtés de la presse pour contribuer au maintien d’une information pluraliste, professionnelle et de qualité, essentielle à l’animation du débat démocratique. »

    https://lecourrier-du-soir.com/scandale-france-macron-debloque-30-millions-deuros-pour-sauver-la-presse-papier-detenue-par-des-milliardaires-4/

    RépondreSupprimer
  22. Pétrole vs Cuivre : une curieuse divergence

    Alors que le pétrole a rebondi de près de 4$ cette semaine, le cuivre s’est enfoncé sous les 8200$ la tonne, touchant son plus bas niveau depuis mi-novembre.


    Par Alexandre Baradez
    le 12 février 2024 à 8h30


    Le prix du cuivre a baissé de 6 % en un an.

    Le rebond du pétrole cette semaine s’est fait en parallèle du rallye qui se poursuit sur les marchés actions en Europe et aux Etats-Unis donc on pourrait considérer que l’or noir bénéficie du « risk on », c’est-à-dire de l’appétit pour le risque sur fond de très bonne tenue de l’économie américaine notamment.

    Un autre raisonnement serait de dire que le pétrole rebondit en raison des tensions toujours présentes en mer Rouge qui obligent certains tankers à contourner la zone. Mais dans ce cas de figure, si le pétrole grimpe en raison d’un risque perçu sur la logistique, les marchés actions devraient alors tenir compte, au moins partiellement, de ce risque or ce n’est pas le cas.

    Face à ce rallye hebdomadaire sur le pétrole et les actions, le cuivre lui chute depuis plusieurs jours sans parvenir à se stabiliser. La tonne est passée de 8700$ fin janvier à 8170$ aujourd’hui soit près de 6% de baisse.

    Et quand on parle du cuivre, on fait forcément le rapprochement avec la situation économique en Chine. Est-ce que cette chute du cuivre est un avertissement supplémentaire sur la demande chinoise ? Et donc si le cuivre s’inquiète de la situation en Chine, pourquoi le pétrole rebondit dans le même intervalle de temps et pourquoi les marchés actions continuent de fleurter avec les records en Europe (CAC40 et DAX) et inscrivent de nouveaux records aux Etats-Unis ?

    Difficile de dire si c’est le cuivre qui envoie un « faux signal » ou si c’est le pétrole et les marchés actions qui sont trop en avance…mais cette divergence entre deux matières premières de premier rang interpelle.

    https://www.economiematin.fr/petrole-cuivre-bourse-tendance-valeur-baradez?utm_source=dlvr.it&utm_medium=facebook

    RépondreSupprimer
  23. Automobile : voici la ceinture de sécurité du futur

    L’innovation n’a pas de frontière et ne cesse de se développer, y compris dans le secteur automobile. Parmi les avancées les plus prometteuses figure la ceinture de sécurité intelligente développée par l’équipementier allemand ZF. Prévue pour être intégrée dans les voitures d’ici à 2030, cette technologie pourrait grandement améliorer la protection des occupants en cas d’accident.


    Par Axelle Ker
    le 12 février 2024 à 15h41


    Une ceinture de sécurité dopée d'intelligence artificielle

    La ceinture de sécurité intelligente de ZF n'est pas une simple sangle qui se resserre en cas de choc. Imaginez que vous êtes sur la route, et que chaque passager de votre véhicule, qu'il s'agisse d'un adulte, d'un enfant, ou d'une personne âgée, bénéficie d'une protection optimisée en fonction de ses besoins spécifiques. C'est exactement ce que propose la technologie de ZF qui est une première mondiale. En cas d'accident, la ceinture sait si elle doit se serrer plus ou moins fort, ce qui peut éviter les blessures causées par une retenue inappropriée.

    Cette ceinture est l'incarnation même de toutes les possibilités qui s'ouvre avec l'arrivée de l'intelligence artificielle et de la manière dont elle peut s'appliquer dans le monde de l'automobile. Grâce à un système de limiteur d'effort adaptatif multi-niveaux (MSLL), cette ceinture est capable d'ajuster la force de retenue en fonction du gabarit du passager, de sa position dans le véhicule, et même de la nature de l'impact.

    Une précision hors pair

    Pour parvenir à un tel niveau de précision, la ceinture de sécurité intelligente s'appuie sur un arsenal technologique. Des capteurs et des caméras disséminés dans la voiture collectent en temps réel des données sur les occupants et les conditions de conduite. Cette surveillance constante permet au système de prédire les collisions imminentes et d'ajuster la tension de la ceinture en conséquence, ce qui permet d'assurer une protection maximale au passager avant même que l'impact ne se produise.

    RépondreSupprimer
  24. Et ce n'est pas tout. Le système ACR8, un rétracteur actif de ceinture, prend le relais en repositionnant activement les occupants dans une posture idéale avant une collision. Ce repositionnement préventif maximise l'efficacité de la ceinture et de l'airbag, ce qui réduit considérablement le risque de blessures graves. Et si le véhicule détecte une situation de conduite critique (perte de connaissance, endormissement du conducteur, situation accidentogène, etc) le système vibre afin d'alerter le conducteur. L'innovation proposée par l'équipementier allemand ZF ne se cantonne pas à la sécurité ; elle cherche aussi à enrichir l'expérience de conduite dans son ensemble, grâce à l'intelligence artificielle qui semble bien repousser les limites du possible.

    https://www.economiematin.fr/automobile-ceinture-securite-zf-accident-ia?utm_source=dlvr.it&utm_medium=facebook

    RépondreSupprimer
  25. Intelligence artificielle : le créateur de ChatGPT a besoin de 7.000 milliards de dollars !

    Sam Altman, le patron d’OpenAI, a besoin d’argent de beaucoup d’argent ! Celui qui a permis l’éclosion de ChatGPT recherche 7.000 milliards de dollars, soit plus du double du PIB de la France, pour redéfinir les contours de l’industrie mondiale des semi-conducteurs. Rien de moins !


    Par Aurélien Delacroix
    le 12 février 2024 à 14h30


    7.000 milliards de dollars, cela représente 7% du PIB mondial.

    Au cœur de cette ambition révélée par le Wall Street Journal, une problématique cruciale : la pénurie de puces informatiques. Ces dernières, indispensables au bon fonctionnement des grands modèles de langage à l'origine de ChatGPT, deviennent de plus en plus coûteuses et rares. Le secteur de l'intelligence artificielle générative, en pleine expansion, se heurte ainsi à des obstacles majeurs, poussant Sam Altman à envisager la construction de dizaines d'usines de fabrication de puces à travers le monde.

    Des investisseurs de renom pour remodeler l'industrie des semi-conducteurs

    Parmi ces collaborateurs potentiels figurent des acteurs majeurs sur la scène internationale, comme le gouvernement des Émirats Arabes Unis, illustrant ainsi l'intérêt marqué des investisseurs du Moyen-Orient pour les technologies de pointe et leur potentiel de transformation économique. À cette alliance stratégique s'ajoutent des discussions avec le groupe japonais SoftBank, connu pour ses investissements massifs dans les technologies émergentes, ainsi que Taiwan Semiconductor Manufacturing Company (TSMC), le géant taïwanais à la pointe de la fabrication de semi-conducteurs.

    Ce projet, au-delà de répondre aux besoins immédiats en semi-conducteurs, pourrait bien redéfinir les standards de production et d'approvisionnement à l'échelle globale. L'initiative d'Altman ne se limite pas à une simple augmentation de la capacité de production. Elle s'inscrit dans une vision plus large pour démocratiser l'accès aux technologies de pointe et à renforcer la résilience des chaînes d'approvisionnement mondiales.

    Pousser à fond sur l'intelligence artificielle

    En associant les capacités d'OpenAI dans le domaine de l'intelligence artificielle à l'expertise de fonderies de semi-conducteurs, ce projet pourrait bien accélérer la transition vers une économie numérique plus durable.

    Toutefois, l'aboutissement de ce projet reste soumis à de nombreux facteurs, notamment la complexité des négociations avec des investisseurs de premier plan et les implications géopolitiques inhérentes au marché des semi-conducteurs. La réussite de cette entreprise nécessitera une collaboration étroite entre les acteurs technologiques, les investisseurs et les gouvernements, soulignant ainsi l'importance de maintenir un dialogue ouvert et constructif à tous les niveaux.

    RépondreSupprimer
  26. Avec ce budget pharaonique de 7.000 milliards de dollars, il y a de quoi remodeler en profondeur une bonne partie de l'économie mondiale. D'ailleurs, le projet de Sam Altman représente bien plus qu'une simple initiative économique; il s'agit d'une véritable aspiration à transformer l'industrie technologique mondiale. Reste à voir si le patron d'OpenAI réussira son pari.

    https://www.economiematin.fr/intelligence-artificielle-chatgpt-7000-milliards?utm_source=dlvr.it&utm_medium=facebook

    RépondreSupprimer
    Réponses
    1. LIA s'est dite éJe parie qu'il y a des cons sur Terre ! Profitons-en pour leur demander de nous envoyer leur pognon !" HAHAHAHA !

      C'est çà LIA ! LE programme malfaisant qui vous pourrira la vie !

      Supprimer
  27. Écophyto : press delete !


    13 Février 2024
    André Heitz*


    Il est grand temps de supprimer l'objectif de réduire de 50% l'usage des pesticides, un élément absurde du (des) plan(s) Écophyto.

    Une annonce piètrement expliquée, source de récriminations

    Le jeudi 1er février 2024, le Premier Ministre Gabriel Attal a annoncé la « mise en pause » (ou « à l'arrêt » selon certains médias) du plan Écophyto. Raison : « le temps de mettre en place un nouvel indicateur et de reparler des zonages » selon la France Agricole.

    « Nous souhaitons que ce travail aboutisse d’ici au Salon de l’Agriculture », a précisé le Premier Ministre. Mais il n'est pas très sérieux de prétendre trouver en trois semaines un nouvel indicateur pour l'élément emblématique d'Écophyto, devenu un totem, qu'est la réduction de 50 % de l'usage des pesticides. Un indicateur qui fasse l'affaire et qui recueille sinon l'assentiment, du moins le minimum de critiques, de « parties prenantes » aux objectifs et intérêts disparates.

    Prétendre... ou même s'engager à le faire selon les ministres directement concernés qui, à défaut de faire de la pédagogie, se sont employés à éteindre les incendies... en rajoutant du combustible ! Ainsi, selon le ministre de l'Agriculture (et de la Souveraineté Alimentaire) Marc Fesneau, « Nous allons donc remettre sur l’ouvrage le plan Ecophyto, le mettre en pause le temps d’en retravailler un certain nombre d’aspects, de le simplifier ».

    Des cris d'orfraie, il y en eut ! Pas dans les campagnes, la profession agricole ayant été aussi pauvre dans sa communication que le gouvernement, pour ne pas dire quasiment silencieuse ; sauf du côté de la Confédération Paysanne, qui est depuis longtemps enrôlée dans la contestation altermondialiste, etc. Mais dans les milieux urbains, où les pesticides jouissent, si on peut dire, d'une sinistre réputation. En réponse, le ministre de la Transition Écologique Christophe Béchu a tenté de faire la calinothérapie.

    C'est à qui décroche le pompon des outrances entre certaines mouvances politiques, des entités incorporées sous forme d'associations (certaines financées par des milieux économiques ayant intérêt à voir les pesticides vilipendés) et les médias qui peinent à restreindre l'empiètement du militantisme sur l'information.

    C'est dans une chronique d'un journal influent, donc l'expression d'une opinion : « Le réarmement chimique de l'agriculture ». Selon un article du même auteur, « la suspension du plan » est qualifiée par « les ONG environnementales » de « recul historique » et de « signal désastreux ». C'est, certes, de l'information sous la forme de propos rapportés et mis en exergue, mais cela aurait bien mérité une mise en perspective. Notons que « suspension » n'a pas le même sens que « pause » et qu'un l'article défini implique que toutes les ONG sont vent debout.

    RépondreSupprimer
  28. Une longue marche vers nulle part

    - voir graph sur site -

    Écophyto, plus précisément Écophyto 2018, est un des produits du Grenelle de l'Environnement (septembre-décembre 2007, le prix ou pizzo qu'a payé M. Nicolas Sarkozy pour s'attirer la bienveillance des milieux écologistes, et plus particulièrement de l'alors influentNicolas Hulot, lors de la présidentielle.

    L'ambition affichée et validée en Conseil des Ministres avait été de réduire de 50 % la fréquence de traitement avec des pesticides en 10 ans, un ministre de l'Agriculture alors clairvoyant , M. Bruno Le Maire, ayant fait ajouter : « si possible ». Il était aussi prévu de retirer du marché les substances les plus préoccupantes. [Ajout du 13 février 2024 : on m'a dit que c'était M. Xavier Beulin.]

    Le deuxième objectif était plus facile à atteindre : il relève en grande partie de décisions administratives. Les impressionnants résultats restent largement méconnus, et pour cause : admettre un succès pour les lobbies anti-pesticides, c'est se priver d'un élément de durabilité du fond de commerce, le plus anxiogène !

    - voir graph sur site -

    En moyenne triennale – plus fidèle à la réalité, les ventes de pesticides étant en grande partie tributaires des conditions agro-météorologiques – les ventes de produits « honnis » ont baissé de 9,1 % en 2018-2020 par rapport à 2009-2011, premier triennal du plan Écophyto. Mais les ventes de produits utilisables en agriculture biologique et les produits de biocontrôle ont bondi : + 93 % ; certaines substances, comme le cuivre, le soufre, l'huile de neem (l'azadirachtine) et le spinosad, ne sont pourtant pas dénués d'effets sur la santé et l'environnement. Mais ils sont, dit-on, NA-TU-RELS et pas de synthèse.

    - voir graph sur site -

    Pour les substances classées – sur la base du danger et non des risques – cancérigènes, mutagènes ou reprotoxiques avérées (CMR1) ou suspectées (CMR2), il y a du flou dans les statistiques du ministère de l'Agriculture. Pour les CMR2, on peut estimer la baisse à quelque 50 % sur la période considérée. Pour les CMR1, c'est plus compliqué (il y a eu des achats anticipés en 2018 pour échapper à l'augmentation de la redevance pour pollutions diffuses).

    L'échéance approchant, sans le résultat espéré, un plan Écophyto 2 est publié le 26 octobre 2015 par un courageux ministre de l'Agriculture.

    RépondreSupprimer
  29. L'échéance du -50 % est reportée à 2025. Il y avait une étape intermédiaire à -25 % en 2020 qui devait reposer « sur la généralisation et l’optimisation des systèmes de production économes et performants actuellement disponibles ».

    Ce ministre, c'est M. Stéphane Le Foll, grand chantre de l'« agro-écologie » dont on attend toujours une définition précise et opérationnelle, au-delà des incantations selon lesquelles ce système est agronomiquement merveilleux, économiquement extraordinaire, environnementalement formidable et socialement miraculeux.

    Pour l'indicateur, le document précité anticipe sur la propension macronienne au « en même temps » : d'une part, « Les indicateurs de suivi développés dans le précédent plan Ecophyto sont conservés » (nombre de doses-unité (NODU), quantités de substances actives (QSA), indicateur de fréquence de traitements (IFT)) ; mais d'autre part : « À l’occasion de la consultation du public, il est apparu nécessaire d’améliorer le suivi des effets des produits phytosanitaires. Le Gouvernement proposera un nouvel indicateur qui prend en compte les quantités de substances actives vendues pondérées par leurs effets évalués sur la santé humaine et l’environnement. En concertation avec les parties prenantes, l’indicateur de référence sera le NODU ou le nouvel indicateur. »

    Ce sera le NODU.

    Écophyto 2 (ou II) devint Écophyto 2+ (ou II+) en novembre 2018 en intégrant un plan d’actions du 25 avril 2018 sur « les produits phytopharmaceutiques et une agriculture moins dépendante aux pesticides » et un « plan de sortie du glyphosate » du 22 juin 2018. L'évolution s'est faite, M. Stéphane Travert étant ministre de l'Agriculture et de l'Alimentation. Et le nouveau plan a été officialisé lors des premiers jours de M. Didier Guillaume, qui nous aura laissé comme souvenir indélébile la promotion de l'agriculture « biodynamique », liée à l'anthroposophie.

    Ce « plan de sortie » est la réponse à un tweet maintenant célèbre du président Emmanuel Macron de novembre 2017, une réaction au mieux malencontreuse et en fait irresponsable à la décision de l'Union Européenne de renouveler l'autorisation du glyphosate pour cinq ans.

    Hélas, trois fois hélas, ce qui devait arriver n'arrivait toujours pas... Et, dans le cadre du Green Deal, du Pacte Vert, l'Union Européenne s'était engagée en 2021 dans un ambitieux projet qui devait rendre la réduction de l'usage des pesticides contraignante pour les États membres, le règlement sur l'utilisation durable des pesticides (son nom officiel est plus compliqué).

    Écophyto a donc été remis sur le tapis en 2023. C'est maintenant Écophyto 2030.

    L'ambition initiale a été de coordonner l’action de la France avec celle de l’Union Européenne. Il n'était donc pas prévu de fixer des objectifs nationaux de réduction. Cela fit bien sûr des mécontents...

    RépondreSupprimer
  30. Voici les propos tenus par le président Emmanuel Macron au Salon de l'Agriculture de l'année dernière : « Pourquoi demander à nos agriculteurs des efforts que les voisins n’ont pas à faire ? On a eu récemment des décisions qui sont un peu tombées trop brutalement, on a mis des agriculteurs face à des oukases, sans solution. »

    Mais le règlement européen a été rejeté par le Parlement dans un sursaut de réalisme et de pragmatisme... et, pour autant que nous ayons bien compris, l'objectif de réduction a été maintenu dans Écophyto, mais pour 2030, avec toujours le NODU comme indicateur.

    La querelle des indicateurs

    Le NODU (nombre de doses unités) est le rapport entre les quantités de pesticides vendues et les surfaces traitées, aux doses maximales homologuées. Selon Terre-Net, « la France est passée d'un Nodu de 82 en 2009 à 120,3 en 2018 avant de revenir à 85,7 en 2021 ».

    Mais le NODU ne tient pas compte de la dangerosité des substances et ne reflète pas l'évolution des pratiques relativement à la santé et l'environnement. M. Marc Fesneau a déclaré le 4 février 2024 sur le plateau de LCI dans « L’invité du dimanche » : « Quand vous avez une molécule très toxique avec laquelle vous faites un seul passage, que vous la remplacez par une molécule qui ne pose pas de problèmes environnementaux ou de cancérogénicité, votre indicateur [le Nodu] se dégrade. Pourquoi ? Parce que vous faites deux passages ou trois passages. »

    - voir cadre sur site -

    M. Éric Thirouin, président de l'Association Générale des Producteurs de Blé (AGPB) avait dit à peu près la même chose en conférence de presse le 17 janvier 2024 en l'assortissant d'un commentaire cinglant : « C'est une machine à baffes pondue par les ONG, acceptée par les politiques et qui nous mène dans une impasse. »

    La France Agricole s'est interrogée le 5 février 2024 sur les intentions du gouvernement. Pencherait-il pour le HRI-1 (indicateurs de risque harmonisés-1) européen, qui estime le risque associé aux produits phytosanitaires vendus grâce à un système de pondération ?

    Ce système est très rudimentaire, contrairement à celui développé par l'Université Cornell, l'Environmental Impact Quotient (EIQ), mais celui-ci est aussi discuté.

    RépondreSupprimer
  31. Problème : selon la Commission Européenne, les risques auraient été réduits de 38 % entre la moyenne de 2011-2013 et 2021. Et pour Générations Futures, le HRI-1 « fournit des évaluations absurdement incorrectes ». En bref, un indicateur qui constate une amélioration des pratiques dont on ne peut pas revendiquer la paternité ne saurait être acceptable. De plus, il maltraite certains produits utilisés en agriculture biologique (mais on peut tout à fait être sensible à ses arguments, qui proviennent en fait de la succursale autrichienne des Amis de la Terre).

    Quel dilemme pour une présidence qui a fait du « en même temps » le fleuron de son action (ou de son inaction)...

    Une pause opportune qui tient de l'annonce et de la gestion d'une crise

    Une commission d'enquête parlementaire sur « Les causes de l’incapacité de la France à atteindre les objectifs des plans successifs de maîtrise des impacts des produits phytosanitaires sur la santé humaine et environnementale » a rendu son rapport le 21 décembre 2023.

    Elle a notamment recommandé d'« améliorer la pertinence et la réactivité des indicateurs de mesure des usages de produits phytopharmaceutiques » et de « soutenir l’adoption d’un indicateur européen de mesure des utilisations de produits phytopharmaceutiques qui soit pondéré par le risque ».

    La mise en « pause » du plan Écophyto 2030 s'analyse dès lors comme une décision logique et rationnelle dont la médiatisation relève de la gestion de la crise sociale agricole. Mais répondre aux préoccupations des agriculteurs revenait à soulever des protestations dans l'autre « camp » qui, tout bien considéré, relèvent de la gesticulation.

    Ainsi, le député socialiste Dominique Potier, pourtant rapporteur de la commission d'enquête, déclara-t-il le 4 février 2024 que « sur les pesticides, une contre-révolution culturelle est en cours ».

    Six semaines auparavant il opinait pourtant, à juste titre, que le plan Écophyto est « comme une voiture sans pilote et sans tableau de bord, qui circule sur une route sans radar et dont les passagers passent leur temps à discuter pour savoir si la destination est pertinente ».

    RépondreSupprimer
  32. Génétique, robotique, numérique

    Selon une légende, le roi Knut le Grand s'est fait transporter un jour au bord de la mer et aurait ordonné à la marée de refluer. C'était pour montrer qu'il n'avait pas ce pouvoir (et non l'inverse comme on le croit souvent).

    En France, nous avons des présidents, des ministres et des administrateurs qui pensent qu'ils peuvent ordonner aux produits phytosanitaires de refluer par des « plans » décennaux qui partagent le même sort que les plans quinquennaux d'un régime qui s'est effondré. Nous en sommes à la quatrième itération !

    Selon Albert Einstein, « La folie, c'est de faire tout le temps la même chose et de s'attendre à un résultat différent ! »

    Il est pourtant clair que la production agricole ne se conçoit raisonnablement qu'avec une protection des plantes assurant (pas toujours, Dame Nature n'est pas bonne...) rendement et qualité des produits ainsi que – c'est contre-intuitif – protection de l'environnement.

    Le recours aux produits de protection des plantes, qu'ils soient utilisés en agriculture conventionnelle ou biologique, se réduira progressivement avec ce que M. Julien Denormandie, ministre de l'Agriculture et de l'Alimentation, fort estimé et regretté, du 6 juillet 2020 au 20 mai 2022, a appelé « troisième révolution agricole » avec un tryptique : « le numérique, la robotique et la génétique ».

    En bref, le numérique affine nos connaissances, par exemple sur l'étiologie des maladies et permet un emploi de plus en plus judicieux des moyens de lutte. Mettons ici les données satellitaires permettant de fermer des portions de rampes de pulvérisateurs et d'éviter les double-doses.

    La robotique est illustrée par des robots désherbeurs appliquant ponctuellement l'herbicide sur la mauvaise herbe ou utilisant par exemple des rayons laser. Ou encore des drones programmés pour ne pulvériser le produit que là où il faut. Ah oui ! Dans sa sagesse (ironie), nos législateurs ont interdit les traitements aériens...

    La génétique est le champ de promesses le plus vaste avec l'augmentation de la précision et l'accélération des méthodes de sélection « classiques » grâce à la génomique ; avec les nouvelles techniques génomiques ou ciseaux moléculaires (pour autant qu'elles soient acceptées de manière pragmatique dans le cadre d'une procédure en cours au niveau européen) ; avec de nouveaux outils comme les ARN interférents assez similaires dans leur principe au vaccin contre la Covid (pour autant que...).

    Les buttes vides correspondent à des variétés de pommes de terre conventionnelles qui n'ont pas résisté au mildiou (Source)

    RépondreSupprimer
  33. Et c'est sans oublier la recherche tout à fait classique de nouveaux produits de synthèse à la fois plus efficaces pour l'objectif de protection des plantes poursuivi et meilleurs du point de vue de la santé et de l'environnement. Cela suppose, bien sûr, que l'on mette fin, ou au moins un bémol, à l'hystérie anti-pesticides. Il en serait de même pour les OGM issus de la transgenèse.

    Un impératif se dessine ici : faire confiance aux acteurs économiques de la filière agricole, et donc alimentaire, aux agriculteurs et à ceux qui leurs fournissent les intrants ou facteurs de production.

    Les objectifs de réduction de 50 % font partie de l'hystérie et des chimères bureaucratiques. De plus, c'est pain bénit pour les contestataires de notre société qui pourront sans doute les exploiter avec succès dans le cadre de procédures judiciaires en carence de l'État. « C'est une machine à baffes... »

    La réponse pragmatique et rationnelle à ces chimères : press « delete » !

    Ajout du 13 février 2024 à 14 heures

    On lira aussi avec grand intérêt "Pause Ecophyto : loin d’une régression environnementale, une révision nécessaire", de Mme Alessandra Kirsch.

    - voir clip sur site :

    https://seppi.over-blog.com/2024/02/ecophyto-press-delete.html

    RépondreSupprimer
  34. Pour la première fois, des scientifiques modifient le microbiome des plantes pour protéger les cultures contre les maladies


    13 Février 2024
    Southampton University*


    Pour la première fois, des scientifiques ont modifié le microbiome des plantes, augmentant ainsi la prévalence des « bonnes » bactéries qui protègent les plantes contre les maladies.

    Les résultats publiés dans Nature Communications par des chercheurs de l'Université de Southampton, de Chine et d'Autriche pourraient réduire considérablement la nécessité d'utiliser des pesticides destructeurs pour l'environnement.

    Le public est de plus en plus conscient de l'importance de notre microbiome, c'est-à-dire de la myriade de micro-organismes qui vivent à l'intérieur et autour de notre corps, et plus particulièrement dans nos intestins. Nos microbiomes intestinaux influencent notre métabolisme, notre probabilité de tomber malade, notre système immunitaire et même notre humeur.

    Les plantes abritent elles aussi une grande variété de bactéries, de champignons, de virus et d'autres micro-organismes qui vivent dans leurs racines, leurs tiges et leurs feuilles. Au cours de la dernière décennie, les scientifiques ont mené des recherches intensives sur les microbiomes végétaux afin de comprendre comment ils affectent la santé d'une plante et sa vulnérabilité aux maladies.

    « Pour la première fois, nous avons pu modifier la composition du microbiome d'une plante de manière ciblée, en augmentant le nombre de bactéries bénéfiques qui peuvent protéger la plante contre d'autres bactéries nocives », explique le Dr Tomislav Cernava, coauteur de l'article et professeur associé en interactions plantes-microbes à l'Université de Southampton.

    « Cette avancée pourrait réduire la dépendance à l'égard des pesticides, qui sont nocifs pour l'environnement. Nous y sommes parvenus dans des cultures de riz, mais le cadre que nous avons créé pourrait être appliqué à d'autres plantes et ouvrir d'autres possibilités d'amélioration de leur microbiome. Par exemple, les microbes qui augmentent l'apport de nutriments aux cultures pourraient réduire le besoin d'engrais de synthèse. »

    L'équipe de recherche internationale a découvert qu'un gène spécifique du groupe de biosynthèse de la lignine de la plante de riz est impliqué dans la formation de son microbiome. La lignine est un polymère complexe présent dans les parois cellulaires des plantes – la biomasse de certaines espèces végétales est constituée de plus de 30 % de lignine.

    RépondreSupprimer
  35. Les chercheurs ont d'abord observé que la désactivation de ce gène entraînait une diminution de la population de certaines bactéries bénéfiques, ce qui confirme son importance dans la composition de la communauté microbiologique.

    Les chercheurs ont ensuite procédé à l'inverse, en surexprimant le gène de manière à ce qu'il produise davantage d'un type spécifique de métabolite – une petite molécule produite par la plante hôte au cours de ses processus métaboliques. Cela a permis d'augmenter la proportion de bactéries bénéfiques dans le microbiome de la plante.

    Lorsque ces plantes modifiées ont été exposées à Xanthomonas oryzae, un agent pathogène responsable du flétrissement bactérien dans les cultures de riz, elles ont été nettement plus résistantes que le riz de type sauvage.

    Le flétrissement bactérien est courant en Asie et peut entraîner une diminution substantielle des rendements du riz. La lutte contre cette maladie passe généralement par le déploiement de pesticides polluants. La production d'une culture dotée d'un microbiome protecteur pourrait donc contribuer à renforcer la sécurité alimentaire et à préserver l'environnement.

    L'équipe de recherche étudie à présent comment elle peut influencer la présence d'autres microbes bénéfiques afin d'obtenir divers avantages pour la santé des plantes.

    Microbiome homeostasis on rice leaves is regulated by a precursor molecule of lignin biosynthesis (l'homéostasie du microbiome sur les feuilles de riz est régulée par une molécule précurseur de la biosynthèse de la lignine) est publié dans Nature Communications et est disponible en ligne.
    ___________

    RépondreSupprimer
  36. * Source : Scientists Engineer Plant Microbiome For The First Time To Protect Crops Against Disease | University of Southampton

    Ma note : Je suis toujours surpris de voir des assertions comme : « ... les microbes qui augmentent l'apport de nutriments aux cultures pourraient réduire le besoin d'engrais de synthèse ». Sauf s'il s'agit de fixateurs d'azote, les microbes ne font que mobiliser les nutriments existants, lesquels doivent être réapprovisionnés en fonction des exportations.

    Et « des pesticides destructeurs pour l'environnement »... les communicants ne font pas dans la sobriété !

    Et, enfin, ce communiqué ne précise pas qu'on entreprendra des recherches pour vérifier que cette percée scientifique représente aussi une percée agronomique en conditions réelles – c'est-à-dire si les plantes transformées sont suffisamment protégées pour qu'on puisse se passer d'antibiotiques.

    https://seppi.over-blog.com/2024/02/pour-la-premiere-fois-des-scientifiques-modifient-le-microbiome-des-plantes-pour-proteger-les-cultures-contre-les-maladies.html

    RépondreSupprimer
  37. Toujours de nouvelles études qui innocentent le gaz carbonique. les coupables sont bien naturels; le soleil, le manque de nuages, Nino et Nina


    le 12 février 2024
    par pgibertie


    Les données satellitaires dressent un tableau clair : le réchauffement des 43 dernières années a été causé par une AUGMENTATION d’environ 3 W m-2 du rayonnement solaire absorbé par la Terre en raison d’une diminution de l’albédo des nuages,…Il n’est pas dû uniquement à l’activité humaine ni au gaz carbonique. anthropique qui représente moins de 0,01 % de la composition de l’air et a donc un effet de serre limité.

    - voir graph sur site -

    Oui, nous avons connu un réchauffement important de 0,83 °C au cours des 43 dernières années, tout cela dû à une absorption accrue de la lumière solaire par la Terre causée par une diminution de l’albédo des nuages, probablement due à des forces externes telles que les rayons cosmiques galactiques et le vent solaire. Les données ne montrent AUCUN signe de réchauffement induit par le gaz carbonique !

    Data sources for the graphs: -HadCRUT5: https://metoffice.gov.uk/hadobs/hadcrut5/data/HadCRUT.5.0.2.0/download.html… -BEST: …https://berkeley-earth-temperature.s3.us-west-1.amazonaws.com/Global/Land_and_Ocean_complete.txt… -NOAA NCEI: https://ncei.noaa.gov/access/monitoring/climate-at-a-glance/global/time-series… -NASA GISS: https://data.giss.nasa.gov/gistemp/tabledata_v4/GLB.Ts+dSST.txt… -RSS: https://data.remss.com/msu/monthly_time_series/RSS_Monthly_MSU_AMSU_Channel_TLT_Anomalies_Land_and_Ocean_v04_0.txt… -NOAA STAR: https://star.nesdis.noaa.gov/pub/smcd/emb/mscat/data/MSU_AMSU_v5.0/Monthly_Atmospheric_Layer_Mean_Temperature/… -CERES 4.2: https://ceres-tool.larc.nasa.gov/ord-tool/jsp/EBAFTOA42Selection.jsp

    - voir graph sur site -

    https://www.nature.com/articles/s41558-023-01801-6

    …Alors qu’ils pensaient que les Nino (phase chaude) deviendraient prédominants dans un monde » qui se réchauffe ». Encore une erreur. Les anomalies de températures de ces dernières années sont dues aussi à ces phases Nino-Nina qui se rapprochent

    Cinq des six événements La Niña depuis 1998 ont duré de deux à trois ans. On ignore pourquoi tant d’événements La Niña de longue durée et pluriannuels sont apparus récemment et s’ils deviendront plus fréquents. Nous montrons ici que dix événements La Niña pluriannuels au cours du siècle dernier ont eu une tendance accélérée, huit d’entre eux se sont produits après 1970. Les deux types d’événements La Niña pluriannuels au cours de cette période ont suivi soit un super El Niño, soit un El Niño du Pacifique central. Nous constatons que les événements La Niña pluriannuels diffèrent des événements. La Niña sur une seule année par un taux d’apparition important, qui est enraciné dans la rétroaction advective zonale renforcée par le réchauffement du Pacifique occidental pour le type d’événements La Niña pluriannuels du Pacifique central et dans la rétroaction de la thermocline pour le super El Niño. type d’événements pluriannuels de La Niña. Les résultats des simulations climatiques à grande échelle confortent le lien observé entre les événements pluriannuels de La Niña et le réchauffement du Pacifique occidental. La multiplication des épisodes La Niña sur plusieurs années exacerbera les impacts socio-économiques négatifs si le Pacifique occidental continue de se réchauffer par rapport au Pacifique central.

    - voir graph sur site -

    https://pgibertie.com/2024/02/12/toujours-de-nouvelles-etudes-qui-innocentent-le-co2-les-coupables-sont-bien-naturels-le-soleil-le-manque-de-nuages-nino-et-nina/

    RépondreSupprimer
  38. Stratégie française pour l’énergie et le climat : une fuite en avant vers la décroissance

    Cette analyse démontre que la stratégie proposée pour décarboner l’économie risque de déstabiliser des pans entiers de notre industrie.


    le 13 février 2024
    François Henimann


    La nécessité de décarboner à terme notre économie, qui dépend encore à 58 % des énergies fossiles pour sa consommation d’énergie, est incontestable, pour participer à la lutte contre le réchauffement climatique, et pour des raisons géopolitiques et de souveraineté liées à notre dépendance aux importations de pétrole et de gaz, la consommation de charbon étant devenue marginale en France.

    Cependant, la voie à emprunter doit être pragmatique et ne doit pas mettre en danger la politique de réindustrialisation de la France, qui suppose une croissance durable avec un accès à un approvisionnement énergétique abondant, à un prix accessible, et résilient aux aléas de toutes natures (sécurité d’approvisionnement).

    Cette politique ne doit donc pas être guidée par une « urgence climatique » qui conduirait à se fixer des objectifs excessifs et irréalistes en terme de rythme de réduction de la consommation d’énergie, de décarbonation (le tout véhicules électriques avec interdiction des véhicules thermiques dès 2035, la suppression des chaudières à gaz…), et de développement à marche forcée des ENR, au risque de surcoûts non supportables par notre économie et le corps social, et de passage d’une dépendance aux importations de combustibles fossiles à une dépendance à l’achat de matériaux et d’équipements (batteries, panneaux solaires, éoliennes, électrolyseurs…) provenant d’Asie, et de Chine en particulier. Cela sans bénéfice climatique significatif pour la planète, car les produits fabriqués en Asie le sont avec une énergie largement dominée par le charbon …

    Cette note démontre que la stratégie proposée (SFEC) n’échappe pas à ce risque, en se situant dans la perspective du « fit for 55 » européen, approuvé sous présidence française de l’UE, et qui s’apparente à une dangereuse fuite en avant, risquant de déstabiliser des pans entiers de l’industrie européenne.

    La décarbonation des énergies, à l’échelle de la France, qui permet de remplacer des énergies fossiles importées par des énergies décarbonées produites en France, a un effet vertueux sur l’emploi, le PIB et la balance commerciale du pays (aux équipements importés près, comme les panneaux photovoltaïques) : c’est le cas du parc nucléaire et du parc hydraulique construits au siècle dernier, ainsi que pour les ENR électriques et les ENR thermiques développées depuis une quinzaine d’années.

    RépondreSupprimer
  39. C’est pour cela que fermer une centrale nucléaire comme Fessenheim a constitué une faute lourde, au détriment de la diminution des émissions de gaz carbonique, et de la santé de l’économie française (11 TWh de perte annuelle de production, soit 660 millions d’euros à 60 euros/MWh).

    À l’exception de l’éradication du charbon, la décarbonation de la production d’électricité n’est pas un sujet en France, les parcs de production nucléaire et renouvelable (hydraulique, éolien, solaire et biomasse) représentant plus de 93 % de la production.

    En termes de méthode, la préparation de cette stratégie s’est certes appuyée sur un travail de concertation avec des groupes de travail transpartisans et de participation citoyenne, mais il est regrettable que le rapport de la Commission d’enquête parlementaire du printemps 2023 sur la perte de souveraineté énergétique de la France n’ait pas été pris en compte, ce qui constitue un déficit de démocratie parlementaire incompréhensible.

    Un objectif de réduction de la consommation d’énergie incompatible avec une réindustrialisation de la France

    La stratégie proposée retient pour objectif une réduction de la consommation d’énergie finale à 1209 TWh en 2030 et à 900 TWh en 2050, alors que cette consommation était en 2021 de 1611 TWh (en lente diminution depuis le niveau de 2012 de 1661 TWh) :

    - voir graph sur site -

    Les efforts d’amélioration de l’efficacité énergétique conduits depuis près de 30 ans dans tous les secteurs de l’économie (bâtiments, transports, industrie), en intégrant la diminution de 3,1 % de la consommation en 2022 (augmentation des prix, plan de sobriété), ont permis de découpler croissance économique et consommation d’énergie, avec une diminution moyenne annuelle de 1,5 % par an de l’intensité énergétique, la consommation finale d’énergie par unité de PIB diminuant à 66 pour une base 100 en 1994 :

    - voir graph sur site -

    RépondreSupprimer
  40. La légère diminution de la consommation d’énergie de 0,3 % par an observée de 2012 à 2019 (en deçà de l’objectif des PPE précédentes) est cohérente avec le taux annuel de croissance moyen du PIB de 1,2% en euros constants, et le taux d’amélioration de l’efficacité énergétique de 1,5 % par an.

    L’objectif fixé pour 2030 (1209 TWh), en forte diminution par rapport à celui de la PPE précédente (1378 TWh), correspond à une diminution annuelle de la consommation d’énergie de 3,7 % par an : c’est une inflexion brutale correspondant à une croissance zéro du PIB, assortie d’une amélioration hypothétique de l’efficacité énergétique de 3,7 % par an, soit un rythme 2,5 fois supérieur au rythme historique.

    Une croissance du PIB de 1,5 % par an, nécessaire dans le cadre d’une réindustrialisation de la France (remonter la part de la production industrielle dans le PIB de 10 % à 20 % en 2050), supposerait, pour atteindre l’objectif, une amélioration de l’efficacité énergétique de 5,3 % par an, qui apparaît totalement hors de portée, même en imposant des mesures de sobriété de façon autoritaire et « punitive » (interdictions d’usage et restrictions fortes des libertés individuelles, …).

    L’objectif de 900 TWh fixé pour 2050, horizon théorique du « Net Zéro Carbone », correspond à une diminution moyenne de la consommation finale d’énergie de 2,1 % par an : si cet objectif est envisageable, c’est au prix d’une croissance nulle, incompatible avec une politique de réindustrialisation de la France, qui suppose une augmentation nette de la consommation énergétique du secteur. Une croissance du PIB de 1,5 % par an supposerait une amélioration de l’efficacité énergétique de 3,6 % par an, qui n’apparaît pas soutenable.

    En effet, les efforts de sobriété auxquels ont consenti les Français en 2022, peuvent sans doute être consolidés dans la durée, mais ne sont pas cumulatifs. Ils constituent en quelque sorte un « fusil à un coup » : une fois que l’on a abaissé la température de chauffage à 18 ou 19 °C, on ne va pas la diminuer à 17 °C, puis de 1° C supplémentaire par an les années suivantes.

    En conclusion, les « objectifs » de réduction de la consommation d’énergie de la SFEC conduisent au mieux à une croissance zéro, et plus probablement à une décroissance de l’économie, comme le démontre la modélisation du graphique suivant :

    - voir graph sur site -

    Pour une croissance du PIB de 1,5 % par an, la quantité d’énergie nécessaire, avec un pilotage des actions d’amélioration de l’efficacité énergétique et le maintien des efforts de sobriété et de lutte contre le gaspillage, peut être estimée dans une fourchette de 1200 à 1350 TWh, sous réserve d’une amélioration de l’efficacité énergétique de 2,1 à 2,5 % par an, soit + 50 % par rapport au rythme historique, ce qui représente un effort considérable.

    RépondreSupprimer
  41. Fonder la stratégie énergétique de la France sur un tel oukase malthusien de réduction drastique de la consommation d’énergie est inconséquent, car de plus, cela fausse la vision de la production d’électricité bas carbone qui sera nécessaire pour décarboner l’économie : à horizon 2050, en retenant un taux d’électrification de l’ordre de 60 à 65 % dans la consommation finale d’énergie (production H2 incluse), la consommation d’électricité est de l’ordre de 560 TWh avec une hypothèse de consommation totale d’énergie de 900 TWh, et de l’ordre de 800 TWh avec la fourchette indiquée ci-dessus.

    La trajectoire de la consommation d’énergie en France ne peut être fondée sur un objectif idéologique et irréaliste fixé a priori, mais être la résultante de la croissance du PIB, et d’une action déterminée dans la durée sur le levier de la diminution de l’intensité énergétique, pilotée avec des objectifs ambitieux mais réalistes par secteur.

    En effet, l’évolution de l’intensité énergétique est différenciée par secteur :

    On constate par exemple que les progrès en efficacité énergétique sont plus rapides dans les secteurs de l’industrie, du logement et, dans une moindre mesure, des véhicules légers, alors que les progrès dans les bâtiments tertiaires et les poids lourds sont plus lents.

    Enfin, il convient de signaler une erreur de méthode contenue dans l’extrait suivant :

    - voir graph sur site -

    Si cette assertion est exacte pour le passage d’un véhicule thermique à un véhicule électrique (consommation de 20 kWh d’électricité stockés dans la batterie pour parcourir 100 km avec un véhicule léger, contre 60 kWh de carburant) – pour autant que l’électricité ne soit pas produite par une centrale à carburant, quand la recharge a lieu pendant les heures de pointe -, elle est manifestement fausse pour le passage d’un chauffage à combustion à une pompe à chaleur :

    À isolation de l’enveloppe du bâtiment et usage identiques, on consomme la même quantité d’énergie finale : avec une pompe à chaleur on substitue en gros 3 kWh de combustion, par 1 kWh d’électricité (consommation de la pompe) et 2 kWh de chaleur renouvelable (ENR Thermique) extraite de l’environnement (air ou eau).

    Les deux leviers de l’efficacité énergétique dans les bâtiments sont les suivants :

    Un comportement des occupants économe en énergie

    RépondreSupprimer
  42. Notamment dans les bâtiments tertiaires où la consommation en dehors des heures d’utilisation (chauffage, éclairage) est excessive : la réduction drastique de ce gaspillage, qui demande peu d’investissements, devrait permettre en quelques années d’économiser plus de 50 TWh, sur une consommation annuelle totale de 260 TWh.

    Isolation thermique et équipements économes en énergie (éclairage LED, électroménager,..)

    Pour les bâtiments neufs, la Réglementation Environnementale RE 2020 (350 000 logements par an) garantit un niveau satisfaisant. Pour les bâtiments existants, la stratégie proposée priorise à juste titre la rénovation d’ampleur des « passoires énergétiques » (logements catégories F et G), mais ne doit pas conduire pour autant à vouloir les amener tous dans les catégories A, B ou C, ce qui conduirait à des dépenses prohibitives (coût de la tonne de gaz carbonique évitée de 400 à 500 euros). À ce titre, la réforme de l’aide principale (MaPrimeRenov) pour 2024 apparaît bien adaptée : gain de deux catégories au minimum, un objectif réaliste pouvant consister à obtenir un bâti a minima de catégorie D. Cependant, il ne faudrait pas décourager les gestes successifs dans un parcours pluri-annuel visant cet objectif, pour ne pas exclure du marché les artisans.

    Pour autant, l’objectif fixé pour 2030 par le décret éco énergie tertiaire de 2019 (réduction de la consommation totale de 40 %) et l’objectif annuel de rénovation globale de 200 000 logements dès 2024 (pour 100 000 actuellement), et jusqu’à 900 000 en 2030 apparaissent peu réalistes, alors que le nombre de logements de catégories F ou G est évalué à environ 5 millions : dans ces conditions, les échéances fixées à 2025 (G) et 2028 (F) d’interdiction de location de ces logements apparaissent difficilement soutenables.

    - voir graph sur site -

    Efficacité énergétique dans les transports : vers l’abandon du plan Fret Français Ferroviaire du Futur élaboré en 2020 ?
    S’agissant du secteur des transports, la stratégie proposée ne retient comme vecteur d’efficacité énergétique que le véhicule électrique à batterie, qui est loin d’être une solution universelle, et est adaptée essentiellement pour les déplacements quotidiens des véhicules légers (moins de 150 km par jour, 75 % des km parcourus), mais pas pour les usages intensifs et les parcours longues distances, ni pour les transports lourds.

    Le principal levier d’efficacité énergétique dans les transports est le remplacement du transport par camions par une combinaison intermodale camions / ferroviaire / fluvial : le transport d’une tonne de marchandise par le train consomme six fois moins d’énergie et émet neuf fois moins de gaz carbonique que par la route.

    RépondreSupprimer
  43. Sur 490 TWh de carburants brûlés dans les transports routiers (dont 450 TWh issus du pétrole), 200 TWh sont consommés dans le transport de marchandises. La situation s’est largement dégradée depuis l’an 2000, la part modale du ferroviaire étant revenue de 18 % à 9 %, alors que la moyenne européenne est à 18 %, avec un objectif de 30 % pour 2030, déjà atteint par la Suisse et l’Autriche.

    Le plan 4F ambitionne de doubler la part modale du ferroviaire d’ici 2030, ce qui permettrait d’économiser 22 TWh de carburants, et 60 TWh à l’horizon 2050, en portant la part modale à 33 %, soit un potentiel de 13 % d’économie sur le total de la consommation de pétrole dans les transports.

    La SNCF a un rôle à jouer, mais parmi d’autres acteurs en concurrence, d’autant que la Commission européenne lui impose de réduire la voilure dans le fret.

    Bien que faisant régulièrement l’objet d’annonces de soutien gouvernemental (en dernier lieu en mai 2023 avec 4 milliards d’euros d’investissement, ce plan prioritaire pour l’efficacité énergétique dans les transports ne figure pas dans la Stratégie énergie climat proposée, ce qui est incompréhensible.

    En ce qui concerne le transport de voyageurs, hors décarbonation par les véhicules électriques, l’amélioration de l’efficience des véhicules thermiques (rajeunissement du parc), ainsi que le report modal vers les transports en commun (trains, tramways et RER métropolitains), le vélo et le covoiturage devraient permettre une économie de l’ordre de 30 TWh de carburants à l’horizon 2050.

    - voir graph sur site -

    Accélération des ENR et renforcement associé des réseaux : des objectifs irréalistes et coûteux
    Le développement des ENR électriques intermittentes est utile et nécessaire pour parvenir à augmenter de plus de 60 % la production d’électricité à l’horizon de la décarbonation de l’économie française, dans la mesure où il est considéré comme un complément de production d’électricité décarbonée d’une base pilotable largement prépondérante (nucléaire et hydraulique), et non comme le moyen principal, comme cela est programmé dans l’Energiewende allemande, et, jusqu’à présent, par la Commission européenne.

    RépondreSupprimer
  44. La SFEC ne s’inscrit pas dans une telle perspective, en s’appuyant essentiellement sur un développement accéléré des ENR électriques, et en second lieu sur une relance limitée du nucléaire, qui en l’état ne permettra pas à l’horizon 2050 le maintien de la capacité de production nucléaire (voir chapitre suivant).

    Enfin, une part de production intermittente prépondérante, avec une puissance installée largement supérieure à celle des centrales utilisant des machines tournantes pour produire de l’électricité (nucléaire, hydraulique, gaz ou biomasse), entraîne un risque élevé d’instabilité des réseaux, car il n’y a plus assez d’inertie dans le système électrique pour donner le temps suffisant pour réajuster la production en cas d’aléa. Ce risque de blackout total ou partiel est de plus aggravé dans le cadre du réseau européen interconnecté, avec notamment un pays comme l’Allemagne qui compte s’appuyer pour l’essentiel sur l’éolien et le solaire pour sa production d’électricité.

    - voir graph sur site -

    L’éolien maritime

    Même en tenant compte de l’augmentation de la puissance unitaire des éoliennes, il est irréaliste de vouloir atteindre 45 GW en 2050, alors que la PPE en vigueur indique, sur la base d’une étude de l’ADEME, que le potentiel de l’éolien posé est de 16 GW, en raison de l’étroitesse du plateau continental le long du littoral Atlantique et de la Manche (il n’y a pas de potentiel en Méditerranée).

    De même, l’objectif de 18 GW en 2035, alors qu’au maximum 3,6 GW seront mis en service en 2030, semble largement surévalué (un appel d’offres de 10 GW est prévu en 2025).

    L’éolien flottant

    La France y est en pointe, mais la technologie est encore au stade expérimental. Elle n’a pas à ce stade prouvé son intérêt économique (le prix est le double de celui de l’éolien posé), d’autant que le coût du raccordement électrique est aussi plus élevé (au-delà de 25 euros/MWh).

    Il paraît prudent de faire une évaluation sur la base d’un retour d’expérience des trois fermes pilote de 30 MW en cours de réalisation en Méditerranée, avant de lancer définitivement les trois projets de 250 MW en cours d’instruction (en Bretagne Sud et en Méditerranée).

    Écrire dans le document que 18 GW d’éolien offshore est l’équivalent de la production de 13 réacteurs nucléaires relève de la désinformation pure et simple du citoyen, pour trois raisons :

    RépondreSupprimer
  45. 18 GW d’éolien flottant peuvent produire 60 TWh par an d’électricité (selon le document 70 TWh avec un taux de charge de 44 %), alors que 18 GW de nucléaire (correspondant à 11 réacteurs EPR2 en puissance installée) ont une capacité de production annuelle de 120 TWh
    La production éolienne ne peut se substituer à la production nucléaire, car elle est intermittente et n’offre aucune puissance garantie lors des pointes de consommation par grand froid hivernal.

    En termes de coût, les six premiers parcs (3 GW) ont un coût du MWh supérieur à 160 euros/MWh (raccordement compris qui s’impute sur le TURPE), et l’éolien flottant sera au même niveau : le coût moyen de l’éolien maritime est donc deux fois plus élevé que le coût du MWh du nouveau nucléaire. Le coût supplémentaire de la production de 14 GW d’éolien maritime pendant 20 ans (47 TWh par an) peut être estimé à 75 milliards d’euros, ce qui permettrait de construire 11 EPR2, qui vont produire 120 TWh par an pendant 60 ans.
    De plus, il ne faut pas sous-estimer l’agressivité du milieu marin (salinité, tempêtes), avec un risque élevé sur la maintenance, et surtout sur la capacité au terme de 20 ans de pérenniser les installations, comme cela est envisagé pour l’éolien terrestre, avec le repowering.

    En conclusion, l’éolien maritime n’est pas un moyen durable et écologique de production d’électricité en France, et sa part devrait rester marginale à l’horizon 2050 (10 à 15 GW), sauf à couvrir l’horizon de nos côtes de mâts d’éoliennes hauts de plusieurs centaines de mètres, pour un bilan économique calamiteux…

    - voir graph sur site -

    L’éolien terrestre

    Conserver le rythme actuel de développement pour aboutir à 40 GW en 2035 revient à revenir sur la perspective tracée par Emmanuel Macron lors de son discours de candidat à Belfort, où il s’engageait à diminuer le rythme pour la bonne insertion des champs sur les territoires, en repoussant ce point d’arrivée à 2050.

    Il faut en particulier tenir compte du fait que 1 GW par an (soit une centaine de parcs) arrive désormais en fin de contrat d’achat (15 ans), et que chaque parc concerné doit faire l’objet, soit d’un démantèlement s’il est placé trop près des habitations ou d’un site remarquable, soit d’un repowering : la décision devrait être prise par les élus locaux qui, dans la loi « d’accélération des renouvelables » du printemps dernier, ont l’initiative pour déterminer, en concertation avec la population, les zones d’implantation possibles des productions ENR.

    RépondreSupprimer
  46. En ce qui concerne le repowering, vouloir démanteler et remplacer les infrastructures existantes (mâts, massifs de béton, raccordement au réseau de distribution d’électricité) par de nouvelles éoliennes plus hautes et plus puissantes n’est pas très écologique, ni même économique : une politique de développement durable consisterait plutôt à conserver l’infrastructure et remplacer les équipements arrivés en fin de vie (générateur, pales), avec un investissement marginal qui autoriserait un coût du MWh très compétitif, ne demandant aucune subvention.

    Cette politique permettrait aux opérateurs rénovant des parcs éoliens de proposer des contrats d’achat d’électricité éolienne à long terme pour, par exemple, produire de l’hydrogène bas carbone, en synergie avec l’électricité du réseau quand il n’y a pas ou peu de vent (majoritairement nucléaire en dehors des heures de pointe). Une production locale adossée à un parc éolien est également possible : un électrolyseur de 6 MW alimenté en priorité par un parc éolien de 12 MW, et en complément par le réseau (en dehors des heures de pointe) permet de produire 850 tonnes d’hydrogène par an, 50 % en autoconsommant 93 % de l’électricité éolienne, et 50 % avec l’électricité du réseau.

    - voir graph sur site -

    Solaire photovoltaïque

    Les objectifs de 54 à 60 GW dès 2030, et de 75 à 100 GW dès 2035 apparaissent peu réalistes, alors que 16 GW sont installés, et que le rythme de 3 GW par an (grands parcs au sol et toitures) n’a encore jamais été atteint : 35 GW en 2030 et 50 GW en 2035 apparaîtraient déjà comme des objectifs très ambitieux.

    Pour atteindre ces objectifs, la loi d’accélération des énergies renouvelables fixe en priorité l’utilisation de terrains déjà artificialisés et de toitures, mais ouvre la porte au défrichement de zones boisées (jusqu’à 25 Ha) et au développement de l’utilisation de terres agricoles (agrivoltaïsme), qui risquent de détourner les agriculteurs de leur vocation première, la production agricole servant en priorité l’alimentation humaine et animale.

    Enfin, une telle accélération repose quasiment intégralement sur l’importation de panneaux solaires, principalement de Chine, qui ont de plus un bilan gaz carbonique dégradé (45 g gaz carbonique eq/kWh produit) en raison de leur process de fabrication utilisant largement de l’électricité produite à base de charbon : le critère qualitatif des appels d’offres lancés par la CRE (Évaluation Carbone Simplifié) ne permet pas de dissuader l’utilisation de panneaux à bas coût très chargés en carbone, le seuil de référence de la note zéro ayant même été relevé (de 700 kg gaz carbonique à 1150 kg gaz carbonique par KWhc de puissance) depuis 2018 !

    RépondreSupprimer
  47. Et le « mécanisme d’ajustement carbone aux frontières » que l’Union européenne met difficilement en place, et qui ne sera effectif sur un plan financier qu’à partir de 2026, ne concerne pas la production des panneaux solaires, ni d’ailleurs celle des batteries…

    - voir graph sur site -

    Développement des réseaux

    La stratégie de développement à marche forcée des ENR conduit ENEDIS à porter ses investissements au-delà de 5 milliards d’euros par an, et RTE à prévoir 100 milliards d’euros d’ici 2042, soit là aussi 5 milliards par an, contre moins de 2 milliards jusqu’à présent : ces sommes sont considérables (plus de 35 milliards d’euros pour le raccordement de l’éolien maritime par exemple), et auront un impact sur le TURPE, que l’on peut évaluer à un besoin d’EBITDA supplémentaire de 4 à 5 milliards par an, soit environ 12 euros/MWh sur la facture des clients.

    Le TURPE (Tarif d’Utilisation des Réseaux Publics d’Electricité) est déjà passé de 55 euros/MWh en 2022 à 61,5 euros/MWh en septembre 2023 pour les particuliers et les TPE, en raison de l’augmentation des investissements sur les réseaux de distribution et de transport d’électricité, mais aussi de l’augmentation du coût d’achat des pertes, celui-ci étant affecté par une diminution du volume de l’ARENH disponible, qui oblige ENEDIS et RTE à acheter environ 16 % d’un volume de 36 TWh sur le marché, contre seulement 4 % auparavant.

    - voir graph sur site -

    ENR thermiques

    En dehors de la chaleur fatale récupérée et de la chaleur extraite de l’environnement (pompes à chaleur et géothermie), la source principale d’énergie renouvelable thermique est issue de la biomasse et de la valorisation de déchets, sous différentes formes : biocarburants liquides, biogaz et bois-énergie.

    RépondreSupprimer
  48. La SFEC insiste à juste titre sur le fait que les ressources de biomasse disponibles pour la production énergétique sont limitées et en concurrence avec les usages alimentaires (production agricole) et en matériaux biosourcés : il est donc nécessaire de mener une réflexion pour prioriser les formes d’énergie à développer et les usages, en améliorant leur efficacité (foyers fermés pour le chauffage bois par exemple).

    Le développement de la production de biométhane par méthanisation est utile pour la décarbonation partielle du gaz distribué en réseau et la décarbonation des transports routiers lourds et maritimes (bio-GNV). Cependant, atteindre 50 TWh dès 2030 (11 TWh actuellement) est un objectif très ambitieux, alors que le potentiel de méthanisation mobilisable est de l’ordre de 100 TWh, à condition de développer les cultures intermédiaires (CIVE) et d’intégrer 15 % de cultures dédiées (maïs ensilage).

    Comme le souligne le document, le coût du biométhane (80 à 110 euros/MWh) reste deux à trois fois supérieur au prix du gaz naturel importé (30 à 60 euros/MWh). Un volume de 50 TWh avec un niveau de subvention de 50 euros/MWh représente une charge annuelle de 2,5 milliards d’euros, à mettre en regard des émissions de gaz carbonique évitées, et des bénéfices pour la balance commerciale, la valeur ajoutée domestique (emplois) et la diminution de l’utilisation d’engrais de synthèse grâce au digestat résidu de la méthanisation.

    En ce qui concerne les biocarburants liquides, la SFEC prévoit à juste titre de passer à terme d’une utilisation en mélange dans les carburants routiers à une utilisation pour décarboner le transport aérien, ainsi que les secteurs de l’agriculture, du bâtiment-TP et de la pêche : à titre d’exemple, le volume de gazole non routier utilisé par les agriculteurs et les pêcheurs est de 35 TWh, qui pourraient être utilement remplacés par du biogazole B100 pour leur permettre de décarboner leur activité en conservant leur outil de travail (la production nationale de biocarburants attendue en 2030 est de 50 TWh, très majoritairement du biogazole).

    - voir graph sur site -

    RépondreSupprimer
  49. Nucléaire : une relance insuffisante à l’horizon 2050
    Pour disposer de 850 TWh de productible en 2050 (pertes comprises), volume nécessaire de production pour décarboner l’économie, et d’une capacité pilotable suffisante pour gérer les pointes de consommation hivernale lors des grands froids (qui pourront atteindre jusqu’à 110 GW avec l’électrification du chauffage des bâtiments, en tenant compte d’un effacement des électrolyseurs, de la production d’eau chaude et de la recharge des véhicules électriques), il y a besoin de 75 à 80 GW de puissance nucléaire installée, et les SMR n’en constitueront qu’une part très minoritaire (4 GW dans le scénario N03, le plus nucléarisé de RTE dans son étude « futurs énergétiques 2050 » publiée fin 2021).

    Sur la base d’une prolongation de la durée de vie à 60 ans de l’ensemble des réacteurs encore en fonctionnement du parc historique (après fermeture anticipée de Fessenheim en 2020), et de la mise en service de l’EPR de Flamanville, un « effet falaise » se produira dès 2040, et la capacité nucléaire résiduelle sera au maximum de 16 GW en 2050, et de 1,6 GW en 2060 (EPR Flamanville) :

    - voir graph sur site -

    S’il est possible d’envisager une prolongation au-delà de 60 ans de la durée de vie pour certains réacteurs dans des conditions de sûreté acceptables (cela dépend de l’état de la cuve du réacteur, seul élément non remplaçable), il se peut aussi que certains réacteurs ne reçoivent pas l’autorisation d’exploitation jusqu’à 60 ans, et soient arrêtés lors de la visite décennale des 50 ans, voire des 40 ans : il est donc prudent de baser la stratégie sur cette hypothèse centrale d’une durée de vie de 60 ans, une adaptation restant bien entendu possible dans le temps en fonction du résultat des visites décennales.

    La conclusion s’impose, si l’on veut maintenir l’échéance de 2050 pour le « Net Zéro Carbone » en France en 2050, et garantir une sécurité d’approvisionnement en électricité : au-delà des tranches de six et huit EPR2 décidées ou envisagées, c’est un rythme d’engagement et de construction de deux EPR2 par an qui s’avère nécessaire dans la durée jusqu’en 2050, afin de disposer en 2060 de 40 à 45 EPR en plus de l’EPR de Flamanville, quand l’ensemble du parc actuel aura dépassé l’âge de 60 ans.

    À partir de 2035, en fonction des perspectives de prolongation avérées de la durée de vie des réacteurs existants, et de l’état du développement d’une filière de réacteurs nucléaires à neutrons rapides, la stratégie pourra être adaptée.

    RépondreSupprimer
  50. Si un tel rythme d’engagement et de réalisation ne se révèle pas soutenable, et que la construction de 14 EPR2 d’ici 2050 est confirmée comme étant un maximum, alors la capacité de production nucléaire sera revenue de 63 GW à moins de 45 GW (productible de 280 TWh), avec un mix électrique ne comportant plus que 36 % de nucléaire, et d’une capacité de production totale insuffisante (environ 780 TWh) pour assurer la décarbonation de l’économie et sa réindustrialisation, malgré des objectifs démesurément élevés en éolien offshore et solaire photovoltaïque.

    La capacité pilotable ne dépassera pas 72 GW, en pérennisant les 9 GW de cycles combinés à gaz et turbines à combustion existantes (TAC), ainsi que les centrales bioénergies existantes et les centrales à charbon de Cordemais et Saint-Avold converties à la biomasse, comme le montre le tableau ci-dessous :

    - voir graph sur site -

    Une telle situation ne serait pas gérable, et nécessiterait a minima la construction de 20 à 25 GW de capacité en cycles combinés à gaz pour ne pas rendre la France plus dépendante qu’actuellement de ses voisins pour la sécurité d’alimentation en électricité lors des pointes hivernales.

    - voir graph sur site -

    Innovations de rupture nucléaire

    Le plan France 2030 intègre le soutien au développement de petits réacteurs modulaires (SMR), soit avec une technologie classique à eau pressurisée (projet NUWARD d’EDF, puissance 2 x 170 MW), soit avec de nouvelles technologies, par exemple le projet de réacteur de 40 MW à neutrons rapides et sels fondus développé par la société NAAREA, qui permet la fermeture du cycle du combustible en brûlant des combustibles nucléaires usagés, et ne nécessite pas de source froide autre que l’air ambiant pour s’implanter (cycle gaz carbonique supercritique).

    Parmi les huit lauréats de l’appel à projet France 2030, il y a un projet de fusion nucléaire porté par la startup Renaissance fusion.

    RépondreSupprimer
  51. Signalons que de nombreux projets de développement de réacteurs à fusion portés par des startup existent aux USA, dont un projet porté par la société Helion avec une technologie originale : accélération et compression d’un plasma dans un tunnel linéaire, et production d’électricité directement par induction, sans recourir à un cycle vapeur. Helion construit un prototype Polaris d’une puissance de 50 MWe (MW électrique), avec une perspective de production d’électricité dès fin 2024 ou 2025, a signé un contrat de vente d’électricité avec Microsoft pour 2028, et développe un projet de réacteur de 500 MWe avec Nucor, un sidérurgiste. La concrétisation de la fusion nucléaire pourrait être bien plus rapide qu’anticipé actuellement avec le projet ITER…

    Il est par contre extrêmement regrettable que la SFEC ne prévoie pas de reprendre un projet de réacteur à neutrons rapides de taille industrielle pour une production centralisée, qui pourrait prendre la relève des EPR à partir de 2040, et entérine de fait l’abandon définitif du projet Astrid et de toute l’expérience accumulée avec les réacteurs Phénix (qui a produit 26 TWh entre 1973 et 2009 avec une puissance de 250 MW), et Superphénix à Creys-Malville arrêté en 1997.

    Cette lacune met en danger notre approvisionnement et notre gestion à long terme du cycle du combustible, sauf à recourir à terme à des technologies étrangères (la Chine vient de démarrer un réacteur de quatrième génération), alors que la France avait une (bonne) longueur d’avance dans cette technologie.

    https://www.contrepoints.org/2024/02/13/471109-strategie-francaise-pour-lenergie-et-le-climat-une-fuite-en-avant-vers-la-decroissance

    RépondreSupprimer