- ENTREE de SECOURS -



jeudi 7 décembre 2023

Une start-up française prévoit une mise en service de microréacteurs nucléaires d’ici 2030

Naarea, une start-up française, développe un microréacteur nucléaire utilisant des sels fondus. Malgré les nombreux avantages de cette technologie, il reste quelques défis à affronter avant la mise en service.


 le 7 décembre 2023

 Michel Gay


La start-up française Naarea a réalisé « une première mondiale » dans la course aux microréacteurs nucléaires de quatrième génération à neutrons rapides et à sel fondu. C’est un petit pas encourageant pour la France, même si ce n’est pas encore un grand bond pour l’humanité.

La société Naarea

La société Naarea (Nuclear Abundant Affordable Resourceful Energy for All) a embauché son premier employé en 2022. Elle vient de réaliser une innovation importante en faisant tourner un sel fondu à 700°C dans une boucle entièrement en carbure de silicium contenant du graphène. Cette avancée est une étape préliminaire pour permettre la mise au point d’un petit réacteur nucléaire modulaire.

Selon Naarea, cette céramique en carbure de silicium qui résiste à la corrosion est idéale pour le cœur d’un petit réacteur en production de masse.

Le carbure de silicium est déjà utilisé dans l’industrie, notamment dans les moteurs de fusées et les satellites. Ce matériau a l’avantage de pouvoir être synthétisé et usiné en France et d’être abondant et recyclable. Il résiste mieux que l’acier inoxydable aux températures extrêmes.

La société Naarea, lauréate de l’appel à projets « Réacteurs Nucléaires Innovants », bénéficiant d’une enveloppe de 500 millions d’euros du plan d’investissement « France 2030 », développe un petit réacteur nucléaire de quatrième génération.

Sa technologie repose sur de nouveaux types de sel fondus produisant de l’énergie à partir de combustibles nucléaires usagés, d’uranium appauvri, et de plutonium.

L’îlot nucléaire, dont le poids lui permet d’être transportable par des moyens conventionnels, tient dans un volume équivalant à un conteneur de la taille d’un autobus (un conteneur traditionnel de 40 pieds). Il pourra produire 40 mégawatts (MW) d’électricité ou 80 MW de chaleur.

Selon Naarea, ce micro réacteur « permettra la fermeture complète du cycle du combustible nucléaire, le Graal absolu ! ».

Mais il y a encore loin de la coupe aux lèvres…

Selon Jean-Luc Alexandre, président et cofondateur de l’entreprise :

« Le projet Naarea est né du constat que les besoins croissants en énergie et en électricité bas carbone font du nucléaire une solution incontournable […]. La demande électrique mondiale sera a minima multipliée par quatre entre 2020 et 2050. Quand nous avons analysé les 17 objectifs de développement durable (ODD), fixés par les Nations unies, nous nous sommes rendu compte que tout ramenait à l’énergie d’une manière ou d’une autre, qu’il s’agisse de l’agriculture, de la faim dans le monde ou de la biodiversité ».

À partir de ce constat a été fondée l’entreprise Naarea pour construire ce microréacteur nucléaire afin de fournir une électricité stable et bas carbone pouvant remplacer les énergies fossiles presque partout dans le monde.

Sans eau et presque sans déchets

Le refroidissement du système, qui fonctionnera à pression atmosphérique, s’affranchit de l’eau aujourd’hui utilisée pour refroidir les grands réacteurs actuels plus puissants, et la turbine est entraînée par du  gaz carbonique « supercritique » (permettant un rendement d’environ 50 %).

N’étant pas astreint à la proximité d’une rivière ou d’une mer, ce module prévu pour être fabriqué en série en usine pourrait être installé sur n’importe quel îlot industriel sécurisé répondant aux normes de sécurité Seveso, avec peu de génie civil.

De plus, il permet d’éliminer les déchets les plus radioactifs de haute activité à vie longue (HAVL) dont la durée est de plusieurs centaines de milliers d’années en les consommant. Ce microréacteur les transforme en produits de fission dont la durée de vie radioactive serait d’environ 250 ans, plus facilement gérables.

Ces microréacteurs pourraient donc venir en complément des réacteurs actuels à eau pressurisée de troisième génération en consommant leurs « résidus ».

Un jumeau numérique

Naarea s’appuie sur un « jumeau numérique » de leur microréacteur, une plateforme digitale collaborative qui offre une représentation du réacteur en 3D permettant d’en faire fonctionner les composants et de mesurer des paramètres inaccessibles dans le monde réel. Il sert également d’outil de démonstration en matière de sûreté et de sécurité, auprès notamment de l’ASN (Autorité de sûreté nucléaire) en France et d’autres autorités internationales.

C’est aussi un outil pédagogique et de formation qui accélère la conception du réacteur en facilitant la collaboration.

Les responsables de Naarea ne souhaitent pas vendre la technologie de leur réacteur, mais uniquement son usage.

L’entreprise met en avant sa volonté d’être « concepteur, fabricant et exploitant » pour devenir un fournisseur d’énergie (chaleur et/ou électricité) aux consommateurs isolés (îles, déserts électriques, …), ou souhaitant décarboner leurs productions.

Naarea et le nucléaire recrutent

Aujourd’hui, l’écosystème nucléaire en France a besoin de 100 000 personnes sur les dix prochaines années, soit 10 000 recrutements par an.

Naarea contribue à cette dynamique en accueillant des personnes venant d’horizons divers et en les intégrant à la filière nucléaire pour bénéficier d’une « fertilisation croisée » en adoptant les meilleures pratiques des autres secteurs pour s’en nourrir mutuellement.

Le but est de produire des centaines de réacteurs en série en utilisant l’impression en 3D pour la fabrication du cœur et des pièces. Cette approche est économiquement viable en production de masse. C’est d’autant plus réalisable sur des pièces de petite taille : le cœur du réacteur est de la taille d’une machine à laver.

Ce microréacteur répond aux mêmes exigences de sécurité et de sûreté que les centrales nucléaires traditionnelles. La réaction de fission est intrinsèquement autorégulée par la température (si elle augmente, la réaction diminue) afin que le réacteur soit toujours dans un « état sûr » grâce aux lois de la physique.

Étant de plus télécommandé à distance, ce microréacteur pourra être neutralisé (« suicidé ») pour contrer un acte malveillant.

Une mise en service en 2030 ?

Naarea travaille sur une maquette à échelle un qui devrait être prête d’ici la fin de 2023. Elle continue à embaucher à un rythme soutenu : elle vise 200 employés à la fin de cette année, et 350 l’année prochaine où un démonstrateur fonctionnel devrait voir le jour.

Naarea envisage un prototype opérationnel autour de 2027-2028 pour une mise en service en 2030.

De nombreux autres petits réacteurs modulaires sont actuellement en développement dans d’autres pays pour répondre à l’énorme demande énergétique future afin d’atteindre l’objectif zéro émission à l’horizon 2050. Certains d’entre eux ont une puissance de 250 à 350 MW, plus adaptés pour de petits réseaux électriques, mais pas pour les besoins spécifiques des industriels et de petites communautés dans des lieux isolés.

Ces microréacteurs pourront répondre à des usages décentralisés de sites industriels ou à l’alimentation de communautés isolées.

Selon le président de Naarea :

« Un réacteur de 40 MW permet de produire de l’eau potable pour environ deux millions d’habitants en dessalant de l’eau de mer, d’alimenter 2700 bus pendant une année […] ou une centaine de milliers de foyers en énergie ».

Nouveaux besoins, nouveau marché mondial

L’entreprise russe Rosatom propose aux Brics (Brésil, Russie, Inde, Chine et Afrique du sud), et notamment aux pays d’Afrique et d’Asie, de petites centrales nucléaires flottantes ou à terre, clés en mains, avec tous les services associés (fabrication du combustible, entretien, et retraitement du combustible usagé) à un prix compétitif.

La Russie utilise l’argent de son gaz et du pétrole pour financer son expansionnisme nucléaire et politique.

Nul besoin d’une infrastructure industrielle préexistante : la Russie s’occupe de tout, de la fourniture des équipements à la formation du personnel. Son offre inclut aussi le financement (crédit total) de l’opération. Les pays acheteurs n’ont donc rien à débourser initialement. Ils ne paient que l’électricité ou un remboursement annuel.

Rosatom a ainsi écarté la France du marché des grandes centrales nucléaires en Afrique du Sud où elle était pourtant bien implantée, puisque les deux premiers réacteurs nucléaires en Afrique (deux fois 900 MW) ont été construits par Framatome. C’est aussi le cas au Vietnam et dans d’autres pays.

Pourtant, la France est le seul pays au monde (autre que la Russie et bientôt la Chine) à pouvoir proposer pour l’instant une offre complète incluant le combustible et le retraitement.

Les États-Unis ne retraitent plus leur combustible nucléaire, ni pour eux-mêmes ni pour l’exportation, depuis 1992.

Une carte maîtresse

La France a donc une carte maîtresse à jouer dans le domaine des microréacteurs pour nouer de nouveaux liens privilégiés utiles pour l’avenir.

En effet, les pays qui achètent des centrales nucléaires deviennent dépendants du vendeur pendant des décennies pour leur approvisionnement en électricité.

Le vendeur et l’acheteur doivent donc rester « amis » et deviennent des partenaires privilégiés pour d’autres contrats de construction d’infrastructures civiles (aéroports, ponts, autoroutes, génie civil, équipements publics…) ou militaires, et ce pendant près d’un siècle (construction, durée de vie de la centrale nucléaire supérieure à 60 ans, et déconstruction).

Pour autant, nos dirigeants ne répondent pas, ou maladroitement et de manière incomplète, aux demandes et aux besoins des pays voulant accéder au nucléaire.

La Russie, la Corée du Sud et la Chine s’empressent de combler à leur avantage la demande de coopération nucléaire à laquelle la France répond mal. Elle rate de belles opportunités nucléaires, mais aussi diplomatiques et politiques, pour établir des liens durables avec de nombreux pays en les aidant à développer leur parc nucléaire.

De plus, son offre n’est parfois pas compétitive par rapport à celle de la Russie qui, elle, inclut le financement.

À noter que l’offre des Russes comprend aussi la formation dans leurs écoles d’ingénieurs d’un excellent niveau à Moscou, mais aussi à Tomsk en Sibérie, et dans une demi-douzaine d’autres villes. Des milliers de futurs opérateurs et d’ingénieurs nucléaires en herbe des Brics arrivant dans ces écoles apprennent aussi le russe. Un jour, ils apprendront peut-être le français en France, ou chez eux ?

Un foisonnement de compétences

Compte tenu des contraintes techniques et administratives à surmonter, la date annoncée par Naarea pour la mise en service de leur premier réacteur en 2030 est probablement (très ?) optimiste.

Toutefois, ce foisonnement de compétences et de talents dans ce nucléaire innovant doit être encouragé, surtout en France, même si c’est un projet qui ne sera transformé industriellement que dans 30 ans, 50 ans ou… 100 ans.

Dans l’intervalle, de jeunes ingénieurs s’enthousiasmeront, et c’est bien !

Et ces nouveaux talents qui forgent ce microréacteur nucléaire de quatrième génération peuvent bénéficier d’une conjoncture internationale favorable, d’une réglementation simplifiée, et de soudaines avancées technologiques et découvertes.

Nul n’est à l’abri d’un coup de chance !

Sinon, ces ingénieurs et techniciens pourront toujours ensuite se recycler dans le nucléaire « classique » des puissants réacteurs EPR (ou RNR) pour succéder à la génération précédente ayant développé l’extraordinaire parc nucléaire qui fonctionne parfaitement aujourd’hui en France, et pour encore des décennies.

https://www.contrepoints.org/2023/12/07/468293-une-start-up-francaise-prevoit-une-mise-en-service-de-microreacteurs-nucleaires-dici-2030

54 commentaires:

  1. Start-up française avec un nom (à coucher dehors) en anglais ! Et pourquoi pas 'Toujours Recommencé Où Un Con Utile Limoge' ? (TROUCUL) !

    RépondreSupprimer
  2. Des vaccins « sans aiguilles » soutenus par la Fondation Gates et le gouvernement américain


    7 décembre 2023
    par le Dr. Peter F. Mayer


    Les vaccins constituent la meilleure affaire pour l’industrie pharmaceutique car ils ne nécessitent pas d’administration d’une maladie aiguë. Il suffit de demander aux « experts » de les prescrire ou au moins de les recommander. En Autriche, 52 injections sont parfois obligatoires et parfois uniquement recommandées pour les enfants de moins de 15 ans. L'effet est qu'un enfant vacciné sur 36 développe l'autisme . Les vaccins « sans aiguille » visent à abaisser encore davantage le seuil d’inhibition des vaccinations.

    L’industrie pharmaceutique continue de recevoir des financements de la Fondation Bill & Melinda Gates et du gouvernement américain pour développer des vaccins pouvant être administrés sans seringue. Le mois dernier, la Fondation Gates a accordé à Micron Biomedical, basée à Atlanta, en Géorgie, une subvention de 23,6 millions de dollars pour produire des vaccins sans aiguilles, a rapporté Reuters . Cela a été suivi par deux subventions distinctes de 3 millions de dollars des National Institutes of Health (NIH) à Orlance, basée à Seattle, dans l'État de Washington, pour développer des systèmes d'administration de vaccins sans aiguille, et par une subvention de 5,5 millions de dollars du ministère de la Défense (DoD) à Lumen Seattle. basée sur la bioscience pour produire des vaccins sans aiguille.

    Depuis quelque temps, le développement de médicaments s'effectue principalement dans des startups faciles à promouvoir et dont les coûts sont relativement faibles.

    La technologie sans aiguille permet aux enfants d’être vaccinés « en quelques minutes »
    La subvention accordée à Micron Biomedical est destinée à la production en masse de micro-aiguilles solubles qui se fixent sur un « dispositif semblable à un patch » sur la peau et rendent le transport, le stockage et l’administration des vaccins plus efficaces que l’utilisation de seringues traditionnelles pour injecter des vaccins. Selon l'entreprise, sa « technologie de puces à ADN solubles » est utilisée spécifiquement pour le vaccin contre la rougeole et la rubéole (MR) et « élimine le besoin d'une chaîne du froid » et permet à un professionnel de la santé de vacciner un enfant en quelques minutes en appliquant la technologie sur la peau. et "appuie sur un bouton qui confirme l'administration".

    RépondreSupprimer
  3. Micron Biomedical note qu'un autre avantage de son produit est que la vaccination est « pratiquement indolore » et peut être auto-administrée. Le patch à micro-aiguilles peel and stick fonctionne essentiellement comme un pansement collant.

    La Fondation Gates accorde des millions pour accélérer le développement de vaccins sans aiguilles
    La Fondation Gates a déjà financé Micron Biomedical pour développer sa technologie de vaccin sans aiguille. Le 1er juin 2017, l'organisation a donné à Micron 2,2 millions de dollars pour financer le premier essai clinique de sa nouvelle technologie vaccinale chez les enfants. En 2022, Micron a reçu 900 000 $ supplémentaires de la Fondation Gates pour développer des équipements de fabrication permettant de produire des vaccins sans aiguilles.

    Ces dernières années, la Fondation Gates a donné des millions de dollars à d'autres sociétés pharmaceutiques pour développer des vaccins sans aiguille, notamment Vaxess Technologies , basée à Boston , SK bioscience Co. Ltd. de Corée du Sud et Vaxxas Pty d'Australie.

    Subventions US-NIH pour les systèmes d'administration de vaccins à microparticules (« Gene Gun »)
    Le NIH a également accordé des millions de dollars aux sociétés pharmaceutiques pour développer des vaccins sans aiguille. Les deux subventions Small Business Innovation Research (SBIR), qu’Orlance a reçues le 28 novembre 2023, contribueront à faire progresser le développement et la production d’une technologie de « pistolet à gènes » à microparticules pour un vaccin universel contre la grippe et un vaccin contre le mélanome. Les vaccins délivreraient des microparticules recouvertes d’ADN ou d’ARN directement dans les cellules de la couche externe de la peau (épiderme).

    L'année dernière, le NIH a accordé à PharmaJet, basée à Golden, au Colorado , une subvention de plus de 800 000 $ pour tester un système d'administration sans aiguille pour le vaccin contre le virus du papillome humain (VPH). Le NIH travaille également en étroite collaboration avec PharmaJet depuis plusieurs années sur un vaccin Zika sans aiguille .

    Subventions du ministère de la Défense pour des vaccins sans aiguilles contre le paludisme, le charbon et l'encéphalite
    Le ministère de la Défense (DoD) a accordé une subvention à Lumen Bioscience le 29 novembre pour développer une technologie de vaccin sans aiguille (Module Dual Scaffolded Adjuvent (MoDuSA)), en s'appuyant sur les recherches de Lumen développant un vaccin intranasal contre le paludisme « Cette nouvelle technologie pourrait élargir l'accès et faciliter la production, le stockage et l'administration des vaccins lors de futures urgences de santé publique », a déclaré Nhi Khuong, vice-président du développement préclinique chez Lumen.

    RépondreSupprimer
  4. La pandémie du C19 stimule la recherche sur le développement rapide de vaccins sans aiguille
    Depuis plusieurs décennies, les scientifiques travaillent au développement de vaccins sans aiguille, en particulier de patchs de micropuces (MAP) appliqués sur la peau, mais il semble que la pandémie de C-19 ait rendu ces efforts encore plus urgents. La recherche sur les vaccins sans aiguilles progresse rapidement, au moins en partie grâce aux politiques de santé gouvernementales qui encouragent l’utilisation massive de nouveaux vaccins et soutiennent les intérêts commerciaux stratégiques de l’industrie pharmaceutique.

    Les responsables du partenariat public-privé Gavi, l’Alliance du Vaccin, estiment que l’expérience de la pandémie de C19 a « revigoré l’intérêt et les investissements dans la technologie [MAP] ». On s’attend à ce que les premiers essais cliniques préalables à l’homologation des vaccins MAP puissent commencer d’ici 2026 et que le premier de ces produits biologiques sans aiguille puisse être disponible pour distribution publique d’ici 2028.

    https://

    RépondreSupprimer
    Réponses
    1. Il s'agit là rien de moins qu'un patche parsemé de micro-aiguilles (qu'acceptera ou non le condamné à mort à l'insu de son plein gré) destiné aux cons qui veulent connaître autre chose pour 's'en sortir' !

      Supprimer
  5. La fuite des dossiers de vaccination en Nouvelle-Zélande : une nouvelle analyse de William Briggs et quelques réflexions mineures de ma part


    EUGYPPIUS
    6 DÉCEMBRE 2023


    Comme tout le monde sur Internet le sait, un employé néo-zélandais de Te Whatu Ora, Barry Young, a divulgué quatre millions de dossiers de vaccination du programme de vaccination néo-zélandais « paiement par dose » à Steve Kirsch le 8 novembre. Les dossiers concernent apparemment des doses administrées à des patients individuels dans des apothicaires et des cabinets médicaux ; les vaccins administrés par des équipes mobiles spéciales de vaccination et dans les centres gouvernementaux de vaccination de masse ont été enregistrés séparément et nous restent cachés.

    Kirsch a supprimé les noms des patients des données avant de fournir une version résumée à Norman Fenton et les dossiers complets à mon ami William Briggs pour un examen indépendant. Finalement, le 30 novembre, il a publié l'ensemble de données anonymisées sur Internet et a publié sa propre analyse sur Substack, où il soutient vigoureusement que les enregistrements montrent un taux de mortalité associé au vaccin d'un décès pour 1 000 doses. Ce taux de mortalité signifierait bien plus de 13 millions de décès dus au vaccin dans le monde.

    eugyppius : une chronique de la peste est une publication financée par les lecteurs. peut-être que tu t'abonnes ?

    Un débat animé sur Twitter a émergé sur l'importance des données et leur interprétation appropriée. D'autres drames ont visité le monde réel. Young, le fuyard, a été arrêté dimanche pour avoir « accédé de manière malhonnête aux bases de données de Te Whatu Ora ». Il risque jusqu'à sept ans de prison et a été libéré sous caution hier. Entre-temps, le ministère néo-zélandais de la Santé a obtenu une injonction du tribunal pour arrêter la distribution des données divulguées et a utilisé cette autorité pour fermer le serveur de fichiers Wasabi de Kirsch. L'ami du blog Kevin McKernan, qui avait accepté de refléter l'ensemble de données, a également vu son compte auprès du service d'hébergement de fichiers MEGA supprimé sans préavis et à un coût personnel et professionnel considérable. Ces mesures sont bien entendu méprisables et ne contribueront en rien à arrêter la propagation de la fuite, qui se propage désormais partout sur Internet.

    Certains d’entre vous m’ont demandé mon avis sur la fuite, mais je ne voulais rien dire jusqu’à ce que Briggs publie son analyse, car son travail a toujours été très important pour moi. Je suis heureux de dire qu'il a maintenant publié son rapport complet et approfondi. Je vous encourage à lire l'intégralité du document, et également à vous abonner à son Substack. Vous ne le regretterez pas :

    RépondreSupprimer
  6. La science n'est pas la réponse

    Données sur les vaccins néo-zélandais : blessures possibles et signaux trompeurs
    Merci à tous ceux d'hier. Je n’ai rien vu qui m’ait fait changer d’avis, je publie donc mon analyse telle quelle. Il y a cette nouvelle mise en garde concernant les données découvertes par un lecteur du miroir Substack. Mais comme j’ai toujours insisté, toutes les analyses sont conditionnées aux données. Substack m'informe que tout le monde ne verra pas l'intégralité du message dans les e-mails, et que vous…

    Quant à mes pensées :

    1) La Nouvelle-Zélande a réagi durement contre le responsable de la fuite et contre ceux qui ont hébergé la fuite, même sous sa forme anonymisée. Cette réaction ne peut pas, en elle-même, être utilisée pour affirmer qu’il doit y avoir des preuves d’une mortalité vaccinale massive dans cet ensemble de données. Je ne connais rien à la législation néo-zélandaise, mais je ne serais pas surpris de constater que la divulgation non autorisée de dossiers de patients non anonymisés constitue un délit dans ce pays. Ce n’est pas un commentaire sur la justice de l’arrestation de Young, mais simplement une observation. Il est fort probable que les autorités sanitaires néo-zélandaises elles-mêmes ne soient pas sûres de ce qui se cache dans leurs dossiers de vaccination et de ce que des internautes pourraient y trouver au hasard. De toute évidence, ils ont été assez stupides pour déclencher l’effet Streisand en supprimant les comptes de Kirsch et McKernan. Il ne faut donc pas trop attendre d’eux. Il est également possible que ces chiffres cachent d’autres éléments que la mortalité due aux vaccins, qu’ils souhaitent cacher au public et qu’Internet n’a pas encore découvert. Enfin, les bureaucraties mènent des batailles féroces pour garder secrets même les documents les plus banals, car le simple fait de prétendre avoir accès à des informations cachées permet aux représentants de l’État de faire des déclarations que les étrangers ne peuvent pas contester ou vérifier.

    2) J’étais assez certain dès le début qu’il n’y aurait rien de si dramatique dans ces enregistrements, car les possibilités sont fermement limitées par les statistiques de mortalité toutes causes confondues en Nouvelle-Zélande.

    Considérez la mortalité toutes causes confondues en Nouvelle-Zélande au cours des cinq dernières années :

    2018 : 33 225 décès

    2019 : 34 260 décès

    2020 : 32 613 décès

    2021 : 34 932 décès

    2022 : 38 574 décès

    RépondreSupprimer
  7. Briggs soulève de nombreux points importants et je vous encourage encore une fois à lire l’intégralité de son article. Ici, je veux seulement souligner la partie la plus cruciale de son analyse, où il explique comment les enregistrements divulgués contiennent des « signaux trompeurs » qui suggèrent à première vue une mortalité vaccinale élevée, mais qui sont en réalité principalement un artefact d’échantillonnage.

    Il fournit cet histogramme du nombre de décès après un seul vaccin, après seulement deux vaccins, après seulement trois vaccins, et ainsi de suite. Dans tous les cas, il semble y avoir une baisse de mortalité immédiatement après la vaccination. À première vue, il semble que les vaccins tuent beaucoup de gens.

    En fait, il s’agit en grande partie d’une illusion causée par la nature des données, qui ne se poursuivent pas jusqu’au présent ou dans le futur, mais s’arrêtent début octobre 2023. Fondamentalement, nous ne pouvons pas voir la mortalité à plus de 850 jours des premiers vaccins. , ce qui provoque un regroupement artificiel des décès dans les premiers jours suivant le vaccin.

    C’est un peu difficile à expliquer, alors soyez patient : imaginez que nous étudions la mortalité immédiate causée par une pilule de vitamines bénigne (qui ne devrait tuer personne), et que notre ensemble de données ne couvre que dix jours. Les gens peuvent prendre la pilule à tout moment – le jour 1, le jour 2, le jour 7 ou le jour 10. Un nombre aléatoire d’entre eux peuvent mourir de causes totalement indépendantes n’importe quel jour après avoir pris la pilule. Les personnes qui prennent la pilule le premier jour ont dix jours pour mourir. Leur décès peut survenir n’importe quel jour après la prise de la pilule – un jour après la pilule jusqu’à neuf jours après la pilule. Cependant, les personnes qui prennent la pilule le 9ème jour ne peuvent mourir qu’un jour après la pilule. Sinon, leur mort nous sera invisible. À cause de ces retardataires, vous finirez par compter plus de décès dans les premiers jours suivant la prise de la pilule, car votre ensemble de données est plus complet pour les premiers jours suivant la pilule que pour les jours ultérieurs.

    Cela dit, Briggs note également que cet artefact d’échantillonnage n’est pas le seul élément présent dans les données. Il semble y avoir des regroupements inhabituels de décès dans les premiers jours suivant la première et la deuxième injection, en particulier chez les personnes de moins de trente ans. Nous parlons ici de centaines et non de milliers de décès, mais je pense qu’il est très plausible qu’il s’agisse d’un signal réel de décès direct induit par le vaccin, précisément dans les cohortes d’âge les moins exposées au risque de mortalité due au Covid. Ceci est similaire aux effets de mortalité suggérés par une étude exhaustive des données de mortalité allemandes que j'ai publiées l'année dernière, et si cela peut être confirmé, ce serait un grand scandale, car les vaccins n'arrêtent pas la transmission et il n'y avait aucune raison de risquer la transmission. la vie des jeunes avec nos campagnes de vaccination de masse dérangées.

    https://www.eugyppius.com/p/the-new-zealand-vaccination-records?utm_source=post-email-title&publication_id=268621&post_id=139503467&utm_campaign=email-post-title&isFreemail=true&r=1mp8ru&utm_medium=email

    RépondreSupprimer
  8. En Suisse le nombre de cancéreux a DOUBLE depuis 2020, et en France on censure toute mise en garde sur l’anticorps monoclonal injecté aux bébés dans les maternités


    le 7 décembre 2023
    par pgibertie


    HELENE BANOUN CENSURÉE

    Essai clinique sauvage grandeur nature effectué par le @Sante_Gouv Le Beyfortus injecté dès la naissance N’A PAS ÉTÉ TESTÉ SUR LES NOUVEAU-NÉS

    Merci de transmettre par tous les moyens mes posts et twitts sur le Beyfortus, le nouveau traitement « préventif » contre la bronchiolite injecté aux nouveau-nés dès la naissance Ce produit dangereux et inefficace n’est pas obligatoire Il faut que les mamans le refusent : les maternités vont insister pour l’injecter Ici des détails https://aimsib.org/2023/11/12/les-mauvaises-surprises-des-vaccins-et-therapies-preventives-contre-la-bronchiolite-a-vrs/… Les mauvaises surprises des vaccins et thérapies préventives contre la bronchiolite à VRS Et ce dimanche 10 décembre, les premières statistiques affolantes de mortinatallté néo-natale précoce dans http://aimsib.org Pour comprendre pourquoi on en arrive là : Disponible sur internet, en librairies indépendantes et en commande sur site éditeur https://novimondi.com/de/helene-banoun/119-la-science-face-au-pouvoir-ce-que-revele-la-crise-covid-19-sur-la-biopolitique-du-xxie-siecle.html… Si vous avez Twitter, merci de partager mes posts qui sont « shadow-ban » https://twitter.com/BanounHelene/status/1732321891262550269… et

    Suisse: nombre d’assurés qui ont acheté des médicaments contre le cancer, chaque année de 2013-2022 (données caisse maladie Helsana). Que remarquez-vous ?
    Maintenant certains peuvent arrêter de fabriquer des « vaccins » ADN $ ARNm, il leur suffit de « soigner » les dizaines/centaines de millions de personnes qu’ils ont rendu malades. Dont cancer.

    Un individu sain n’est pas rentable. Un individu mort n’est pas rentable. La rentabilité se situe juste entre les deux. L’injection c’est 50 balles, la thérapie contre les effets du cancer c’est 300 000 balles / patient /an J’ai bien dit thérapie contre les effets et non remède

    - voir cadre sur site -

    La source: https://youtube.com/watch?v=3Z6rviCbCNg…

    « Nous avons décidé de ne pas continuer à faire avancer la plateforme en raison de ces événements très rares mais graves survenus avec le vaccin Covid….

    APPEL SOLENNEL du plus prestigieux cancérologue britannique « Tous les vaccins à ARNm doivent être arrêtés et interdits dès maintenant. » https://pgibertie.com/2023/12/04/appel-solennel-du-plus-prestigieux-cancerologue-britannique-tous-les-vaccins-a-arnm-doivent-etre-arretes-et-interdits-des-maintenant/… via @GibertiePatrice

    RépondreSupprimer
  9. Explication de cette augmentation de cancers dans la vidéo. Le SRA suractivé est pro-angiogénique. Il est parallèlement impliqué dans la différenciation et la multiplication des cellules, et l’immuno-déficience.

    https://crowdbunker.com/v/NZV54J6DsS

    https://pgibertie.com/2023/12/07/en-suisse-le-nombre-de-cancereux-a-double-depuis-2020-et-en-france-on-censure-toute-mise-en-garde-sur-lanticorps-monoclonal-injecte-aux-bebes-dans-les-maternites/

    RépondreSupprimer

  10. La fraude qu’est la virologie expliquée en 19 minutes


    20 novembre 2023


    Note de Joseph : en préambule, voici ci-après une petite présentation tirée d’un récent courriel écrit à destination d’une doctoresse pour répondre à une vidéo sur le virus du singe.

    *
    Le prétendu virus du singe n’a pas plus été réellement isolé que les autres prétendus virus pathogènes.

    Les séquences génétiques prétendument virales contenues dans les banques informatiques de gènes ne sont que des séquences illusoires, obtenues suite à une mauvaise recette de cuisine (nommée «culture virale») qui contient un mélange de cellules (celles de soi-disant «culture» – souvent des cellules VERO provenant de rein de singe vert -, celles d’embryon de bœuf, et divers composants génétiques en provenance des tissus prétendument infectés et qui peuvent aussi contenir n’importe quoi présent dans l’environnement de la personne chez qui ces tissus ont été prélevés, comme des cellules d’animaux domestiques) et différentes substances toxiques.

    De cette soupe on ne sort aucun virus réellement isolé, purifié et caractérisé chimiquement, mais on prélève, suite à une centrifugation, des bouts de tissus ou de cellules dont la densité correspond à celle du supposé virus. Et cerise sur le gâteau, à partir de ce méli-mélo génétique on procède au final à un séquençage informatique qui n’est qu’une moulinette logicielle tournée suffisamment longtemps pour arriver à reconstituer un puzzle génétique par collage de bouts de chaînes génétiques de plusieurs dizaines de codons, par invention des parties manquantes et par rabotage ou moyennage des parties qui ne collent pas bien pour les forcer à se raccorder et à coller au modèle génétique du supposé virus cherché dans la soupe. De plus, le modèle génétique viral est lui-même le résultat d’une opération similaire.

    Quand par une telle méthode informatique on reconstitue un pourcentage suffisant du puzzle (par exemple 99,7%) on déclare avoir trouvé le virus cherché. Si le pourcentage est un peu trop bas, on déclare que l’on a découvert un «variant» du virus. On est dans la même logique que dans l’exemple suivant :

    On cherche le roman Germinal de Zola dans une bibliothèque contenant 10 000 livres. Pour cela on coupe les romans en morceaux pour en analyser les phrases (équivalent de bouts de code génétique, le livre lui-même étant le code génétique complet d’un virus qui serait effectivement isolé). On donne les millions de bouts de papier à un robot pour qu’il reconstitue le roman Germinal à partir du modèle présent dans la bibliothèque virtuelle logicielle. Étant plus rapide qu’un être humain, à partir d’un certain nombre d’heures, il finit par arriver à recoller les morceaux de papier déchirés et à rafistoler tant bien que mal 99,7% du roman cherché, ceci en ajoutant des mots manquants et d’autres fois en rabotant des parties un peu trop grosses pour bien entrer dans les trous. Alors le robot déclare avoir trouvé Germinal dans la bibliothèque réelle. Pourtant, ce roman pourrait ne pas être présent dans la liste des ouvrages répertoriés et à aucun moment on ne s’en est assuré.

    RépondreSupprimer
  11. DÉTECTION PRÉCOCE, DÉCÈS PRÉCOCE : les mammographies liées à un taux de mortalité par cancer du sein 84 % plus élevé


    12/05/2023
    Ethan Huff


    Une nouvelle recherche publiée dans JAMA Oncology révèle que la mammographie est responsable d'un taux de décès par cancer du sein 84 % plus élevé sur une période de surveillance de 20 ans.
    En raison du taux très élevé de faux positifs qu’elles produisent, les mammographies finissent par tuer, semble-t-il, beaucoup plus de femmes qu’elles ne mourraient autrement du cancer du sein si elles n’avaient jamais participé au racket des mammographies.

    Les mammographies provoquent des traumatismes chez les patientes, à la fois physiquement au niveau du tissu mammaire, mais aussi psychologique, émotionnel et même spirituel chez les femmes à qui on finit par dire qu'elles doivent subir des « traitements » encore plus invasifs pour survivre.

    La pression exercée par la mammographie sur les tissus mammaires peut être une cause de cancer en soi, sans parler de toutes les chimiothérapies, radiothérapies et interventions chirurgicales qui en découlent généralement. Il s’agit d’une expérience horriblement traumatisante pour les femmes qui laisse beaucoup d’entre elles marquées à vie, à condition même qu’elles survivent.

    (Connexe : En 2016, certains chirurgiens ont publié une étude montrant que la mammographie n'est ni sûre ni efficace et que les femmes devraient choisir de ne pas participer à cette pratique « dépassée ».)

    Le cancer est une industrie à but lucratif

    La mammographie est également dangereuse dans la mesure où la principale modalité utilisée est la technologie des rayons X, qui irradie le tissu mammaire au-dessus de la machine en le pressant physiquement vers le bas. Les rayons gamma à eux seuls sont un cancérogène connu pour le sein, particulièrement préoccupant pour les femmes présentant des « mutations » du gène BRCA1 ou BRCA2.

    La recommandation officielle des lignes directrices américaines sur les services préventifs pousse les femmes à commencer à se faire dépister par mammographie tous les deux ans à partir de 40 ans.

    "Ces lignes directrices exposent des millions de femmes en bonne santé à des modifications mammaires indésirables induites par les radiations, ainsi qu'aux méfaits psychobiologiques abordés dans cet article", affirme Sayer Ji de GreenMedInfo.

    À peu près partout, l’establishment médical essaie de prétendre que la mammographie est sans risque, ignorant de nombreux risques connus tels que l’exposition aux rayons X, les diagnostics faussement positifs, le surdiagnostic et bien sûr tous les « traitements » invasifs qui en découlent.

    Il y a environ dix ans, il a été déterminé que plus de 1,3 million de femmes avaient subi une ablation incorrecte de leur tissu mammaire en raison d'une maladie non cancéreuse appelée carcinome canalaire in situ (CCIS), qui est désormais reconnue comme bénigne. Cependant, pendant trop longtemps, le CCIS a été traité comme un cancer et de nombreuses femmes ont subi une mastectomie sans raison valable.

    RépondreSupprimer
  12. "Le surdiagnostic peut être distingué des faux positifs dans la mesure où, dans le cas d'un surdiagnostic, des anomalies détectées au dépistage sont observées chez des femmes asymptomatiques et apparemment en bonne santé, qui ne causeraient pas de danger si elles n'étaient pas détectées, ou qui causeraient plus de dommages nets à diagnostiquer et à traiter que si elles n'étaient pas découvertes ou laissées. progresser sans traitement (ce qu'on appelle « l'attente vigilante »)", écrit Ji en outre.

    "Les faux positifs, en revanche, se produisent lorsqu'une mammographie de dépistage positive conduit à un bilan diagnostique plus approfondi, mais à aucun diagnostic de cancer du sein. Bien que les faux positifs soient finalement découverts comme tels, le mal peut déjà être fait, étant donné le pouvoir du subconscient et ce qu'on appelle l'effet nocebo, qui est à l'opposé de l'effet placebo, de causer de profonds dommages émotionnels et physiques à ceux qui pensent avoir un diagnostic de cancer potentiellement mortel mais qui ne sont pas réellement malades.

    Aux États-Unis, environ 11 pour cent des femmes reçoivent un résultat faussement positif après une seule mammographie. En Europe, ce chiffre est bien inférieur, à seulement 2,5 pour cent, mais correspond néanmoins à un risque cumulé beaucoup plus important dans la mesure où après seulement 10 dépistages, environ 20 pour cent des femmes en Europe recevront au moins un résultat faussement positif.

    Le cancer du sein reste l’une des maladies les plus redoutées et les plus fréquemment diagnostiquées. Chaque année, rien qu'aux États-Unis, quelque 240 000 nouveaux cas sont signalés, ainsi que 42 000 décès par an.

    Des informations plus détaillées sur l’industrie du cancer sont disponibles sur CancerScams.com.

    Les sources de cet article incluent :

    JamaNetwork.com
    GreenMedInfo.com
    NaturalNews.com

    https://www.naturalnews.com/2023-12-05-mammograms-linked-84percent-higher-breast-cancer-deaths.html

    RépondreSupprimer
  13. Le président du Conseil européen de la recherche insiste sur le fait que les chefs religieux et militaires devraient imposer aux populations de se faire vacciner plutôt que d'expliquer les données scientifiques


    12/05/2023
    Cassie B.


    Maria Leptin, présidente du Conseil européen de la recherche de l'Union européenne, a adopté une position choquante sur les vaccins contre le COVID-19 en affirmant que les gouvernements ne devraient pas expliquer les données scientifiques et devraient simplement dépendre des chefs militaires et religieux pour garantir que leurs populations soient vaccinées, indépendamment des circonstances. ce qu'ils en pensent.

    Leptin, qui contribue également à l’ordre du jour du Forum économique mondial, a déclaré qu’expliquer pourquoi les gens devraient se faire vacciner s’est avéré un échec pendant la pandémie de coronavirus, et qu’une approche différente et plus énergique est donc nécessaire.

    Dans un panel qui comprenait également l'ancien PDG de GAVI de Bill Gates, The Vaccine Alliance et un co-créateur de COVAX, Seth F. Berkley ; Shyam Bisen du Comité exécutif du Forum exécutif mondial ; et le PDG de Moderna, Stéphane Bancel, Leptin a expliqué pourquoi elle pense qu'il ne sert à rien d'expliquer les vaccins au public et que les forcer à recevoir ces vaccins expérimentaux est en quelque sorte une meilleure méthode.

    Bien sûr, expliquer la « science » inciterait davantage de personnes à se faire vacciner si la science montrait que les vaccins étaient à la fois parfaitement sûrs et pleinement efficaces pour prévenir la transmission de la maladie contre laquelle ils sont censés protéger. Si les vaccins contre la COVID-19 tenaient réellement leurs promesses en matière de sécurité et d’efficacité, la « science » le confirmerait et les gens seraient plus que disposés à se faire vacciner.

    Malheureusement, nous savons tous que non seulement les vaccins actuels contre la COVID-19 ne parviennent pas à empêcher la propagation de la maladie, mais qu’ils entraînent également une multitude d’effets secondaires, dont certains sont potentiellement mortels. Donc, en ce sens, il semblerait que Leptine ait raison : expliquer la « science » derrière ces tirs va envoyer les gens courir dans la direction opposée, et à juste titre.

    Les pays où le taux de vaccination est élevé ont exercé des pressions militaires et religieuses
    Cela laisse la force comme seule option sur la table. Leptin a souligné que les pays qui ont connu le plus grand recours aux vaccins contre le COVID-19 étaient ceux qui ont utilisé une forte coercition et dont les gouvernements n’ont pas perdu de temps « pour amener leurs citoyens à essayer de comprendre la science ».

    RépondreSupprimer
  14. Elle a cité comme exemple le pays d’Asie du Sud, le Bhoutan. Elle a déclaré qu’ils utilisaient l’influence de « l’establishment religieux » pour manipuler le public afin qu’il se fasse piquer.

    « L'un d'entre eux est le Bhoutan, où ils ont réussi à préparer une campagne et à impliquer [ ] ils ont été sensibles aux besoins du pays, aux besoins des citoyens, ont impliqué d'informer l'establishment religieux et, en fait, de les utiliser pour trouver le bon moment et date et ils ont eu une couverture fantastique. Aucune science n’a été expliquée », a-t-elle fait remarquer.

    Un autre exemple qu'elle a cité est celui du Portugal, où la campagne de vaccination aurait été confiée à un général de l'armée à la retraite.

    « Et le général d’armée a simplement traité le pays comme ses troupes et il a rallié les troupes. Il a déclaré que c'était une guerre que le pays, dans une passion patriotique, allait mener ensemble. Et là-haut, je pense qu’ils étaient leaders en Europe, voire dans le monde.

    Elle a ajouté : « Donc, pas de science. Souvenons-nous-en.

    Selon l'AP, le contre-amiral Henrique Gouveia e Melo ne s'est pas excusé de vouloir qualifier le déploiement du vaccin de « bataille », allant même jusqu'à porter ses treillis de combat pour envoyer un message au peuple portugais que c'était un appel aux armes.

    Il n’est pas surprenant que Leptin n’ait pas reconnu le fait qu’aucune des approches de ces pays n’impliquait d’obtenir le consentement éclairé des personnes soumises à ces vaccins potentiellement dangereux.

    Sans expliquer aux gens la science derrière ces vaccins, ils ne pourront en aucun cas fournir un véritable consentement éclairé. Apparemment, la liberté en matière de santé n’a pas d’importance pour elle et ses amis du Forum économique mondial.

    Les sources de cet article incluent :

    SlayNews.com
    Expose-News.com
    APNews.com

    https://www.naturalnews.com/2023-12-05-european-research-council-president-military-force-vaccination.html

    RépondreSupprimer
  15. BLACKOUT DES MÉDIAS : Top 10 des actualités récentes que HSH ne veut pas que vous sachiez


    12/05/2023
    By S.D. Wells


    Jamais dans l'histoire du monde on n'a menti chaque jour à autant de personnes sur leur santé et leur sécurité qu'aujourd'hui, et tout cela grâce aux médias de masse, qui ont hypnotisé, hypnotisé et stupéfié environ les trois quarts de la population entière. Pourquoi tant de gens croient-ils que les histoires des médias sont réelles ? Ils n’arrivent pas à comprendre que le gouvernement américain veut tous les réduire en esclavage, et cela inclut mentalement et physiquement. Ils sont tous abrutis par l’eau fluorée, les vaccins toxiques, les aliments transformés chargés de pesticides et les fausses nouvelles.

    Prenez par exemple la semaine ou les deux dernières semaines, où les nouvelles cachées sont assez alarmantes, mais les masses ne semblent pas pouvoir aller au-delà de la première page des recherches Google, ou poser la télécommande du téléviseur assez longtemps pour utiliser leur cerveau, ou arrêter en balayant vers la gauche assez longtemps sur leur appareil « intelligent » pour trouver des informations censurées qui prouvent que les MSM, qui incluent toutes les principales plateformes de médias sociaux, leur mentent, par omission. Nous y voilà avec les dernières nouvelles occultées, interdites, censurées, radiées, dé-financées et trouées de mémoire que TOUT LE MONDE devrait lire.

    Top 10 des actualités récentes que les HSH ne veulent pas que les masses stupéfaites trouvent et lisent

    #1 – L’OB-GYN dépose des données alarmantes sur les fausses couches devant le Congrès ; elle dit: "Je n'ai jamais vu ça auparavant."

    Saviez-vous que les taux de fausses couches ont doublé d'année en année depuis le déploiement des injections Fauci Flu (les « vaccins » à ARNm contre le Covid-19) ? Les blessures et les décès de bébés atteignent des proportions astronomiques à cause des injections mortelles de caillots, car le corps humain attaque les protéines étrangères prions (protéines de pointe) lorsqu'elles circulent dans le bébé, blessant ou tuant l'enfant avant même sa naissance.

    En fait, le Dr Kimberly Biss, obstétricienne-gynécologue qui a aidé dans le cadre de plus de 8 000 grossesses, déclare : « Je n'ai jamais vu cela auparavant », lorsqu'elle a témoigné devant le Congrès que son taux de fausses couches en 2020 était d'environ 4 % (c'est la moyenne). puis ce chiffre a doublé en 2021 pour atteindre environ 7 à 8 %, puis, de manière alarmante, ce taux a de nouveau doublé en 2022, jusqu'à atteindre un taux époustouflant de 15 %. Tout a commencé à culminer lorsque les vaccins toxiques contre la grippe chinoise sont sortis en novembre 2021. Coïncidence ?

    RépondreSupprimer
  16. #2 – Des images inédites bouleversent le récit « d’insurrection » du Comité J6.

    #3 - L'avocat accuse la CIA et le DoD d'être profondément impliqués dans le COVID-19.

    #4 – Les footballeurs s’effondrent et meurent encore trois ans après le déploiement du vaccin contre le COVID-19.

    #5 – Un tout-petit meurt deux jours après avoir reçu les vaccinations de routine.

    Selon le CDC, il est fortement recommandé et sans danger pour tous les enfants américains de recevoir 70 vaccins avant l'âge de 18 ans. Dix d'entre eux doivent être injectés avant l'âge de 15 mois. Cela n’inclut pas le traitement sans fin des prions par les protéines de pointe d’ARNm, éprouvant pour le cœur, envahissant les organes et qui se décline en une série de vaccins avec des rappels supplémentaires chaque année. L’escroquerie vaccinale est pleinement en vigueur, et les chercheurs en vaccins qui connaissent les conséquences la qualifient de « grande expérience médicale », mais vous ne lirez pas cela dans les médias grand public, ni n’en entendrez parler à la télévision.

    #6 – Des séquences vidéo montrent un prétendu système d’argent contre des votes en plein jour.

    #7 – Une mauvaise nouvelle frappe les doublement vaccinés avec une révélation alarmante sur les risques sanitaires.

    #8 - Une étude de Yale révèle les symptômes chroniques les plus courants après la vaccination contre le COVID-19.

    #9 - Le sénateur Ron Johnson présente le graphique le plus censuré de l'histoire du Congrès.

    La semaine dernière, le tristement célèbre « Tableau de deuxième opinion » a refait surface lors du panel médical du sénateur Ron Johnson qu'il a organisé pour les plus grands experts du monde. Le panel et le graphique ont révélé des événements indésirables liés à différents produits médicaux, notamment les vaccins Covid-19, le Remdesivir et l’ivermectine. Le graphique a été interdit, bloqué et censuré sur l’ensemble d’Internet depuis sa première publication, y compris des clips vidéo de YouTube, Fakebook, Twitter et TikTok géré par le PCC. Les données sont plus qu’alarmantes. Regarde:

    Comparaison des événements indésirables des médicaments (données FDA et CDC) : 01/01/1996 - 27/10/2023 :

    RépondreSupprimer
  17. Ivermectine - 4 265

    HCQ - 28 823

    Vaccin contre la grippe - 220 346

    Dexaméthasone - 110 185

    Tylénol - 136 079

    Remdésivir – 9 290

    Vaccins contre la COVID-19 – 1 605 764

    DÉCÈS:

    Ivermectine - 436

    HCQ - 2 337

    Vaccin contre la grippe – 2 337

    Dexaméthasone - 19 599

    Tylénol - 30 634

    Remdésivir - 2 240

    Vaccins contre la COVID-19 – 36 501

    Décès/Année :

    Ivermectine - 16

    HCQ-85

    Vaccin contre la grippe - 87

    Dexaméthasone - 713

    Tylénol - 1114

    Remdésivir - 770

    Vaccins contre la COVID-19 – 13 036

    #10 – Un pilote met en garde contre un désastre dans l’industrie aérienne dû aux vaccins contre le COVID-19.

    Grande question : pourquoi tant de pilotes, en parfaite santé, sont-ils morts « de manière inexplicable » au cours des trois dernières années, depuis le déploiement du vaccin anti-Covid, qui a forcé tant de personnes à se faire piquer ou à perdre leur emploi ? Comment ces pilotes passent-ils des tests médicaux rigoureux, puis meurent subitement dans le cockpit de crises cardiaques et d'accidents vasculaires cérébraux (des nanoparticules de protéines de pointe obstruent le système vasculaire et le cerveau) ? Nommez un présentateur de nouvelles ou un médecin disposé à dénoncer ce problème dans les médias grand public.

    Ajoutez Censored.news à vos sites Web préférés pour obtenir des informations véridiques sur les décès provoqués par les vaccins et les histoires de fraude électorale qui sont censurées par les médias pendant que vous lisez ceci.

    Sources for this article include:

    NaturalNews.com
    Twitter.com
    TheBurningPlatform.com
    VigilantNews.com

    https://www.naturalnews.com/2023-12-05-news-msm-doesnt-want-you-to-know.html

    RépondreSupprimer
  18. L'administrateur du gouvernement néo-zélandais qui a divulgué des données montrant un taux de MORT d'un sur quatre pour certains lots de vaccins COVID ARRÊTÉ


    12/05/2023
    Ethan Huff


    Ces derniers jours, des données gouvernementales accablantes ont été divulguées en Nouvelle-Zélande, montrant que plus de 24 % des lots de « vaccins » Pfizer contre le coronavirus de Wuhan (COVID-19) entraînent la mort. Depuis, nous avons appris que le lanceur d'alerte de l'administrateur gouvernemental qui avait déposé la marchandise avait été arrêté.

    Selon certaines informations, l'homme en question a été arrêté par les forces de l'ordre pour "accès à des ordinateurs à des fins trompeuses". C’est riche, étant donné que le fait que le gouvernement néo-zélandais ait caché ces données est une véritable tromperie.

    Le clip édité suivant présente les faits de ce que montrent les données, alors surveillez :

    (Connexe : partout dans le monde, des jeunes meurent à cause de cancers « turbo » apparus après le lancement de l'opération Warp Speed.)

    Quand dire la vérité s’appelle diffuser de la « désinformation »
    L'homme, 56 ans, a aidé à gérer la base de données où étaient conservées ces données. Tout ce qu'il a fait, c'est partager ces données publiquement, apparemment contre la volonté du gouvernement, et il est désormais persécuté par l'État.

    L’affirmation est que l’homme a abusé de la base de données en divulguant des données de vaccination qui exposent les vaccins COVID de Pfizer comme des vaccins mortels. Le gouvernement néo-zélandais accuse également l'homme de « diffusion de fausses informations sur le COVID-19 ».

    Encore aujourd’hui, les gouvernements du monde entier, y compris celui de la Nouvelle-Zélande, cachent au public la triste vérité sur les vaccins contre le COVID. Ils gardent ces informations sous clé tout en prétendant que les tirs sont sûrs et efficaces, ce qui constitue une forme de désinformation et de tromperie.

    À l’inverse, ceux qui tentent de dire la vérité se voient attribuer des étiquettes que le gouvernement mérite : des noms de criminel, de colporteur de désinformation ou de trompeur. La « pandémie » du coronavirus de Wuhan (COVID-19) n’a fait qu’aggraver ce problème, car quiconque défie l’histoire officielle est traité de menteur.

    RépondreSupprimer
  19. On se demande comment les tribunaux néo-zélandais justifieront la condamnation de l’homme en question simplement pour avoir divulgué au public des documents contenant des faits et la vérité sur les coups de feu. Le public permettra-t-il que cet homme courageux soit emprisonné simplement parce qu’il a fait ce qu’il fallait ?

    Et depuis quand les données gouvernementales pertinentes – les gouvernements n’existent en premier lieu que grâce au financement des contribuables – sont-elles devenues quelque chose qui doit rester secret ? Comment et pourquoi le public permet-il que ce type de tyrannie perdure ?

    Si vous pensez que ce genre de chose ne peut pas se produire ou ne se produit pas aux États-Unis également, détrompez-vous. Les médecins ont perdu leur licence médicale ; des responsables gouvernementaux ont été licenciés ; et oui, il y a même eu des Américains qui ont été poursuivis pour avoir divulgué des informations que le public a le droit de connaître.

    "J'ai participé à la construction du projet", explique l'homme dans la vidéo ci-dessus. "J'ai contribué à la mise en œuvre d'un système de paiement des vaccins pour nos prestataires. C'est ce qu'on appelle un système de paiement par dose. Cela signifie que chaque fois qu'une personne se fait vacciner, elle reçoit un paiement en tant que prestataire."

    "Et quand j'ai regardé les données, qui font partie de mon travail, j'ai remarqué des écarts avec les dates de décès : des gens mouraient dans la semaine après avoir été vaccinés."

    En termes simples, l’homme a remarqué dans le cadre de son travail que des Néo-Zélandais mouraient presque instantanément après avoir reçu des vaccins contre le COVID, il a donc décidé qu’il était dans l’intérêt public de partager cela publiquement. Et pour cela, il est maintenant persécuté.

    Comme on dit, aucune bonne action ne reste impunie, surtout dans l’ère post-Covid.

    Les dernières nouvelles sur la guerre menée par l’État profond contre ceux qui disent la vérité peuvent être trouvées sur Tyranny.news.

    Les sources de cet article incluent :

    Twitter.com
    NaturalNews.com

    https://www.naturalnews.com/2023-12-05-government-administrator-leaked-data-death-covid-vaccines.html

    RépondreSupprimer
  20. La FDA étudie le traitement du cancer par thérapie génique CAR-T après des rapports faisant état de patients développant de nouveaux cancers après la procédure


    12/05/2023
    Cassie B.


    L’une des critiques que beaucoup de gens adressent à la médecine moderne est le fait que certains types de traitements peuvent bien traiter une maladie mais ont la possibilité de créer un problème différent – et potentiellement encore pire. Il semble maintenant que cela pourrait être le cas d’un traitement de thérapie génique utilisé sur certains patients atteints de cancer après que des rapports ont révélé qu’il pouvait provoquer de nouveaux cancers du sang.

    Le traitement en question est connu sous le nom de CAR-T et a reçu l’approbation de la Food and Drug Administration (FDA) des États-Unis en 2017 pour traiter certains types de cancer du sang. Dans les années qui ont suivi, cependant, la FDA a reçu des rapports faisant état de tumeurs malignes à cellules T chez certains patients ayant subi ces traitements. Ces tumeurs malignes comprennent le lymphome, qui est un cancer touchant le système lymphatique.

    Le fonctionnement du CAR-T consiste à éliminer les globules blancs appelés lymphocytes T du sang du patient, puis à les modifier génétiquement pour former des protéines connues sous le nom de récepteurs d'antigènes chimériques, ou CAR. Ces récepteurs permettent aux lymphocytes T de s'attacher aux cellules cancéreuses et de les tuer. Une fois le processus de génie génétique terminé, les cellules modifiées sont ensuite réinjectées dans le sang du patient.

    Cependant, lorsque les cellules T sont génétiquement modifiées, un virus est utilisé pour insérer les nouveaux gènes dans l’ADN de la cellule. Une fois que ces cellules T modifiées sont réinsérées dans le sang du patient, elles ont le potentiel de perturber d’autres gènes, ce qui pourrait être à l’origine de nouveaux cancers chez ces patients.

    Les experts médicaux déclarent avoir été surpris par l'annonce de la FDA, certains affirmant qu'ils souhaiteraient plus d'informations sur l'état clinique des patients ayant subi cet effet ainsi que sur leurs antécédents médicaux pour fournir un certain contexte.

    Le directeur du Centre d'immunothérapie génétique et cellulaire de la faculté de médecine de l'Université de Washington, le Dr John de Persio, a déclaré au New York Times qu'aucun de ses quelque 700 patients ayant subi ce traitement n'a développé un nouveau type de cancer à cellules T comme un résultat.

    Il a ajouté que ce traitement est généralement réservé aux patients susceptibles de mourir autrement et qu’il agit sur « une partie substantielle » d’entre eux, leur sauvant ainsi la vie.

    RépondreSupprimer
  21. Il est important de noter, cependant, que de nombreux patients qui reçoivent CAR-T le reçoivent en dernier recours et ont déjà subi des traitements tels que la radiothérapie et la chimiothérapie qui ont échoué. Ces traitements peuvent également provoquer le développement de cancers.

    Tous les traitements CAR-T actuellement approuvés sont à l’étude

    Le risque de développer des tumeurs malignes à cause du CAR-T s'applique aux six produits CAR-T dont l'utilisation est actuellement approuvée aux États-Unis. Une analyse réalisée par le site d'information médicale Fierce Pharma révèle que 12 cas de lymphome à cellules T liés au CAR-T ont été signalé jusqu'à présent. Kymriah de Novartis a été lié à sept cas, tandis que Yescarta de Gilead a été lié à trois et Carvykti de J&J et Legend et Breyanzi de Bristol Myers Squibb ont chacun été liés à un cas.

    Tous ces traitements ont été associés à de nombreux événements indésirables dans le système de déclaration des événements indésirables des vaccins de la FDA, selon une analyse des données réalisée par Epoch Times. Il y a eu des milliers de cas graves et de décès au total, notamment des troubles du système sanguin et lymphatique.

    La FDA a déclaré dans un communiqué : « Bien que les avantages globaux de ces produits continuent de dépasser leurs risques potentiels pour leurs utilisations approuvées, la FDA étudie le risque identifié de tumeur maligne des lymphocytes T avec des conséquences graves, notamment l'hospitalisation et la mort, et évalue la nécessité. pour une action réglementaire.

    Les sources de cet article incluent :

    TheEpochTimes.com
    NYTimes.com

    https://www.naturalnews.com/2023-12-05-fda-investigating-cancer-treatment-patients-develop-new-cancer.html

    RépondreSupprimer
  22. Ils font disparaître les preuves de l’empoisonnement / Le mystère des lots tueurs s’épaissit


    le 6 décembre 2023
    par pgibertie


    Le scénario néo zélandais se poursuit , faire disparaitre toute trace de lots hyper contaminés , mortalité toute cause de un vaxxxcccc sur 5. Étrange ces lots n’ont servique pour quelques centaines de personnes. Les lots non dangereux ont été utilisés eux pour des milliers ou dizaines de milliers de personnes….

    Savaient ils avant d’utiliser ????

    Young est bien l’administrateur de la base de données gouvernementale N-Z d’où il a tiré ses tableaux, qu’il a anonymisés. Il a été arrêté peu de temps après l’interview ci-dessous de (@LizGunn18) Liz Gunn, non pas pour avoir menti mais seulement pour avoir révélé des données confidentielles et « répandu de la désinformation ». Insistons sur le fait qu’aucun nom n’avait été révélé, ni vaccinateurs ni vaccinés, seulement les noms de lieux et les statistiques de mortalité. Comme telles, les infos partagées sont du domaine public et auraient pu être obtenues sur simple demande d’accès à l’information (FOAI), dans une démocratie fonctionnelle.

    Le scientifique génomique américain Kevin McKernan affirme avoir perdu environ 200 000 dollars de données de recherche après la suppression de son compte sur le service d’hébergement de fichiers MEGA du jour au lendemain

    Il semble que le compte de McKernan ait été supprimé par MEGA à la demande du gouvernement néo zélandais

    McKernan avait téléhargé des données de Kirsch sur son compte MEGA , celles qui prouvaient la forte mortalité de certains lots de vaccccxxxins en Nouvelle Zélande

    le service de santé néo-zélandais a obtenu une injonction pour empêcher le partage de données de santé publique divulguées par lanceur d’alerte, Barry Young.

    *

    Du nouveau sur les lots tueurs supercontaminés ; ils veulent même faire disparaitre les preuves en Nouvelle Zélande
    Publié le 4 décembre 2023 par pgibertie

    ALERTE Barry Young, l’administrateur de base de données Oracle néo-zélandais qui a divulgué les dossiers de vaccination, a été arrêté et accusé d’avoir « accédé à un système informatique à des fins malhonnêtes » et comparaîtra aujourd’hui 4/12 devant le … Lire la suite →

    Le responsable informatique de la vaccccc covid en Nouvelle Zélande découvre un taux de mortalité de 21% pour certains lots de produits ARNm surcontaminés
    Publié le 1 décembre 2023 par pgibertie

    ALERTE Barry Young, l’administrateur de base de données Oracle néo-zélandais qui a divulgué les dossiers de vaccination, a été arrêté et accusé d’avoir « accédé à un système informatique à des fins malhonnêtes » et comparaîtra aujourd’hui 4/12 devant le … Lire la suite →

    Une étude Pfizer de 2021 démontrait que les lots fabriqués en Europe étaient 6 fois plus dangereux que les américains , Lilly a t elle baclé la purification des lots? https://pgibertie.com/2023/11/19/une-etude-pfizer-de-2021-demontrait-que-les-lots-fabriques-en-europe-etaient-6-fois-plus-dangereux-que-les-americains-lilly-a-t-elle-baclee-la-purification-des-lots/… via

    https://pgibertie.com/2023/12/06/ils-font-disparaitre-les-preuves-de-lempoisonnement-le-mystere-des-lots-tueurs-sepaissit/

    RépondreSupprimer
  23. Les escrocs du climat veulent 2,4 billions de dollars par an, et bien plus de taxes pour « résoudre » le réchauffement climatique


    PAR TYLER DURDEN
    MERCREDI 06 DÉCEMBRE 2023 - 00H25


    Lors du sommet climatique COP28, les escrocs du réchauffement climatique se sont concentrés sur l’élimination progressive des véhicules à essence et des centrales électriques à combustibles fossiles.

    COP28 🌐 Wow, Next Level Gaslighting 🔥 Hillary Clinton laisse tomber les informations erronées sur les arnaques au changement climatique ci-dessous..🔥 "En Europe l'année dernière, ils ont enregistré 61 000 décès dus à la chaleur extrême, l'Afrique pourrait en voir 500 000"... Je suis 💯 sûr que ces décès n'avaient rien à voir avec un Vax expérimental 🔥 pic.twitter.com/QUWYVmI5Mf
    – 𝙍𝙄𝙎𝙀𝙈𝙀𝙇𝘽𝙊𝙐𝙍𝙉𝙀 (@Risemelbourne) 5 décembre 2023

    Bill Gates, le pompier du Covid-Jab, est passé à l’escroquerie « verte » lors de la conférence COP28 sur la fraude climatique. Il fait pression en faveur de taxes sur le carbone et admet même qu’il s’agit de promouvoir des industries comme les voitures électriques et les avions à hydrogène.

    Combien d’argent Gates a-t-il investi dans ces industries ? pic.twitter.com/sWPTLe2C9l
    – Paul Mitchell (@PaulMitchell_AB) 3 décembre 2023

    Alors que le DG de l’OMS tente de promouvoir le discours selon lequel les combustibles fossiles sont une cause du changement climatique, le président de la COP28, Sultan Al Jaber, a déclaré lors de la COP28 qu’il n’existe « aucune donnée scientifique » indiquant qu’une élimination progressive des combustibles fossiles est nécessaire pour limiter le réchauffement climatique à 1,5°C. Il a également dit un… pic.twitter.com/euUmaVmIAq
    – Dr Kat Lindley (@KLVeritas) 4 décembre 2023

    Ils ont été accueillis avec un point de vue différent lorsque le sultan Al Jaber, président de la COP28, a déclaré qu'il n'y avait « aucune science » soutenant l'idée selon laquelle l'élimination des combustibles fossiles permettrait de freiner le réchauffement climatique.

    Le sultan Al Jaber, chargé d’éloigner le monde des combustibles fossiles, avait déclaré qu’il n’existait « aucune science » pour soutenir une élimination progressive du pétrole et du gaz.

    La vérité a éclaté et les têtes des mondialistes ont tourné. pic.twitter.com/BCQkQQVhzZ
    – Mark Nantz (@BullseyeBanjo) 5 décembre 2023

    Le commentaire de Jaber est un signe de bienvenue. Cependant, cela n'a pas empêché les discussions d'autres participants qui ont évoqué la nécessité d'investir des milliards de dollars, voire des milliers de milliards, dans les technologies « vertes » par les pays développés pour vaincre le changement climatique.

    RépondreSupprimer
  24. Ce sont les sources d’énergie les plus sûres (et les plus mortelles)


    PAR TYLER DURDEN
    MERCREDI 06 DÉCEMBRE 2023 - 08H45


    Les récentes discussions sur le changement climatique, les émissions et la santé ont mis en lumière les sources d’énergie mondiales.

    En 2021, près de 90 % des émissions mondiales de gaz carbonique provenaient des combustibles fossiles. Mais la production d’énergie n’entraîne pas seulement des émissions de carbone, elle peut également provoquer des accidents et une pollution atmosphérique qui ont un impact considérable sur la vie humaine.

    Freny Fernandes de Visual Capitalist présente ce graphique de Ruben Mathisen qui utilise les données de Our World in Data pour aider à visualiser exactement à quel point ces sources d'énergie sont sûres ou mortelles.

    - voir cadre sur site -

    Les combustibles fossiles sont les plus gros émetteurs
    Toutes les sources d’énergie produisent aujourd’hui des gaz à effet de serre, directement ou indirectement. Toutefois, les trois principales sources d’énergie émettrices de GES sont toutes des combustibles fossiles.

    - voir cadre sur site -

    Le charbon produit 820 tonnes d’équivalent gaz carbonique(CO₂e) par gigawattheure. Non loin derrière se trouve le pétrole, qui produit 720 tonnes d’équivalent gaz carbonique par gigawattheure. Pendant ce temps, le gaz naturel produit 490 tonnes d’équivalent gaz carbonique par gigawattheure.

    Ces trois sources contribuent à plus de 60 % de la production mondiale d’énergie.

    RépondreSupprimer
  25. Effets mortels
    La production d’énergie à grande échelle peut avoir d’autres effets secondaires, comme la pollution de l’air ou des accidents qui coûtent des vies humaines.

    - voir cadre sur site -

    Selon Our World in Data, la pollution de l’air et les accidents dus à l’exploitation minière et à la combustion de charbon sont responsables d’environ 25 décès par térawattheure d’électricité, soit environ la quantité consommée par environ 150 000 citoyens de l’UE en un an. La même mesure estime que le pétrole est responsable de 18 décès par an et le gaz naturel de trois décès par an.

    Pendant ce temps, l’hydroélectricité, qui est la source d’énergie renouvelable la plus largement utilisée, provoque un décès par an pour 150 000 personnes. Les sources d’énergie les plus sûres sont de loin l’énergie éolienne, solaire et nucléaire, avec moins de 0,1 décès annuel par térawattheure.

    L’énergie nucléaire, en raison du volume considérable d’électricité produite et du faible nombre de décès qui y sont associés, est l’une des sources d’énergie les plus sûres au monde, malgré les idées reçues.

    https://www.zerohedge.com/energy/these-are-safest-and-deadliest-energy-sources

    RépondreSupprimer
    Réponses
    1. Notre magma (à 30 km sous nos pieds) produit des millions de fois plus de gaz carbonique que tous les humains, animaux et industries réunis !... et... NOUS NE SOMMES PAS MOOOOOORTS !

      Le gaz carbonique est le gaz le plus lourd et se situe au ras du sol. Allongez vous au sol, sur la plage, est-ce que vous mourez ? éprouvez-vous des maux de tête ? Non ! Çà alors !!
      TOUS les gaz se recyclent immédiatement sans quoi la vie sur Terre ne serait jamais apparue !

      Supprimer
  26. Les émissions mondiales devraient atteindre un nouveau record cette année, grâce à la Chine et à l'Inde


    PAR TYLER DURDEN
    MERCREDI 06 DÉCEMBRE 2023 - 11H00
    Par Charles Kennedy de OilPrice.com


    Les émissions mondiales provenant de la combustion d’hydrocarbures tels que le pétrole et le gaz devraient atteindre un nouveau record cette année, prévient le rapport Global Carbon Budget.

    « Les émissions de gaz carbonique fossile diminuent dans certaines régions, notamment en Europe et aux États-Unis, mais augmentent dans l’ensemble – et les scientifiques affirment que l’action mondiale visant à réduire les combustibles fossiles n’est pas assez rapide pour empêcher un changement climatique dangereux », ont déclaré les auteurs du rapport.

    Publié lors de la conférence COP28, le rapport indique que les émissions mondiales atteindront 36,8 milliards de tonnes cette année, ce qui représenterait une augmentation de 1,1 % en 2022, selon les auteurs du rapport.

    Le rapport est produit par un groupe d'institutions scientifiques dirigé par l'Université d'Exeter.

    Il s’agit des émissions générées directement par la combustion des hydrocarbures. Si l’on y ajoute les émissions liées à l’utilisation des terres, le total s’élève à 40,9 milliards de tonnes de gaz carbonique. Ce total a plafonné, selon les auteurs du rapport, en raison d'une baisse des émissions liées à l'utilisation des terres provenant d'activités telles que la déforestation.

    Toutefois, les émissions provenant du pétrole, du gaz et du charbon sont en augmentation, sous l’impulsion des principales économies du monde en développement. Les émissions de la Chine ont augmenté après la réouverture de son économie à la suite des confinements liés à la pandémie, indique le rapport. L'Inde, en revanche, a vu ses émissions augmenter parce que la demande d'énergie augmentait plus rapidement que l'Inde n'ajoutait des sources d'énergie à faible émission de carbone à son réseau, ont également indiqué les auteurs.

    RépondreSupprimer
  27. "Il semble désormais inévitable que nous dépassions l'objectif de 1,5°C de l'Accord de Paris", a déclaré Pierre Friedlingstein, auteur principal du rapport et titulaire de la chaire de modélisation mathématique du système climatique à l'Université d'Exeter.

    "Les dirigeants réunis à la COP28 devront convenir de réductions rapides des émissions de combustibles fossiles, même pour maintenir l'objectif des 2C", a ajouté Friedlingstein dans des commentaires inclus dans le communiqué de presse détaillant les conclusions du rapport.

    La COP28 se concentre particulièrement sur les hydrocarbures, mais peu de gens pensent que cela mènerait à un accord significatif pour leur élimination progressive.

    https://www.zerohedge.com/energy/global-emissions-are-set-another-record-year-thanks-china-and-india

    RépondreSupprimer
  28. Près de 4 000 concessionnaires automobiles exhortent Biden à abandonner son programme « irréaliste » sur les véhicules électriques dans un contexte de chute des ventes


    12/05/2023
    Laura Harris


    Près de 4 000 concessionnaires automobiles de partout aux États-Unis ont envoyé une lettre au président Joe Biden, l'exhortant à abandonner son programme d'énergie verte « irréaliste » impliquant l'expansion de l'utilisation des véhicules électriques (VE) en raison des ventes et des ventes inférieures aux prévisions. adoption.

    Dans la lettre, les chefs et les dirigeants des concessionnaires automobiles ont conseillé à Biden d’abandonner les mandats relatifs aux véhicules électriques et les exigences en matière d’énergie verte pour les véhicules électriques à batterie (BEV), qui exigent que deux véhicules sur trois vendus aux États-Unis d’ici 2032 soient des véhicules électriques. Les concessionnaires automobiles affirment que la demande des consommateurs pour les véhicules électriques ne correspond pas à l’afflux de VEB arrivant chez les concessionnaires, ce qui entraîne une accumulation de véhicules invendus malgré de fortes baisses de prix, les incitations des fabricants et les subventions gouvernementales.

    « Chaque jour qui passe, il devient de plus en plus évident que cette tentative de mandat de véhicule électrique est irréaliste, compte tenu de la demande actuelle et prévue des clients. Déjà, les véhicules électriques s'accumulent sur nos lots, ce qui est notre meilleur indicateur de la demande des clients sur le marché. les concessionnaires automobiles ont écrit.

    Les concessionnaires automobiles affirment que la technologie actuelle est inadéquate pour répondre aux besoins de la majorité des consommateurs. Ils implorent l'administration de « freiner le mandat irréaliste du gouvernement en matière de véhicules électriques » et de se concentrer plutôt sur l'avancement de la technologie des batteries, l'amélioration de l'abordabilité des véhicules électriques, le développement de sources minérales nationales pour les batteries et la mise en place d'une infrastructure de recharge fiable. (Connexe : Le passage à l'énergie verte est actuellement impossible en raison de la pénurie mondiale de batteries et de minéraux nécessaires au stockage de l'énergie.)

    RépondreSupprimer
  29. Cela, à son tour, donnerait au consommateur américain le temps de se familiariser avec la technologie et de faire des choix éclairés concernant ses préférences en matière de véhicule.

    Les concessionnaires automobiles font face à des ventes de véhicules électriques lentes malgré les remises et les incitations
    Les experts de l’industrie automobile soutiennent les concessionnaires automobiles, car ils savent que ceux-ci ont du mal à vendre leurs véhicules électriques. L'annuaire d'inventaire automobile en ligne Edmunds a révélé qu'en septembre 2022, les véhicules électriques n'ont passé en moyenne que 21 jours chez les concessionnaires avant d'être vendus. Ce chiffre est depuis passé à 65 jours. Cette réticence et cette perte d’intérêt pour les véhicules électriques sont renforcées par la situation actuelle des ventes de véhicules électriques aux États-Unis.

    Par exemple, Mickey Anderson, qui possède 20 concessionnaires dans le Nebraska, le Missouri et le Colorado, a initialement reçu près de 200 commandes pour le Ford F-150 Lightning EV lors de son annonce. Cependant, l’enthousiasme s’est atténué avec le temps, ce qui n’a donné lieu qu’à 25 ventes Lightning sur 1 000 camions Ford de série F vendus en 2022.

    Anderson a actuellement 12 Lightning en stock, ce qui équivaut à un approvisionnement d'environ six mois, et offre des rabais importants, notamment jusqu'à 14 000 $ d'incitatifs Ford, des rabais chez les concessionnaires et un crédit d'impôt fédéral de 7 500 $ pour attirer les acheteurs.

    Bien que ses actions semblent aussi prometteuses qu'elles puissent paraître, Andreson ne peut nier le fait qu'il doit encore tenir compte des difficultés auxquelles les consommateurs américains seront confrontés si les concessionnaires à l'avenir proposent uniquement des véhicules électriques.

    Pendant ce temps, Mary Rice, propriétaire d'un concessionnaire Toyota à Greensboro, en Caroline du Nord, est frustrée que les Prius hybrides nouvellement redessinées se vendent bien dans la région sud-est de Toyota, mais que les SUV BZ4X entièrement électriques ne bougent pas, restent inactifs et ramassent la poussière.

    Elle a déclaré que si les gens étaient désireux d’acheter des véhicules électriques, ce serait formidable, mais elle s’attend à se retrouver avec des véhicules électriques invendus à la fin de l’année malgré les réductions offertes, car il semble y avoir peu d’intérêt.

    Regardez Glenn Beck exposer la guerre secrète de Biden contre l'énergie américaine dans la vidéo ci-dessous.

    RépondreSupprimer
  30. Cette vidéo provient de la chaîne High Hopes sur Brighteon.com.

    Plus d'histoires connexes:

    Supprimer progressivement les combustibles fossiles et les remplacer par de l'énergie « verte » est une « illusion dangereuse », prévient le rapport.

    Les problèmes de la chaîne d’approvisionnement des véhicules électriques poussent GM à construire à la main des batteries « vertes » pour les voitures électriques.

    Personne n’achète de voitures électriques, mais les constructeurs automobiles continuent de les fabriquer conformément à un programme « vert ».

    Passer au vert peut vous coûter BEAUCOUP de billets verts : un homme de l'Ohio a facturé 42 000 $ pour réparer son pick-up Rivian EV suite à un accrochage.

    L’Allemagne met fin à l’interdiction des voitures à essence, provoquant la colère de l’UE et de fausses accusations de « chantage » contre le Green Deal et le programme Net Zero.

    Les sources incluent :

    Breitbart.com
    Axios.com
    Brighteon.com

    https://www.naturalnews.com/2023-12-05-car-dealers-biden-abandon-unrealistic-ev-agenda.html

    RépondreSupprimer
  31. Le professeur Rahmstorf découvre Internet, ou : qu'y a fait Statistique Norvège ?


    7 décembre 2023
    par Assoc. Prof. Dr. Stephan Sander Faes


    À l’automne, un « document de travail » est apparu sur la page d’accueil du Statens Statistisk Sentralbyrå (SSB), qui a fait sensation dans ce pays. Un « article controversé », selon les « médias de premier plan et de qualité » à l'unisson, dans lequel des doutes sur le « changement climatique » ont été exprimés, a été publié. Le fait que le SSB y participe n’est rien de moins qu’une attaque contre la décence, la moralité et la crédibilité d’une vénérable institution étatique. Et puis les médias norvégiens ont au moins jeté un coup d'œil à l'étude, mais c'était évidemment un peu trop demander au professeur Stefan Rahmstorf de l'Institut de recherche sur l'impact climatique de Potsdam, qui a « découvert » l'étude fin novembre, a déclaré L’attaque n’est même pas allée aussi « loin » que les « médias leaders et de qualité » norvégiens.

    Le sujet est si brûlant que j’en ai parlé (sous un titre certes pas nécessairement sensationnel) sur mon Substack le 2 octobre 2023. Vous pouvez trouver cet article ici , à ce stade, une traduction ou une extension en allemand pour inclure l' article mentionné précédemment de Stefan Rahmstorf suit .

    Afin de clarifier d'éventuels conflits d'intérêts, je précise également que j'ai rencontré une fois M. Rahmstorf lorsqu'il parlait du « changement climatique » lors d'une formation continue à l'Université de Zurich en 2017, sur mon invitation ; Nous avons eu une bonne conversation pendant la pause déjeuner en marge de cet événement, et M. Rahmstorf m'a alors expliqué que le « pire des cas » du rapport du IPCC alors en vigueur (appelé « RCP 8.5 ») n'était pas réaliste, mais je ne dirai pas à voix haute que cela relève de la communauté du changement climatique, sinon l'urgence pourrait être perdue.

    « Les scientifiques ne croient pas avoir de preuves »

    Ainsi Kary Mullis, citée par Celia Farber dans son grand livre Serious Adverse Events (Chelsea Green, 2023, p. 129), que j'ai presque fini de lire. Hautement recommandé.

    C'est un article très long, si vous êtes ici à cause du titre ou des déclarations de Stefan Rahmstorf mais que vous souhaitez ignorer le « contexte » et les « contextes », faites défiler jusqu'au titre « Comment épelez-vous l'argument Stohmann dans Climate Research™ ? » plus loin.

    RépondreSupprimer
  32. Connexions nordiques entre le capital, les médias et le gouvernement
    Un matin d'octobre, alors que je sirotais mon café et parcourais nonchalamment les vieux médias norvégiens, je suis tombé sur un article très inquiétant. La première chose que j’ai remarquée était un petit titre sur la page d’accueil de Bergens Tidende qui faisait référence à un article que j’appelle « journalisme secondaire », c’est-à-dire que quelqu’un avait rédigé un résumé de quelque chose paru ailleurs. Ceci est assez courant ici en Norvège, car la plupart des « médias privés de premier plan et de qualité » appartiennent au groupe Schibsted, en particulier les principaux journaux du pays à Oslo ( Aftenposten ) et à Bergen ( Bergens Tidende ).

    En passant, de tels avis (« Première publication sur [insérer la position] ») sont tout aussi courants, mais même un rapide coup d'œil à la structure de propriété d' Aftenposten et de Bergens Tidende est révélateur : tous deux appartiennent au groupe Schibsted , son actionnaire majoritaire. (60,1 %) est ce qu'on appelle « Tinius Trust », une fondation fondée au milieu des années 1990 par le légendaire journaliste Einar Fredrik Åke « Tinius » Nagell-Erichsen par l'intermédiaire de sa société d'investissement Blommenholm Industrier , qui en possède un autre quart (25,1 %). %) d’actions Schibsted. Le reste, comme nous le dit Wikipédia (de toutes choses), appartient à des sociétés telles que Deutsche Bank, Goldman Sachs, JP Morgan Chase et UBS, dont les actions sont à un chiffre. Il va sans dire que, comme l’indique le « Tinius Trust » dans ses « Principes de gouvernance d’entreprise », la « conviction fondamentale » de la fondation est d’être un « propriétaire actif et influent… en tant que plus grand propriétaire de Schibsted ».

    Rien de nouveau sous le soleil nordique pour l’instant, ce qui permet de passer au vif du sujet.

    Le rapport sur les « médias leaders et de qualité » (sic) passe à côté de l’essentiel
    Hier, 1er octobre 2023, un article intéressant est paru dans Bergens Tidende . Sous le titre « L’Office national des statistiques publie un article controversé sur le [changement] climatique » (orig. « SSB a publié de manière controversée forskningsartikkel om klima »), ce n’était guère plus qu’une répétition bon marché de ce qu’Aftenposten avait publié précédemment. Étant donné que les deux médias appartiennent à Schibsted, il s’agit là d’un cas évident de « journalisme secondaire » susmentionné.

    Nous suivons donc le rapport d'Aftenposten ( original avec paywall , version archivée sans paywall ), dont le titre et le sous-titre sont plus proches de la vérité :

    SSB [Statistisk Sentralbyrå, ou Statistics Norvège] publie un document de recherche controversé sur le changement climatique – et est massacré

    L'Office norvégien des statistiques a publié un document de recherche qui remet en question le changement climatique d'origine humaine. Maintenant, ils veulent changer leurs propres règles [pour la publication].

    RépondreSupprimer
  33. Cela étant dit, comment une populace certes mal lavée et déplorable peut-elle oser « partager avec zèle » un contenu aussi hérétique sur les réseaux sociaux ?

    À propos, le Centre Cicéron pour la recherche sur le climat n'est pas un centre de recherche indépendant, mais plutôt une branche du gouvernement norvégien organisée sous la forme d'une fondation fondée en 1990. Mais l’article d’Aftenposten ignore délibérément ceci :

    Cicéron critique le fait que l'article ait été publié sur le site Internet de SSB avec le logo de SSB et sans autre explication sur le contenu de l'article ni sur qui en était l'auteur.

    Il est grave qu'une agence gouvernementale de facto (le Centre Cicéron pour la recherche sur le climat) critique maintenant une autre agence gouvernementale de jure (Statens Statistisk Sentralbyrå) pour avoir publié une étude, et sur le site Web de la SSB, avec le logo de la SSB et qui était publié sans aucune autre explication sur le sujet de l'article ou sur qui en était l'auteur.

    Cette position n’est d’ailleurs objectivement exacte que si l’on ignore tous les autres « documents de recherche » publiés ou distribués par le Statens Statistisk Sentralbyrå pour, enfin, stimuler les débats politiques. Mais puisque tous ces autres « documents de recherche » ne s’écartent pas du courant dominant établi, il va de soi que les auteurs de ce document sur le changement climatique sont en fait « controversés », voire carrément « nocifs », n’est-ce pas ?

    Il est intéressant de noter que ces types de documents de recherche ne sont pas évalués par des pairs comme dans les revues scientifiques ou les monographies de recherche, mais sont soumis à des évaluateurs internes , ce qui signifie qu'une personne travaillant au Statens Statistisk Sentralbyrå a probablement lu l'étude, l'a trouvée intéressante et l'a publiée.

    Et cela nous amène au cœur de cette affaire d’État : il semble que ce soit ce crime de pensée et la publication ultérieure de l’étude qui ont provoqué la colère des gardiens du discours. Et c'est presque une expression auxiliaire si vous continuez à lire le post d'Aftenposten :

    Le climatologue Bjørn Samset décrit l’analyse comme « si faible qu’elle est presque sans valeur ».

    On voit ici comment M. Samset qualifie les haut-parleurs internes des CFF d'idiots, pour ainsi dire. Cependant, le paragraphe suivant révèle également qu’il s’agit de quelque chose de bien pire :

    Qui se cache réellement derrière cet article controversé et que dit-il ?

    Statisticien et ingénieur civil à la retraite

    RépondreSupprimer
  34. L'article résume une soi-disant note de discussion du département de recherche du Statens Statistisk Sentralbyrå. Jusqu'à jeudi, l'article du SSB lui-même ne disait rien sur ce qu'est un tel document de discussion. Il n’a également rien dit sur qui était derrière tout cela.

    Pour le savoir, il fallait recourir à un article PDF en anglais. [Oh, quel affront : il faut cliquer sur un lien et lire quelque chose en anglais…]

    Linda Nøstbakken, directrice de recherche au Statens Statistisk Sentralbyrå, explique qu'il est courant dans la recherche sociale de publier de tels documents de travail afin de recevoir des suggestions et des discussions avant qu'ils ne soient envoyés pour publication. Il a été lu et commenté par des collègues du Statens Statistisk Sentralbyrå, mais n'a pas été évalué par des pairs. Les conclusions sont à la charge des auteurs et ne sont pas partagées par Statens Statistisk Sentralbyrå.

    Aucune personne sensée effectuant un travail scientifique n’a besoin d’une confirmation officielle. Quiconque a « besoin » de quelque chose comme ça est plus susceptible d’être actif dans une secte ou une secte, mais pas dans la « science ».

    Dans ce cas, les conclusions sont tirées par John Kristoffer Dagsvik et le co-auteur Sigmund H. Moen. Dagsvik est un statisticien et chercheur à la retraite du Statens Statistisk Sentralbyrå. Moen est un ingénieur civil à la retraite.

    Nous savons maintenant qui a écrit cette étude - et c'est là que les choses deviennent "drôles" dans le sens de révéler le déclin avancé de la "science" en tant qu'activité sociale depuis qu'a été pratiquée ce qu'on a appelé la "révolution scientifique" du XVIIe siècle ( en dehors des publications de Steven Shapin, la présentation quasi-standard est celle de H. Floris Cohen, The Scientific Revolution , Chicago, 1994).

    Lorsque nous parlons de « paradigme » ci-dessous, je fais référence à Thomas S. Kuhn, The Structure of Scientific Revolutions (Chicago, 1962) ; Plus d'informations peuvent être trouvées ici .

    Nous entrons dans un nouveau paradigme, celui de la science est terminé
    N'oubliez pas que tout ce qui précède est énoncé, cité et moralisé avant qu'une seule déclaration du document de recherche ne soit citée. En d’autres termes : le « reportage » dans les « médias de premier plan et de qualité » met le proverbial cheval avant la charrue (contextualisation, traitement éditorial). Extrait du message d' Aftenposten :

    RépondreSupprimer
  35. Alors, qu’ont fait ces deux-là qui ont attiré autant d’attention ?

    Une étude ne révèle aucun effet du gaz carbonique Dagsvik et Moen ont évalué les séries de températures de la NASA provenant de 95 stations mesurant les températures de surface dans le monde entier.

    L'analyse est une mise à jour d'un article publié en 2020 dans le Journal of the Royal Statistical Society [Série A, n° 183, pp. 883-908] .

    Oh, qu'est-ce qu'on voit ici ? Il existe en fait un article évalué par des pairs qui sous-tend le « document de travail » que MM. Dagsvik et Moen, tous deux à la retraite, ont co-écrit et soumis à une revue véritablement « scientifique ». Vous pouvez lire l’article intitulé « Comment la température varie au fil du temps Preuves sur la caractéristique stationnaire et fractale des fluctuations de température » en cliquant sur le titre. D’ailleurs, j’ai un accès (institutionnel) au contenu publié par nul autre qu’Oxford University Press (un éditeur universitaire très respecté). Si vous souhaitez lire l'étude sous-jacente mais que vous ne pouvez pas le faire en raison de la barrière de paiement, je serais heureux de vous envoyer l'étude (un e-mail suffit), bien sûr à des fins de recherche.

    L'article de Dagsvik et Moen a été soumis en 2016 et a apparemment fait l'objet d'un certain nombre de révisions et de modifications et bien sûr du processus de révision et de rédaction avant d'être publié en 2020.

    Les auteurs qui ont publié un article scientifique évalué par des pairs dans une publication universitaire pertinente sont désormais pénalisés pour avoir osé « mettre à jour » leur analyse par une personne (Stine Barstad) qui, si son profil LinkedIn est raisonnablement précis, a travaillé sur littéralement n'importe quoi, est titulaire d'une licence en « Journalisme et économie » de la City University de Londres (1998-2001) et d'une maîtrise en « Politique de l'économie mondiale » de la London School of Economics (2003-04).

    Elle est aidée dans cette entreprise par Bjørn Samset, l'équivalent d'un « climatologue™ » certifié qui parvient à peine à contrôler ses émotions ( profil de la page d'accueil ). Il semble presque inutile de mentionner qu’il a initialement suivi une formation de physicien et qu’il est décrit dans son profil officiel comme un « communicateur scientifique » titulaire d’un doctorat en physique nucléaire de l’Université d’Oslo, en Norvège (2006).

    Si vous ou moi, qui n'avons aucun de ces titres fantaisistes, donnions des conférences comme "Comment nous pouvons sauver le monde" (Dr Samset) et lisions simplement des études, faisions quelque chose comme ça, beaucoup de gens lèveraient les yeux au ciel. . En dehors de cela, la question reste de savoir pourquoi un physicien nucléaire ne travaille pas « dans » ou « sur la recherche nucléaire » dans une université renommée ou dans le secteur privé, mais passe plutôt ses journées comme « communicateur scientifique ».

    Mais tournons-nous maintenant vers l’article de Dagsvik et Moen, deux professionnels « à la retraite », l’un statisticien et l’autre ingénieur civil. Que pourraient savoir ces deux personnes que, disons, des « journalistes » comme Stine Barstad ou des « communicateurs scientifiques » comme Bjørn Samset ignorent ?

    RépondreSupprimer
  36. Alors découvrons de quoi il s’agit, d’accord ?

    Dagsvik et Moen, « Comment la température varie-t-elle dans le temps ? (2023)
    D'après le résumé des auteurs (c'est moi qui souligne, références omises ; source ):

    Les conditions météorologiques et les températures fluctuent d’une manière difficile à expliquer et à prévoir avec précision. Cet article examine les données sur les fluctuations de température passées et les raisons possibles de ces fluctuations. Il examine ensuite les principales caractéristiques des modèles climatiques mondiaux et les analyses statistiques menées par d'autres pour déterminer la capacité des modèles climatiques mondiaux à suivre les températures historiques . Ces tests montrent que les modèles climatiques standards sont contredits par les données chronologiques sur les températures mondiales. Enfin, nous mettons à jour et étendons les analyses statistiques précédentes des données de température. À l’aide d’arguments théoriques et de tests statistiques, nous concluons que les effets des émissions de gaz carbonique d’origine humaine ne semblent pas suffisamment forts pour provoquer des changements systématiques dans les fluctuations de température au cours des 200 dernières années .

    Cela semble épicé, non ? Lisons plus loin :

    Une caractéristique typique des séries de températures observées au cours des deux derniers siècles est qu'elles montrent plus ou moins une tendance à la hausse ... Une question clé est de savoir si cette tendance fait partie d'un cycle ou si la configuration des températures au cours de cette période s'écarte systématiquement des précédentes. fluctuations. Même s’il s’avère que les fluctuations de température récemment enregistrées diffèrent systématiquement des modèles de fluctuation précédents, il reste difficile de déterminer dans quelle mesure ce changement est dû à l’augmentation des émissions de gaz carbonique et d’autres gaz à effet de serre d’origine humaine .

    Il semble actuellement y avoir un large consensus parmi de nombreux climatologues sur le fait que l’augmentation des températures au cours des dernières décennies est systématique (et en partie causée par l’homme) . C'est du moins l'impression donnée par les médias. Il est très difficile pour les profanes d’avoir une vue d’ensemble de la recherche dans ce domaine, et il est presque impossible d’avoir une vue d’ensemble et de comprendre les fondements scientifiques d’un tel consensus. Cet article examine plus en détail les données de températures passées observées et reconstruites ainsi que les propriétés et les tests des modèles climatiques globaux (GCM). Nous effectuons également des analyses statistiques des séries de températures observées et reconstruites et examinons si les récentes fluctuations de température diffèrent systématiquement des cycles de température précédents , éventuellement en raison de l'émission de gaz à effet de serre.

    Cela explique d’ailleurs – du moins pour moi – la colère des « médias de premier plan et de qualité » : ces deux « retraités » ont l’audace de dénoncer (enfin) l’ inquisition climatique des grands médias . Chapeau bas, messieurs !

    Toutefois, il y a eu historiquement d’importantes fluctuations climatiques. Les reconstructions de température suggèrent qu’il existe une « tendance au réchauffement » qui dure depuis environ 400 ans. Avant les 250 dernières années, une telle tendance ne pouvait être due qu’à des causes naturelles. La longueur des séries temporelles observées est donc cruciale pour l’analyse empirique de l’évolution des fluctuations de température et pour faire la distinction entre les fluctuations de température naturelles et celles provoquées par l’homme.

    Dagsvik et Moen fournissent ensuite une longue liste de ces enregistrements historiques de température, remontant dans certains cas à 1659 en Angleterre, qui est le plus long enregistrement de ce type contenant des données mensuelles de température.

    RépondreSupprimer
  37. Comment Dagsvik et Moen partent-ils de ces observations généralement compréhensibles ?

    Une façon de distinguer les effets des émissions de gaz à effet de serre d’origine humaine sur les températures des effets de causes naturelles est de voir si les variations de température peuvent être expliquées à l’aide des MCG. Une exigence minimale est que les GCM soient capables de reproduire les températures historiquement observées. Plusieurs chercheurs ont appliqué des méthodes statistiques avancées pour examiner la capacité des GCM à suivre les séries de températures mondiales, et nous passons en revue les résultats de leurs analyses .

    Eh bien, une méta-analyse, pour ainsi dire, mais ils ajoutent quelques mots de prudence :

    Parce que nous ne comprenons pas suffisamment bien l’effet global du climat, les fluctuations dans les séries chronologiques de données de température observées et reconstruites peuvent être difficiles à expliquer. Ils peuvent donc apparaître dans une certaine mesure non systématiques (stochastiques) . Une approche de recherche alternative consiste donc à étudier si les séries de températures sont compatibles avec un modèle statistique et quelles caractéristiques un tel modèle pourrait avoir. Cette approche a été suivie par Dagsvik et al. (2020) et certaines des références qui y sont mentionnées. Cependant, une analyse statistique rigoureuse du phénomène de température est plus compliquée qu’on pourrait s’y attendre. Il y a plusieurs raisons à cela. Premièrement, il s’avère que la température en tant que processus temporel semble avoir des cycles qui peuvent durer des décennies (mémoire longue), voire des centaines d’années. C'est précisément pour cette raison que même une augmentation aussi prolongée des séries de températures observées les plus récentes ne doit pas être simplement interprétée comme une tendance conduisant à un changement climatique permanent .

    Notez le langage extrêmement clair et la formulation soignée qui tentent de faire la distinction entre les observations (longs enregistrements de température) et leur interprétation. Pour ma part, j'aimerais que nous ayons plus de ce type de papier que de l'autre.

    Essentiellement, Dagsvik et Moen structurent leur long article comme suit :

    La section 2 décrit les données historiques et les fluctuations climatiques du passé et
    La section 3 traite de ces fluctuations
    La section 4 examine les principaux modèles climatiques mondiaux (MCG), tandis que la section 5 donne un aperçu de la littérature sur ces modèles.
    La section 6 formule notre propre approche et la section 7 traite des résultats de notre propre enquête.
    Enfin, la section 8 prévoit des « limites pour les valeurs de température maximales » dans certaines conditions.
    Ci-dessous, je fournirai des résumés des sections 2 et 3 et des sections 4 et 6 ; J'aborderai ensuite plus en détail les sections 6 à 8 suivantes. Lorsque j'en aurai terminé avec cet article, nous reviendrons sur ce que disent les anciens médias et les gardiens de la « Science™ » dans l'ère post-scientifique avant de discuter brièvement des implications.

    Sections 2 et 3 : Fluctuations historiques
    "En dehors des 250 dernières années, les données s'appuient sur des reconstitutions à partir de diverses sources telles que des carottes de glace, des cernes d'arbres et des sédiments lacustres", précisent les auteurs, qui soulignent que certaines carottes de glace permettent de reconstituer des températures passées allant jusqu'à 2 millions d'années. il y a des années. L’enregistrement « moderne », qui s’effectue via des observations satellitaires dans la troposphère, existe depuis 1979.

    RépondreSupprimer
  38. Des carottes de glace du Groenland et de l'Antarctique montrent que quatre périodes interglaciaires (il y a 125 000, 280 000, 325 000 et 415 000 ans) étaient « plus chaudes qu'aujourd'hui ». Ils notent en outre que « la durée typique d’une période glaciaire est d’environ 100 000 ans, tandis qu’une période interglaciaire dure généralement entre 10 et 15 000 ans. La période interglaciaire actuelle dure désormais environ 11 600 ans ».

    Les auteurs examinent une série d’articles qui indiquent tous qu’« au cours des 10 000 dernières années, les températures ont été plus élevées qu’aujourd’hui pendant de longues périodes. La période la plus chaude s’est produite il y a entre 4 000 et 8 000 ans et est connue sous le nom d’optimum climatique de l’Holocène ou période atlantique ».

    Voilà pour les reconstructions, et qu’en est-il des observations depuis 1979 ? Premièrement, de nombreux problèmes ayant des implications méthodologiques sont identifiés :

    Au cours du XXe siècle, la composition du réseau de mesure a évolué... De nombreuses stations terrestres ont également évolué géographiquement au cours de leur existence, et leur instrumentation a changé...

    Les enregistrements de température par satellite présentent également des problèmes, mais ceux-ci sont généralement de nature technique et peuvent donc être corrigés. De plus, les enregistrements de température des satellites du monde entier sont plus réguliers et plus complets que ceux des enregistrements de surface.

    Les différents enregistrements de température peuvent ne pas être de la même qualité scientifique ... des changements administratifs majeurs ... [et] le degré d'incertitude (erreur de mesure) de ces séries de températures mondiales a varié au fil du temps . Le nombre de stations météorologiques et d’observatoires marins a également augmenté au fil du temps. En conséquence, la variance des erreurs de mesure a probablement diminué au fil du temps.

    Se référant à Essex et al. (2006), Dagsvik et Moen affirment que « l’ensemble du concept de température globale » doit être remis en question. En d’autres termes, il pourrait s’avérer qu’il serait préférable de le décrire comme une « construction sociale » (oh, ironie), puisque « tout ensemble de mesures de température locales réparties à travers le monde peut être interprété comme signifiant qu’il y a un « réchauffement » et un « refroidissement » se produisant en même temps, ce qui rend le concept de réchauffement climatique physiquement inadmissible.

    Les principales sources de ces fluctuations sont le soleil comme principale source d'énergie et les cycles de Milankovitch pour les périodes glaciaires (y compris l'inclinaison axiale de la Terre, la précession et l'orbite elliptique autour du soleil). La capacité des océans à stocker « d'énormes capacités de gaz carbonique » est également évoquée – tout comme la loi de Henry sur l'absorption proportionnelle des liquides (océan) et de l'atmosphère.

    RépondreSupprimer
  39. En conséquence, une explication… est que les fluctuations de la capacité de stockage des océans dues aux fluctuations de température constituent l’effet dominant.

    Outre les variations saisonnières et les périodes glaciaires, les températures observées semblent fluctuer pour des raisons qui ne sont que partiellement comprises. Certaines de ces fluctuations sont dues au rayonnement solaire, à la formation de nuages ​​et aux gaz à effet de serre (vapeur d'eau, argon, gaz carbonique, aérosols, méthane, protoxyde d'azote et ozone).

    En langage clair : il pourrait y avoir plusieurs de ces facteurs, ils pourraient être (partiellement) corrélés, ou autre chose, c'est-à-dire que nous ne savons pas vraiment. Le rôle du soleil est crucial, en particulier dans les grands cycles solaires de 350 à 400 ans, mais il se pourrait bien que d'autres planètes de notre système solaire influencent également les fluctuations sur Terre, tout comme les nuages ​​( ce que nous ne savons pas). je ne sais pas grand-chose, voire quelque chose, je le sais ).

    Le gaz à effet de serre le plus important est la vapeur d'eau , qui fluctue considérablement en tout lieu et à tout moment. Environ 66 à 85 % de l’effet de serre naturel peut être attribué à la vapeur d’eau et aux petites gouttelettes présentes dans les nuages. Le deuxième gaz à effet de serre le plus important est le gaz carbonique, qui diffère de la vapeur d'eau dans le sens où sa concentration dans l'atmosphère est à peu près la même partout sur Terre . La quantité de gaz carbonique et d'autres gaz que les humains ont ajoutée à l'atmosphère au cours des 250 dernières années augmente la capacité de l'atmosphère à empêcher la chaleur de se propager dans l'espace.

    Sont également mentionnés les cycles El Niño/La Niña et bien sûr le repli habituel pour tout ce que nous ne connaissons pas, le « chaos » (théorie).

    Sections 4 et 5 : Modèles climatiques mondiaux et empereur nu (IPCC)
    L’argument principal de ces deux sections est que, à la suite des travaux de Judith Curry, un certain nombre d’affirmations fortement formulées sont avancées :

    Bien que certaines relations dans les GCM soient basées sur des théories physiques bien établies, telles que les équations de Navier-Stokes, il existe des représentations qui ne sont que des approximations et ne sont pas basées sur des lois physiques ... Les résolutions courantes pour les GCM sont d'environ 100- 200 km dans le sens horizontal et environ un kilomètre dans le sens vertical avec une composante temporelle d'environ 30 minutes. En raison de la résolution relativement grossière des modèles, de nombreux processus importants ont lieu dans les cellules déterminées par la résolution du modèle, tels que les nuages ​​et les précipitations [en commençant souvent à partir de « supérieures » à 1 km, sans parler par ex. Par exemple, la glace de mer, le brouillard et tout le reste].

    Notons brièvement que la « résolution » de tels GCM est au moins une fois éloignée de la réalité observée, puisque ces « cellules » sont déterminées par les modèles (qui sont pourtant déjà alimentés « uniquement » par des instruments de mesure eux aussi sujets à des changements. deviennent avec le temps). Si vous pensez que c'est « mauvais », attendez la liste des restrictions, entre autres.

    RépondreSupprimer
  40. L'impact de l'augmentation des émissions de gaz carbonique sur le climat ne peut être évalué avec précision sur des échelles de temps de l'ordre de 100 ans ou moins .
    Il existe un manque de connaissances sur l'incertitude, qui est dû en partie au choix des modèles à sous-échelle et au paramétrage et à l'étalonnage de ces modèles, ainsi qu'à l' insuffisance des données [j'ai sauté la discussion sur les modèles à sous-échelle].
    Selon certaines évaluations , les GCM ne sont pas suffisamment fiables pour faire la distinction entre les causes naturelles et les causes anthropiques de l'augmentation de la température au XXe siècle. Certaines prédictions des GCM sont fournies avec des erreurs types, comme cela est courant dans les analyses statistiques. Cependant, les GCM étant des modèles déterministes, ces erreurs types ne peuvent pas être interprétées de la même manière qu’en statistique. [Mis à part des affirmations telles que « ceci est prouvé par les modèles scientifiques », les modèles sont également déterministes, ce qui signifie qu'ils projettent leurs « résultats » dans le temps ; si c'était un texte historique, j'appellerais cela un anachronisme]
    Les GCM sont généralement évalués à l'aide des mêmes observations que celles utilisées pour calibrer les paramètres du modèle . (Qui s'occupe des chiens de garde ? Oh oui, les mêmes collègues qui examinent les études décrivant les résultats – comment épelez-vous « conflit d'intérêts » dans la science du climat ?]
    Je suppose qu'une autre longue citation de Dagsvik et Moen suffit pour compléter cette section :

    Dans un article paru dans Science, Voosen (2016) écrit : « Que les climatologues veuillent l’admettre ou non, presque tous les modèles ont été précisément calibrés sur les données climatiques du 20e siècle – sinon ils auraient fini à la poubelle. » Malheureusement, les modèles calibrés pour correspondre aux données du 20e siècle sont de qualité douteuse lorsqu’il s’agit de comprendre les causes des fluctuations de température du 20e siècle.

    D’un point de vue méthodologique, plus intéressant est l’examen ultérieur de l’exactitude de ces GCM dans la reconstruction des températures passées, appelées « projections rétrospectives » :

    Une question clé est donc de savoir si les GCM sont fiables pour fournir des prévisions fiables. Une façon d'examiner la qualité des GCM est de vérifier si les prévisions de température des GCM (estimations rétrospectives) sont capables de suivre la série chronologique de la température mondiale...

    Avant Beenstock et al. (2016), à notre connaissance, la capacité des GCM à suivre les séries de températures mondiales n'a pas été soumise à des tests empiriques rigoureux utilisant des méthodes statistiques avancées telles que des tests de cointégration .

    Pensons-y un instant : l’ensemble des efforts menés par l’ONU depuis la fin des années 1980 ont été menés sans aucun test des modèles jusqu’en 2016.

    Beenstock et coll. (2016) ont utilisé les données... de 22 GCM sélectionnés pour la période 1880-2010 pour tester si le modèle de régression... correspond aux données... [ils] ont constaté que les tests statistiques rejetaient l'hypothèse... ce qui signifie que le Le modèle de régression postulé ci-dessus ne s’applique pas. En d’autres termes, cela signifie que le processus généré par les GCM est incapable de suivre la température globale.

    RépondreSupprimer
  41. McKitrick et Christy (2020) ont mené une analyse similaire pour la période 1979-2014 et ont découvert que les GCM surestiment les températures mondiales après l'an 2000 ... Fildes et Kourentzes (2011) ont examiné le comportement de suivi d'un GCM à l'aide de séries chronologiques simples et ont comparé modèles de réseaux neuronaux et j’ai constaté que ces derniers, malgré leur simplicité, fonctionnent mieux que les premiers [ce que je trouve encore plus surprenant : des considérations simples l’emportent sur les « modèles » plus chers]…

    Il est théoriquement possible que les GCM soient capables de représenter assez bien les « vraies » séries latentes de températures globales, même s’ils ne représentent pas les séries observées (construites) correspondantes. Quoi qu’il en soit, les analyses de Beenstock et al. (2016) et McKitrick et Christy (2020) font peur et soulèvent de sérieux doutes sur la qualité des GCM , notamment sur la question de savoir si la sensibilité au gaz carbonique a été correctement déterminée.

    Dans cette section, Dagsvik et Moen commettent un autre péché apparemment flagrant : ils critiquent haut et fort l'IPCC :

    Une étude du IPCC a affirmé qu’« il reste très élevé de confiance dans le fait que les modèles reproduisent les modèles de température moyenne de surface observés à grande échelle (corrélation des modèles ∼0,99) » (IPCC, 2014, p. 743). Mais comme indiqué ci-dessus, le simple fait que ces corrélations soient élevées ne signifie pas nécessairement que les MCG qui les ont produites ont été validés avec succès... La déclaration du GIEC citée ci-dessus est donc trompeuse.

    Oh, regarde, l'empereur ne porte aucun vêtement.

    D’où la réaction négative, même si je doute que quiconque réclame si fortement la crucifixion de Dagsvik et Moe ait réellement lu le journal. Gardez cette considération à l’esprit pendant un moment.

    Sections 6 et 7 : Réanalyse et évaluation du GCM
    Concernant les objectifs, il convient de noter encore que « le présent travail fait suite à l'analyse de Dagsvik et al. (2020) ont étendu leurs études en utilisant des séries de températures observées jusqu'en 2021 pour une gamme de stations météorologiques, contrairement à l'analyse de Dagsvik et al. (2020), qui n’ont analysé que certaines séries de températures jusqu’en 2012, alors que la plupart des séries de températures utilisées dans leur analyse se sont terminées entre 1980 et 2012 ».

    Bien que je ne reproduise pas la section 6 strictement méthodologique (dans laquelle Dagsvik et Moen expliquent comment ils tentent de tester le GCM), le principal point de discorde dans l'étude se trouve dans la section 7, où les auteurs décrivent leurs résultats :

    RépondreSupprimer
  42. Comme mentionné ci-dessus, étant donné que les constructions de températures mondiales utilisent différentes sources de données à différentes périodes , il est problématique de les analyser à l'aide de méthodes statistiques de séries chronologiques, car leurs propriétés statistiques peuvent changer au fil du temps de manières encore inconnues . En regardant spécifiquement la série chronologique HadCRUT3 (Figure B1 en Annexe B), on peut voir que la variance des températures est plus grande au cours des 30 premières années que dans les années suivantes... la série globale s'est avérée contrastée avec la série HadCRUT3. série comme stationnaire. Cela signifie que la tendance de la série agrégée n’est pas systématique (stochastique). La raison pour laquelle la série HadCRUT3 n'est pas stationnaire n'est peut-être pas due à la tendance à la hausse, mais plutôt au changement systématique du modèle de variation au fil du temps (variance et autocorrélation, non visibles sur la figure).

    Ce que Dagsvik et Moen tentent de dire, c'est ceci : quelles que soient les données entrant dans le modèle HadCRUT3, aucune tendance claire n'est évidente dans l'un des modèles de température mondiale les plus largement utilisés.

    Quant aux reconstructions de température basées sur des carottes de glace du Groenland, Dagsvik et Moen ont trouvé essentiellement la même chose : « La température moyenne décennale actuelle de la neige dans le centre du Groenland n'a pas dépassé la plage de variabilité naturelle au cours des 4 000 dernières années . »

    Comment épelez-vous l’argument de Stohmann dans « recherche sur le climat™ » ?
    Au vu de ce qui précède, la contribution du professeur Rahmstorf au spectre scientifique apparaît comme une répétition plus ou moins créative de ce sur quoi les médias norvégiens avaient travaillé deux mois plus tôt.

    En dehors de cela, Rahmstorf souligne immédiatement la bonne « attitude » qu’il faut adopter dans cette affaire, sinon…

    Cette fois-ci, par exemple, un « document de discussion » publié par Statistique Norvège circule. Il est remarquable non pas parce qu'il contient quoi que ce soit de nouveau (ce n'est pas le cas), mais parce qu'il a été publié par une agence gouvernementale bien qu'il viole clairement les normes établies de bonne pratique scientifique. C'est pourquoi le journal a également eu un impact dans les milieux non scientifiques, y compris dans le monde de l'entreprise, et a même été cité ce mois-ci dans une déclaration sur la loi sur la protection du climat au Bundestag allemand ( oui, bien sûr, par un "expert" de l'AfD ). - imprimés 20(25)513 .

    Si vous êtes un négationniste, vous refusez les « bonnes pratiques scientifiques » et êtes un sympathisant de l’AfD.

    Contenu mis à part, voici la « chaîne logique » du professeur Rahmstorf : quelqu'un (un « expert ») a lu l'article ; Ce quelqu'un a été cité par un membre du Bundestag (l'AfD) dans une déclaration parlementaire (l'horreur !), et apparemment cette « circonstance » fait de MM. Dagsvik et Moen des sympathisants de l'AfD.

    La dette de contact du lecteur est quelle que soit la quantité de coins.

    Voici quelques exemples de déclarations du professeur Rahmstorf sur la contribution mentionnée ci-dessus de Dagsvik et Moen. Voici comment le chercheur en climatologie™ Rahmstorf a lu le texte (c'est moi qui souligne ici et ci-dessous) :

    RépondreSupprimer
  43. Le flot d’erreurs ou de tromperies commence par le titre de l’article : « Dans quelle mesure les niveaux de température changent-ils en raison des émissions de gaz à effet de serre ? » (« Dans quelle mesure le niveau de température change-t-il en raison des émissions de gaz à effet de serre ? ») Mais l’effet des gaz à effet de serre n’est pas examiné dans le document – ​​ce qui suggère que le titre est politiquement motivé. Et l’article ignore les études précédentes et les découvertes physiques de base, utilise des sources douteuses et arrive à une conclusion manifestement fausse : si le réchauffement de certaines stations météorologiques peut théoriquement s’expliquer par des fluctuations météorologiques aléatoires, alors le gaz carbonique n’a aucune influence.

    Si vous avez lu les passages ci-dessus du journal de Dagsvik et Moen, vous pouvez voir ce que fait ici M. Rahmstorf : des attaques personnelles, des attaques sournoises et des affirmations qui ne correspondent même pas au contenu des « normes établies » de Dagsvik et Moen. bonne pratique scientifique ».

    L’article contient beaucoup trop d’erreurs scientifiques grossières et d’erreurs logiques pour être énumérées ici, mais permettez-moi d’en aborder une : l’article confond continuellement les températures locales et mondiales. Il effectue des analyses statistiques sur les changements de température locaux dans des stations météorologiques individuelles et soutient que, pris individuellement, ils pourraient également être des fluctuations aléatoires ...

    Mais même si cela était vrai, cela ne s’applique pas à la température mondiale . Dans un climat inchangé, des fluctuations météorologiques aléatoires provoqueraient un réchauffement dans certaines parties du monde et un refroidissement dans d’autres. Le fait que toutes les régions du monde, à de très rares exceptions près, connaissent un réchauffement en même temps ne peut s’expliquer par des fluctuations internes aléatoires.

    Si vous lisez attentivement ci-dessus, ce n’est pas ce que présentent Dagsvik et Moen. Ce n’est pas non plus le passage central de l’article que Rahmstorf rejette ici avec une remarque – certes désinvolte – (« quelques analyses statistiques des changements de température locaux dans des stations météorologiques individuelles »). Au lieu d’aborder les arguments méthodologiques et statistiques de Dagsvik et Moen, le lecteur reçoit un sermon moral de Rahmstorf :

    Ce n’est pas difficile à comprendre. Dans un monde où il n’y aurait que des variations régionales aléatoires mais pas de changement climatique, environ la moitié des stations météorologiques indiqueraient un réchauffement (plus ou moins important) et l’autre moitié un refroidissement. Avec un réchauffement climatique modéré, peut-être 60 % montreraient un réchauffement et 40 % un refroidissement. Si le réchauffement climatique était sévère, presque 100 % indiquerait un réchauffement, et c’est exactement ce qui se produit. Cela montre que le réchauffement climatique a clairement pris le pas sur les fluctuations naturelles de température, et c’est exactement ce que réaffirme le document de Statistique Norvège. Les auteurs ne peuvent littéralement pas voir la forêt à travers les arbres alors qu'ils prétendent faussement le contraire...

    Utilisation aveugle des statistiques sans comprendre la physique

    La loi la plus importante de la physique est peut-être la conservation de l’énergie, et le réchauffement observé de la Terre nécessite une énorme dépense d’énergie qui ne peut être fournie par des fluctuations météorologiques aléatoires. Mais même la physique de première année est complètement ignorée dans le document de Statistique Norvège.

    RépondreSupprimer
  44. Au-delà des attaques ad hominem, je voudrais souligner à nouveau les passages du directeur de recherche des CFF qui ont été clairement cités précédemment par les « médias norvégiens de premier plan et de qualité ». Mais M. Rahmstorf ne s'en soucie pas du tout :

    S’agit-il d’une pure incompétence ou y a-t-il des motivations politiques ?

    Ainsi, le document de Statistique Norvège ignore la physique, interprète mal les statistiques et est très sélectif avec les données - mais s'agit-il simplement d'une pure incompétence ou est-ce politiquement motivé ? Au-delà du titre, de nombreux signes révélateurs suggèrent fortement ce dernier...

    L’article analyse un seul ensemble de données de température véritablement mondial : les données HadCRUT3, l’une des séries de températures mondiales bien établies. Étrangement, les données présentées se terminent en décembre 2010 et le graphique a été copié à partir du même site Web climato-sceptique, plutôt que d'utiliser les données HadCRUT5 actuelles, qui ont une meilleure couverture mondiale et sont facilement disponibles à partir de la source d'origine (Google les trouve en quelques secondes). .

    Mais peu importe : pour cet ensemble de données, même leur méthode « a révélé que la série temporelle HadCRUT3 est loin d’être stationnaire ». Le résultat réel de leur analyse statistique est le suivant : la température mondiale montre le changement climatique ! Ils se demandent même pourquoi c'est le cas, même si leur agrégat fait maison d'un petit nombre de stations météorologiques ne le prouve pas, même s'il montre une tendance similaire. Ils ne semblent pas comprendre l'importance du rapport signal/bruit, et cela empire à mesure que vous utilisez moins de données (ils utilisent un nombre dérisoire de 74 stations et ignorent complètement les 71 % de la Terre couverts par les océans).

    À ce stade, je voudrais seulement faire référence ou citer un autre passage :

    Il est plus que embarrassant que l’Office norvégien des statistiques ait publié ces absurdités. C'est un scandale. Espérons qu'il ne s'agisse pas d'une décision politique de cette institution, mais simplement d'une grave erreur. S’ils veulent sauver leur réputation et leur crédibilité, ils devraient immédiatement retirer le rapport et publier une déclaration appropriée sur la véritable science du réchauffement climatique .

    Mais quelles sont les conclusions de Dagsvik et Moen ?
    À ce stade, et surtout au vu des reportages médiatiques et de la réaction de la SSB déjà annoncée début octobre (dont M. Rahmstorf n'est évidemment pas au courant), il vaut la peine de citer à nouveau des passages plus longs :

    Nous avons examiné les données sur le climat et les températures passées et avons constaté qu'il existait d'importantes fluctuations (non stationnaires) de température dues à des causes naturelles .

    RépondreSupprimer
  45. Nous avons ensuite résumé les travaux récents sur les analyses statistiques de la capacité des GCM à suivre les données historiques de température. Ces études… soulèvent de sérieux doutes quant à la capacité des GCM à distinguer les fluctuations naturelles de température des fluctuations provoquées par les émissions de gaz carbonique d’origine humaine…

    Malgré de longues tendances et cycles dans ces séries de températures... les résultats suggèrent que l'effet des émissions de gaz carbonique d'origine humaine ne semble pas être suffisamment fort pour provoquer des changements systématiques dans le schéma des fluctuations de température . En d’autres termes, notre analyse montre qu’avec les connaissances actuelles, il semble impossible de déterminer dans quelle mesure l’augmentation de la température est due aux émissions de gaz carbonique .

    Avez-vous lu quelque chose dans les passages désignés ou dans la contribution de M. Rahmstorf qui vous permet de conclure s'il a même lu l'article de Dagsvik et Moen ? Bien sûr, il y fait référence encore et encore, mais la critique essentielle de Beenstock et al. (2016) et McKitrick et Christy (2020) ne sont pas repris par Rahmstorf, pas plus que les critiques des deux statisticiens à l'égard des modèles climatiques globaux.

    Sur les implications de l'étude
    Ne vous méprenez pas, chers lecteurs, en tant que père de deux élèves du primaire, il est dans mon intérêt que nous laissions à nos descendants une terre qui vaut la peine d'être vécue. C’est d’ailleurs également le message central de Dagsvik et Moen, qui ont réalisé l’étude ci-dessus à la retraite et y ont peut-être même vu un service public au bénéfice de l’humanité.

    D'un point de vue scientifique, ils pointent également un point important, à savoir les modèles actuellement utilisés, leurs erreurs et distorsions possibles, et interpellent ceux qui, malgré ces faits, colportent de prétendues certitudes.

    Dans l’ensemble, Dagsvik et Moen avancent un certain nombre d’arguments valables qui, idéalement, ne devraient pas être censurés et ridiculisés, et encore moins conduire à des changements dans une institution financée par l’État comme le Statens Statistisk Sentralbyrå en Norvège. Et cela signifie que nous devons également parler du reste de l'article d' Aftenposten cité au début , car voici ce que Stine Barstad a retenu de l'article (attention, seulement après l'article d'opinion le plus soigneusement formulé) :

    [Dagsvik et Moen] constatent que les changements de température observés ici au cours des 150 à 200 dernières années ne diffèrent pas de manière statistiquement significative des fluctuations observées dans le passé.
    L’hypothèse selon laquelle le réchauffement actuel serait uniquement dû à des fluctuations naturelles ne peut donc pas être rejetée.

    L'article met en lumière des études individuelles qui soulignent les faiblesses des mesures de température et des modèles climatiques utilisés. Il s'agit notamment de tests statistiques qui concluent que les modèles climatiques sont incapables de distinguer les fluctuations climatiques naturelles de celles provoquées par les émissions de gaz carbonique.

    De là, ils concluent :

    En d’autres termes, notre analyse montre qu’avec les connaissances actuelles, il semble impossible de déterminer dans quelle mesure l’augmentation de la température est due aux émissions de gaz carbonique.

    Jusqu’ici, tout va bien, n’est-ce pas ? Le problème – notons encore une fois le parti pris éditorial – réside dans le paragraphe suivant :

    Cependant, ils font également une petite mise en garde : les séries de températures couplées, par exemple, à des modèles basés sur des processus géophysiques peuvent donner une image différente. Ils n’excluent donc pas qu’un changement systématique de température puisse être en cours – même si cela n’est pas reflété dans leurs analyses statistiques.

    RépondreSupprimer
  46. Ou les modèles qu’ils ont analysés ; Notez le tour de passe-passe de Mme Barstad : elle gonfle une petite mise en garde de la part de deux auteurs expérimentés pour conclure que l'analyse statistique qu'ils ont menée a peut-être manqué quelque chose d'important. Ce faisant, cela détourne simplement les lecteurs des conclusions importantes mentionnées ci-dessus, par exemple selon lesquelles il n'y a eu aucune révision des modèles climatiques mondiaux avant 2016, dans laquelle l' article d'Aftenposten ne diffère pas du don de M. Rahmstorf dans le spectre scientifique .

    Voici comment Mme Barstad le présente :

    Grandes conclusions, petite base

    "Nous pensons qu'avec 95 séries chronologiques très longues, il serait étrange de ne pas pouvoir détecter une tendance systématique si les émissions de gaz carbonique ont un effet", a déclaré Dagsvik à Aftenposten.

    Cela semble logique. Alors pourquoi traversent-ils des moments si difficiles ?

    « Vous avez plongé dans un système vaste et complexe, en avez examiné une petite partie et avez tiré une conclusion basée sur cette petite partie. Mais leurs conclusions sont disproportionnées par rapport à l'analyse effectuée », déclare Helge Drange, climatologue du Centre Bjerknes.

    Lui et Samset soulignent que les chercheurs semblent ignorer complètement toutes les autres recherches montrant les liens physiques, statistiques et scientifiques entre les émissions de gaz à effet de serre et l’augmentation de la température. Ceci est résumé dans le dernier rapport de l’ONU sur le climat.

    Surplombant le stockage de chaleur le plus important

    En outre, ils soulignent une faille cruciale dans l’analyse qui accable littéralement les auteurs : les océans.

    La contribution d'Aftenposten, bien que beaucoup plus équilibrée que celle de Rahmstorf, n'est pas non plus sans sous-textes : cette « lacune » a été expressément mentionnée aux pages 11-2 de l'article en référence à la loi de Henry ; Dénoncer Dagsvik et Moen pour cela - surtout dans un langage plutôt impoli - est, à mon avis, clair en termes de distorsion : révélateur.

    Le réchauffement climatique se produit parce que davantage d’énergie est stockée sur la planète. Environ 90 % de cette énergie est stockée dans les océans. Mais les scientifiques n’ont analysé que les mesures de température de surface [que Dagsvik et Moen ont également analysées ; aussi : D'où vient l'énergie ?]

    Un article récemment publié montre comment la chaleur supplémentaire s'est répartie sur la planète au cours des 60 dernières années [pour des raisons de droits d'auteur, je ne reproduis pas cette image ici ; cliquez ici ou ici pour les voir ; le graphique montre la répartition relative de la chaleur dans le système Terre]

    La couleur rouge en bas correspond à l’augmentation de la chaleur dans l’atmosphère due à l’augmentation de la température de l’air. L’article SSB en analyse certaines parties.

    La zone grise montre une chaleur accrue dans le substrat rocheux et le sol, ainsi que la chaleur utilisée pour faire fondre les glaciers et les calottes glaciaires comme celles du Groenland et de l'Antarctique.

    RépondreSupprimer
  47. Oh, regardez : la « demande » de M. Rahmstorf correspond exactement aux actions de SSB, dont Aftenposten a fait état début octobre - nous notons que l'avis de Rahmstorf est paru le 30 novembre 2023. D’ailleurs, le reste de l’article d’Aftenposten mérite votre attention, malgré la longueur de cet article :

    Il faudrait être plus précis

    [Nøstbakken] affirme que Dagsvik a de bonnes connaissances en statistiques, mais pas en modélisation climatique . [quel est le niveau de compétence de Stefan Rahmstorf en statistique ? Question pour un ami…]
    Le directeur de la communication, Hege Tunes, affirme que l'Office norvégien des statistiques s'est désormais efforcé de séparer plus clairement les notes de recherche des statistiques.

    Colère professorale, bilan officiel
    Pour compléter les deux derniers paragraphes du message Aftenposten lié ci-dessus :

    Que dites-vous aux critiques qui pensent que vous perdez votre crédibilité au profit de recherches qui ne sont pas factuelles ?

    [Directeur de recherche SSB, Nøstbakken] « Ce serait complètement une erreur si nous ne publiions pas un document de travail parce que ses conclusions sont controversées ou impopulaires. Il s'agit d'une question de liberté d'expression et je suis heureux que d'autres se joignent à la discussion et en débattent sur une base professionnelle. Il est important que les chercheurs s’inspirent de cette manière. Mais nous devons être clairs en tant qu'expéditeurs et les étiqueter afin que les utilisateurs comprennent de quoi il s'agit. C'est une responsabilité que nous avons», ajoute-t-elle.

    Sur la signification de cette tempête dans une tasse de thé (par le professeur Rahmstorf)
    Ce post est déjà devenu trop long, mais les points suivants doivent être mentionnés :

    Premièrement : la « révolution scientifique » est terminée. Elle a connu une bonne dynamique à partir du milieu du XVIIe siècle, mais vers la fin du XXe siècle, les « gardiens » semblaient avoir gagné.

    Durant la « révolution scientifique », tout ce dont vous aviez besoin était une méthode clairement décrite qui permettait à d’autres de répéter les résultats – et voilà . C’est ainsi que fonctionnait la science autrefois, mais cela décrit également comment fonctionne la « Science™ » aujourd’hui.

    Semblable au cas de Skrable et al. (2020), qui ont présenté des résultats similaires à ceux de Dagsvik et Moen, dont j'ai discuté en détail il n'y a pas longtemps , l'argument est désormais le suivant : nous ne valoriserons plus les « scientifiques renégats » qui « travaillent en dehors de leur domaine » pour leurs points de vue ; au contraire, la pensée critique et interdisciplinaire est désormais censurée.

    Les résultats de Dagsvik et Moen confirment d’ailleurs l’argument de Skrable et al. : l’influence de l’humanité sous forme d’émissions pures ne semble pas suffisante pour modifier de manière significative – selon les mots de Dagsvik et Moen : « systématiquement » – le système climatique de la Terre.

    RépondreSupprimer
  48. Oh, n’oublions pas que la question des « gardiens » dans la science, dans les « médias de premier plan et de qualité » et dans les institutions internationales telles que l’ONU et l'IPCC est de la plus haute importance.

    Avant la « révolution scientifique », les différentes confessions chrétiennes revendiquaient le droit universel et exclusif d’expliquer les choses à « la foule ». Lorsque l’empirisme et la diffusion de la méthode scientifique ont surmonté cette situation, beaucoup de choses ont changé.

    Mais nous remontons peut-être dans le temps, du moins en ce qui concerne les tentatives des gardiens de tenir à distance la dissidence. Thomas Kuhn a écrit à ce sujet dans son classique La structure des révolutions scientifiques (1961), et ce à quoi nous assistons ici – comme la débâcle du modRNA – est un autre exemple du prochain changement de paradigme.

    Il existe de nombreux exemples dans l’histoire de la futilité ultime de ces tentatives, alors chapeau bas à vous, M. Dagsvik et M. Moen, pour avoir osé faire preuve d’intelligence.

    https:/

    RépondreSupprimer
    Réponses
    1. Commentaires sur le bla-bla-bla (de maternelles) publié ci-dessus:

      Primo:

      🏡 L'air pèse: 1,2 gr/litre
      Oxygène (O2): 1,42 gr/l.
      Gaz carbonique: 1,8 gr/l.

      Le gaz carbonique est donc le GAZ LE PLUS LOURD.

      Le gaz carbonique s'établit en 2 zones:
      Le gaz carbonique sorti des poumons des humains et des animaux et des cheminées d'industries.
      Il d’établi au ras du sol. Couchez-vous au sol, sur plages ou descendez à la cave ou parkings souterrains vous n'éprouvez AUCUN MALAISE ni mort. Il n'est non-plus un gaz 'réchauffiste' ! Il est responsable des gelées blanches !

      La 2 ème zone, elle se situe dans la haute atmosphère. "Mais pourquoi ce gaz lourd est-il si haut ?" parce qu'il y est envoyé par les éruptions volcaniques et y demeure comme 'satellisé' ! Il ne présente aucune fonction de 'gaz à effet de serre' car ces zones sont trop espacées pour qu'il se recycle immédiatement comme sur terre.

      Donc, il n'y a pas 'feu e la demeure' d'y voir si haut ce que font les gaz charriés par des vents violents.

      Supprimer
  49. Votre avenir vert et propre *a besoin* de 80 millions de kilomètres supplémentaires de lignes à haute tension


    Par Jo Nova
    December 7th, 2023


    Ont-ils oublié de mentionner qu’une planète verte et propre regorge de lignes de transmission en acier ?
    Récemment, l’Agence internationale de l’énergie (AIE) a reproché au monde de ne pas avoir préparé la Terre à la transition qu’elle veut nous imposer. Apparemment, nous aurions dû y prêter attention et construire le bon réseau et maintenant, à cause de notre paresse, nous devrons nous précipiter dans 80 millions de kilomètres supplémentaires d'interconnexions d'ici 2040. Juste comme ça.

    Toutes les lignes à haute tension que nous avons construites au siècle dernier, nous devrons les reconstruire dans les 17 prochaines années.

    N’oubliez pas que ce n’est pas de leur faute si les énergies renouvelables ont besoin de beaucoup plus de terres, de plus d’espace, de plus de sauvegarde et de plus d’infrastructures – c’est de notre faute si nous n’avons pas construit un monde prêt à recevoir leur énergie sacrée. Ces dons sacrés du vent et du soleil ne peuvent pas nous être accordés ! Nous sommes indignes :

    AIE Le manque d’ambition et d’attention risque de faire des réseaux électriques le maillon faible des transitions énergétiques propres
    Une étude mondiale, la première du genre, révèle que le monde doit ajouter ou remplacer 80 millions de kilomètres de réseaux d'ici 2040, soit l'équivalent de tous les réseaux mondiaux aujourd'hui, pour atteindre les objectifs climatiques nationaux et soutenir la sécurité énergétique.
    Remarquez à quel point ces changements « sont essentiels » pour les filles et les garçons, et vous auriez déjà dû les payer. Cela ne représente qu’un demi-billion de dollars par an pour les 7 prochaines années…

    Pour atteindre tous les objectifs nationaux en matière de climat et d’énergie, il faudra ajouter ou remplacer 80 millions de kilomètres de lignes électriques d’ici 2040 – une quantité égale à l’ensemble du réseau mondial existant – selon une analyse détaillée pays par pays réalisée pour le rapport. Des changements majeurs dans la façon dont les réseaux fonctionnent et sont réglementés sont également essentiels, tandis que les investissements annuels dans les réseaux, qui sont restés globalement stagnants, doivent doubler pour atteindre plus de 600 milliards de dollars par an d’ici 2030.

    Des problèmes émergent déjà. Le rapport identifie une file importante et croissante de projets d'énergies renouvelables attendant le feu vert pour être connectés au réseau, identifiant 1 500 gigawatts de ces projets qui sont à des stades avancés de développement. Cela représente cinq fois la quantité de capacité solaire photovoltaïque et éolienne ajoutée dans le monde l’année dernière.

    RépondreSupprimer
  50. Il suffit de facturer cela aux investisseurs éoliens et solaires, explique Jo Nova, et de leur faire payer pour mettre les lignes sous terre afin qu'elles ne polluent pas les forêts et les fermes et ne déclenchent pas d'incendies.

    Comme l’a dit Henry Geraedts dans le Financial Post : 80 millions de kilomètres d’ici 2040 suffisent pour faire 2 000 fois le tour du monde. Tout cela est tellement improbable.

    Et comme le disent les agriculteurs australiens lorsqu’AusNet souhaite construire des interconnexions entre leurs fermes :

    Les agriculteurs manifestent contre les lignes de transmission
    Fermier de l'ouest de l'époque victorienne

    Dites aux enfants qu’on leur a menti. L’avenir vert est une friche industrielle de béton et d’acier construite pour remplir les poches des milliardaires et des banquiers.

    https://joannenova.com.au/2023/12/your-clean-green-future-needs-another-80-million-km-of-high-voltage-lines/

    RépondreSupprimer
  51. ENCORE 2 ARTICLES CENSURÉS ! (60 - 2 = 58)

    RépondreSupprimer