- ENTREE de SECOURS -



jeudi 30 mai 2024

Le plus grand réacteur nucléaire du Japon reste inactif, malgré la crise énergétique du pays

PAR TYLER DURDEN

JEUDI 30 MAI 2024 - 03H20


Nous pensons qu’il ne faudra pas longtemps avant que l’énergie nucléaire connaisse à nouveau une renaissance, comme nous l’avons abondamment écrit. Mais pour l’instant, la plus grande centrale nucléaire du monde, la centrale nucléaire de Kashiwazaki Kariwa au Japon, reste inactive alors même que les besoins énergétiques mondiaux continuent de croître.

Bloomberg a rapporté cette semaine que la centrale nucléaire de Kashiwazaki Kariwa, reconnue par le Guinness World Records pour sa production potentielle de 8,2 gigawatts, reste inactive alors qu'elle était autrefois au cœur de l'objectif du Japon de tirer 50 % de son énergie de l'énergie nucléaire d'ici 2030.

L'installation, connue sous le nom de KK, a fermé ses sept réacteurs à la suite de la catastrophe de Fukushima en 2011, qui a conduit à une réévaluation nationale de l'énergie nucléaire. Au milieu des stratégies économiques actuelles ciblant des secteurs tels que la fabrication de semi-conducteurs et l’IA, les débats s’intensifient quant à savoir si KK et son opérateur, Tokyo Electric Power Co., devraient se voir offrir une autre opportunité.

À l’échelle mondiale, l’énergie nucléaire connaît une résurgence, comme nous l’avons évoqué ici sur Zero Hedge. Aux États-Unis, AI-Jesus Sam Altman vient de faire inscrire sa petite entreprise de réacteurs modulaires, Oklo, au NYSE. Partout dans le monde, dans des pays comme la France et la Pologne, le modèle de petit réacteur modulaire pourrait être à l’origine du retour du nucléaire, certains pays prévoyant son adoption d’ici 2030.

L’Agence internationale de l’énergie atomique prévoit que la capacité nucléaire pourrait augmenter de 24 % d’ici 2030 et de 140 % d’ici 2050 par rapport aux niveaux de 2022. Des pays comme la Chine et l’Inde étendent leurs programmes nucléaires, tandis que même l’Arabie saoudite explore des options nucléaires avec les États-Unis, reflétant un réengagement plus large envers l’énergie nucléaire en tant que ressource vitale.

Rafael Mariano Grossi, directeur général de l’AIEA, a déclaré en mars : « Il est très important pour le Japon de pouvoir à nouveau compter sur Kashiwazaki Kariwa. Combien de pays disposent de cette capacité inutilisée ? De nombreux pays souhaiteraient l’avoir.

Redémarrer ou construire de nouveaux réacteurs nucléaires au Japon est un défi politique. L’énergie nucléaire fournit une électricité stable et sans carbone, contrairement à la production variable de l’énergie éolienne et solaire. Cependant, il faut plus d’une décennie pour construire et produire ces installations et produire des déchets dangereux à longue durée de vie.

En 2017, le régulateur nucléaire japonais a autorisé le redémarrage de deux réacteurs de la centrale KK, mais aucune date de redémarrage ferme n'a été fixée en raison de l'absence d'approbation du gouvernement local. La question pourrait être abordée lors de la prochaine réunion de l'assemblée régionale dans la préfecture de Niigata, où se trouve KK, a noté Bloomberg.

Encore une fois, le redémarrage n’aura probablement lieu que lorsque les avantages évidents l’emporteront sur les souvenirs du désastre passé de Fukushima.

Cela se produit alors que l'administration du Premier ministre Fumio Kishida réexamine la politique énergétique du Japon, une évaluation de routine impliquant diverses parties prenantes, qui pourrait remodeler les objectifs du pays en matière d'énergie nucléaire au milieu des critiques concernant l'insuffisance des initiatives en matière d'énergie propre.

Dans un contexte d'incertitudes énergétiques mondiales, mises en évidence par les événements en Ukraine et au Moyen-Orient, la forte dépendance du Japon à l'égard de l'énergie importée pour couvrir 70 % de ses besoins en électricité est problématique, en particulier avec 21 réacteurs nucléaires actuellement inactifs.

Le président de Tepco, Tomoaki Kobayakawa, a conclu en déclarant aux journalistes en avril : « Nous devons garantir une source d’électricité stable pour nos clients – il est important d’avoir une source d’approvisionnement qui ne dépende pas des importations de carburant à l’étranger. »

https://www.zerohedge.com/markets/japans-largest-nuclear-reactor-remains-idle-despite-nations-energy-crunch

60 commentaires:

  1. Le leader européen veut « vacciner » les citoyens contre les « fausses » opinions


    30 mai 2024
    par le Dr. Peter F. Mayer


    En 2022, Google a lancé une campagne de propagande politique appelée « prebunking » (c'est-à-dire « vaccination ») dans trois pays de l'UE . En 2023, l’Allemagne a apparemment emboîté le pas de manière très efficace. Le président non élu de la Commission souhaite désormais étendre la campagne à tous les pays de l’UE et au-delà. Leyen n’est pas connu pour agir dans l’intérêt des oligarques américains et pour cela, il reçoit également des éloges publics de leur part, comme le « Global Goalkeeper Award » de Bill Gates.
    Si elle est réélue à la tête de la Commission européenne (CE), la présidente de la Commission, Ursula von der Leyen, promet de combattre les « idées fausses » à l'aide de « vaccins » altérant l'esprit qui « protègent » l'esprit des gens et protègent la « démocratie ». ».

    Dans diverses « publicités de campagne » qu'elle a diffusées sur les réseaux sociaux, von der Leyen tente d'attirer les électeurs en promettant de créer un « bouclier pour la démocratie » une fois que ceux au pouvoir l'auront rétablie au pouvoir.

    Pour mieux détecter « la désinformation et les interférences malveillantes », von der Leyen espère « rendre nos sociétés plus résilientes » en traquant et en supprimant « les contenus, y compris les deepfakes [d’intelligence artificielle] ».

    Bien qu’elle soit une bureaucrate qui n’est même pas élue par la population européenne, von der Leyen se comporte comme si elle était une candidate qui a besoin de popularité auprès des électeurs pour « gagner ».

    « Vacciner » le public avec le pré-bunking

    Le « bouclier démocratique » de Von der Leyen est ce que nous entendons par « vaccination » de l’esprit. Elle souhaite microgérer tout ce qui est dit et partagé en ligne pour garantir que seuls les avis approuvés soient rendus publics.

    Qualifier cela de « signe de propagande » serait une erreur, car à aucun moment Leyen n’a indiqué qu’elle souhaitait réellement diffuser un message différent. Non, il veut simplement censurer les messages que les citoyens partagent en ligne, ce qu’on appelle également le « pré-supplément ».

    - voir clip sur site -

    RépondreSupprimer
  2. Plus tôt ce mois-ci, von der Leyen a expliqué lors du Sommet de Copenhague sur la démocratie que la pré-mystification est « plus efficace que la démystification », car elle empêche en premier lieu les idées fausses.

    « La prémystification est le contraire de la démystification », a-t-elle déclaré. « En bref : mieux vaut prévenir que guérir. »

    « Pensez à la manipulation de l’information comme à un virus. Au lieu de traiter une infection une fois qu’elle s’est déclarée – c’est de la démystification – il vaut mieux vacciner pour que notre corps soit vacciné. Le pré-hébergement est la même approche.

    En d’autres termes : Leyen veut « vacciner » les gens contre la « désinformation » en empêchant qu’elle leur parvienne, afin qu’ils n’aient aucune chance d’y réfléchir et de décider eux-mêmes si elle est crédible ou non.

    Il n’y aura plus de débat ou de discussion ouverte sur quoi que ce soit, car cela pourrait conduire certaines personnes à être infectées et « infectées » par le « virus » de la pensée erronée. Selon Leyen, il serait préférable de mettre fin dès le départ à de tels débats et discussions.

    Leyen appelle leurs protocoles de conformité imposés « résilience sociale », ce qui semble beaucoup plus acceptable car cela implique une résistance collective à une sorte de menace hostile, en l’occurrence la liberté d’expression.

    Tout cela s'inscrit bien dans les activités de l'UE en matière de surveillance massive et non provoquée des communications par chat privé ainsi que dans la censure globale par le biais de la loi sur les services numériques , qui est désormais également mise en œuvre au niveau national avec l'aide de vérificateurs de faits payés par l'État et oligarques -

    https://tkp.at/2024/05/30/eu-leyen-will-buerger-gegen-falsche-ansichten-impfen/

    RépondreSupprimer
  3. Que pouvait-on savoir de Comirnaty fin 2020 ?


    30 mai 2024
    par le Dr. Hans-Joachim Kremer


    Il ressortait déjà des données publiées le 10 décembre 2020 sur le vaccin Pfizer-Biontech qu’il ne pouvait apporter aucun bénéfice. Compte tenu de ce niveau de connaissances, le seuil de rentabilité, auquel les cas de COVID-19 évités équilibrent les effets secondaires initiaux, aurait été atteint au mieux après 4 ans. En cas de « COVID-19 sévère », le seuil de rentabilité aurait été atteint au mieux au bout de 2 ans, et probablement jamais.
    Est-ce que cela a déjà été discuté lors de discussions pédagogiques ?

    L'avocat allemand Wilfried Schmitz m'a récemment demandé de rédiger un rapport sur les bénéfices et les risques du Comirnaty®. Ce travail constitue ma compétence principale depuis près de 30 ans. C'est désormais devenu un livre de 192 pages au format A4. 1

    Le chapitre central traite en détail des questions et des analyses sur les bénéfices de la vaccination. Il s’est avéré qu’aucune des nombreuses analyses n’a montré un bénéfice de la vaccination, et la plupart ont même montré des inconvénients évidents. Si un produit ne présente aucun avantage, le risque est trop élevé.

    Apparemment, le ministère fédéral allemand de la Défense est également parvenu à cette conclusion, car la procédure devant le Tribunal administratif fédéral vient de se terminer et l'obligation de tolérer les vaccinations contre le COVID-19 a pris fin.

    Dans une sous-section sur les bénéfices, j'ai abordé la question de savoir ce qui aurait pu être reconnu sur la seule base de la première publication sur Comirnaty®. Cela pourrait à son tour devenir important pour certains processus de compensation.

    RépondreSupprimer
  4. La première publication sur BNT162b2

    Les résultats de l'étude contrôlée versus placebo C4591001 de Pfizer-Biontech sur leur vaccin modRNA BNT162b2 ou Comirnaty® ont été publiés par voie électronique le 10 décembre 2020 dans le New England Journal of Medicine, NEJM 2 et régulièrement le 31 décembre 2020. Cet article a été immédiatement et entièrement accessible gratuitement et est désormais classé 6ème en termes d'attention de tous les articles scientifiques, 1er parmi tous les articles du NEJM (le NEJM est la revue la plus importante au monde pour les résultats de la recherche clinique) et 2ème place de tous les articles similaires. âge. 3

    Bien entendu, cet article a été immédiatement examiné en détail dans la littérature secondaire médico-scientifique et dans la presse générale, par exemple dans l'Ärztezeitung 4 du même jour. En fait, aucun médecin ne peut prétendre n’avoir pas remarqué cet article. Surtout pas aux alentours de Noël et du Nouvel An 2020, c'est-à-dire en plein « confinement » avec couvre-feux nocturnes et interdictions de visite, où la plupart des gens ont eu le temps de regarder l'article de plus près. J'entends par là non seulement prendre note des déclarations contenues dans le résumé, mais également examiner les données et les méthodes.

    Bien entendu, cet article s’est concentré sur les résultats de l’efficacité de la vaccination, c’est-à-dire sur la prévention du « COVID-19 ». Mais ce qui suit aurait pu être vu à l'époque - et aurait dû l'être !

    La variable d’efficacité était-elle cliniquement pertinente ?
    Un aspect important de l’évaluation des bénéfices est que l’efficacité, telle que définie par le fabricant du produit, peut rarement être assimilée à un bénéfice. Dans ce cas, la variable d'efficacité a été définie comme suit (tableau 1). Bien sûr, une présentation aussi claire n’a pas été trouvée dans l’article, mais elle aurait été facile à comprendre.

    - voir cadre sur site -

    RépondreSupprimer
  5. Il est important de noter que le protocole ne définissait pas de syndrome. Un seul symptôme suffisait pour déclencher une « visite maladie COVID-19 », au cours de laquelle un prélèvement était ensuite effectué pour évaluation dans un laboratoire central à l'aide d'un test RT-PCR 5 . Il était concevable et probablement voulu que même une diarrhée isolée puisse déclencher un test RT-PCR, même si un tel cas n'a plus rien à voir avec le « syndrome respiratoire aigu grave (SRAS) ». Cela s'applique également, dans une mesure limitée, aux autres symptômes.

    Par exemple, les cas suivants auraient été envisageables :

    Diarrhée / test positif  COVID-19
    (Cas A)
    Fièvre 39°C + essoufflement + douleurs musculaires / test RT-PCR négatif  Non signalé ! (cas B)
    Il faut donc clairement répondre par la négative à la question ci-dessus : la variable d’efficacité n’avait aucune pertinence clinique.

    La pertinence clinique aurait au moins pu être approximée si les cas B avaient jamais été démontrés. Cependant, ceux-ci ne peuvent être trouvés ni dans l'article de Polack ni dans aucun document de Pfizer-Biontech, à une exception discrète près 6 ; aborder ce sujet dépasserait le cadre de cet article. Le problème est décrit dans mon rapport ; J'ai pensé à un article séparé. Le fait que les cas B importants n’aient jamais été montrés nulle part est probablement encore relativement inconnu, même si Peter Doshi l’a souligné début janvier 2021. 7

    On peut en être sûr : si ces chiffres jetaient un éclairage positif sur la vaccination, ils seraient désormais largement connus.

    Quoi qu’il en soit, il aurait dû être clair pour le lecteur semi-expérimenté de l’article de Polack qu’il manquait quelque chose et que la variable d’efficacité n’était pas cliniquement pertinente. Même si les mois d’hystérie politico-médiatique de l’époque ont présenté le COVID-19 comme la pire maladie de mémoire d’homme, dont la prévention à elle seule apporterait le salut et le salut.

    Les sympathisants du vaccin s’opposeront probablement à quelque chose comme ceci : mais le COVID-19 était une maladie terrible, nouvelle et mortelle…

    Quod esset demonstrandum – ce qui aurait (été) prouvé. Mais cela n’est jamais arrivé.

    RépondreSupprimer
  6. Qu'est-ce qui aurait pu être utilisé ?

    Puisqu’il n’y avait rien de mieux que les cas A, il n’y avait pas d’autre choix que de l’accepter. Après tout, il ne faut pas oublier que les cas A dressent un tableau trop positif.

    Une telle considération ne doit alors en aucun cas se baser sur l’ensemble « par protocole (PP) » préféré par Pfizer-Biontech, mais plutôt sur l’ensemble « en intention de traiter (ITT) » beaucoup plus large. Hormis les lignes directrices : Au cours des 3 dernières décennies, il n'y a eu aucune étude sérieuse sur la question de la supériorité, ce qui est le cas d'un contrôle placebo dans lequel l'évaluation primaire a été réalisée à l'aide d'un set PP. Au moins les données de l'ensemble ITT ont été présentées dans la publication (Fig. 1); Il s'agit des chiffres 50 et 275 cas de « COVID-19 ».

    - voir cadre sur site -

    Extrait de la figure 3 de Polack et al., NEJM, 2020.
    Ce tableau se trouvait sous la figure 3 et faisait référence à une « population en intention de traiter modifiée » mentionnée dans l'article, qui à son tour appartient à la « Dose 1 entièrement disponible ». population d’efficacité » du rapport d’étude clinique.
    En plus des cas A, les dénominateurs étaient indiqués dans les en-têtes. Sans compter les chiffres étrangement nettement inférieurs dans la colonne « temps de surveillance ». Je n'ai jamais vu de justification à cet écart. Après tout, l’heure et le chiffre qui se cache derrière permettent de calculer la durée d’observation : environ 2,25 mois. Polack et coll. ont signalé une durée médiane de 2,5 mois. Jusqu'ici, d'accord.

    Il aurait suffi de recalculer les incidences elles-mêmes à partir des chiffres de la figure 1, c'est-à-dire pour le vrai 50 / 21 669 = 0,23 % et pour le placebo 275 / 21 686 = 1,27 %, ce qui représente une différence (= réduction du risque absolu, ARR ) de 1,04% de résultats ; en demander trop ? Cet ARR a été atteint en 2,25 à 2,5 mois.

    Comment les bénéfices auraient-ils pu être évalués ?
    Avec ce ARR, on aurait pu commencer une analyse des bénéfices.

    Donc si (!) la vaccination a provoqué un « gain », c’est-à-dire une réduction du COVID-19, de 1,04 % : qu’avez-vous dû « investir » au départ pour cela, c’est-à-dire en termes d’effets secondaires ?

    La publication a également fourni ces informations, notamment à partir de l'enregistrement spécifique des effets secondaires (Fig. 2). Près de 8 000 participants ont été interrogés sur les deux vaccinations à l'aide d'une liste donnée ; Autrement dit, comme la variable d'efficacité, il s'agissait d'une enquête totale, qui aboutit à des incidences élevées et est directement comparable à l'ARR.

    RépondreSupprimer
  7. Ce qui était intéressant, ce sont moins les incidences absolues que les différences par rapport au placebo. Effets secondaires systémiques tels que : Selon Verum, la « fatigue » et les « maux de tête » étaient compris entre 25 et 59 %, et les effets secondaires locaux (douleur) étaient encore plus élevés (Fig. 1).

    Les différences par rapport au placebo pour les effets secondaires systémiques variaient entre 11 et 36 %. Il convient de garder à l’esprit que les « frissons » et la « fièvre » à eux seuls sont susceptibles d’être directement additifs, ce qui catapulte les différences par rapport au placebo après la deuxième dose dans une fourchette de 30 % à 46 %. D’autres symptômes peuvent également s’ajouter. Il y aurait probablement des incidences et des différences encore plus élevées si les doses 1 et 2 avaient été combinées. Une estimation extrêmement prudente peut donc être faite : au moins 25 % des participants verum ont eu plus d’effets secondaires systémiques de la vaccination que les participants placebo.

    - voir cadre sur site -

    Copie de la figure 2 de Polack et al., NEJM, 2020.

    Les chiffres au-dessus des colonnes montrent les valeurs en pourcentage. Veuillez noter que la catégorisation des plages de mesure de la « fièvre » dans l'échelle de gravité est discutable, car seule une température de 38,0° à 38,4° C a été classée comme « légère » et les températures de 37,0 à 37,9° C n'ont pas du tout été enregistrées. Par conséquent, ces critiques diffèrent grandement de celles concernant les « frissons » et l’utilisation de médicaments contre la fièvre.
    Si l'on considère les effets secondaires locaux, c'est-à-dire essentiellement la douleur, l'augmentation dans le groupe verum était d'au moins 50 %. Vous devriez le savoir, même si les effets secondaires locaux – peut-être ! – ne peut pas être si facilement compensé par les « gains » systémiques du « COVID-19 ». L’évaluation individuelle peut parfois être différente.

    Un « investissement » d’au moins 25 % d’effets secondaires plus fréquents a été compensé par une « perspective de profit » d’environ 1,04 % de moins « COVID-19 » !

    Le gain de 1,04 %, s’il s’agissait d’un gain cliniquement pertinent, s’est produit en 2,25 mois environ ; si vous estimez la durée en faveur de Comirnaty. Les effets secondaires ne sont apparus qu’après la première et surtout la deuxième dose, c’est-à-dire initialement. Alors, quand le « seuil de rentabilité » serait-il atteint, c’est-à-dire le point où « investissement » et « profit » s’équilibrent ? Purement théorique et sans prise en compte de la perte d'efficacité.

    RépondreSupprimer
  8. Afin de compenser à lui seul le taux d’effets secondaires estimé de manière prudente à 25 %, les personnes vaccinées auraient dû entrer dans le pays pendant 25 %/1,04 % = 24, soit 24 fois 2,25 mois = 54 mois, afin d’atteindre la « pause ». -même". Donc plus de 4 ans !

    Était-ce clair pour les vaccinateurs ?

    Les personnes vaccinées ont-elles été informées de ce problème à ce moment-là ?

    Peut-on parler d’un bénéfice individuellement attendu ?

    Peut-être si la vaccination offrait réellement une protection à vie. Bien que cela ait été largement propagé, cela était biologiquement presque impossible dès le départ. Car il était bien connu que, en supposant l’existence du SARS-CoV-2, ces virus à ARN mutaient extrêmement rapidement. 4 ans de protection ? Ce n’est pas non plus le cas pour les vaccins contre la grippe.

    Pourquoi les entreprises ont-elles commencé à saboter cette étude le 14 décembre 2020 en convainquant les participants au placebo de se faire vacciner réellement ? OK, cela était peut-être clair pour très peu de gens à l’époque. Je n’ai eu connaissance de rumeurs à ce sujet que vers février 2021. Au moins, les centres de test allemands devaient en avoir connaissance.

    Pourquoi les entreprises ont-elles commencé à préparer les études pour le booster dès le printemps 2021 ? L'ECR correspondant pour Comirnaty a débuté le 1er juillet 2021 - sans préparation ? Les premiers rappels ont été administrés en Allemagne fin août 2021 ! D’ici là, on ne pourrait plus parler de protection durable.

    Un « COVID-19 » sévère

    Aujourd’hui, les incorrigibles hésitants à la vaccination pourraient objecter : oui, peut-être, mais… la vaccination a évité une maladie grave.

    Examinons cela également de plus près en nous basant sur l'article de Polack. Pour les cas de « COVID-19 grave », il aurait fallu aussi jeter un œil à l’annexe de l’article (« Annexe supplémentaire ») et faire le calcul de fraction le plus simple. Malheureusement, l'annexe est rarement parcourue, même si les résultats problématiques, c'est-à-dire intéressants, s'y trouvent généralement. Celles que les auteurs devraient ou devraient montrer, mais en même temps préféreraient cacher. Ici encore, je fais référence à l'ensemble ITT, même si ces chiffres sont plus favorables à Comirnaty que les données préférées de Pfizer sur l'ensemble PP (Fig. 3).

    RépondreSupprimer
  9. On aurait pu facilement voir à partir de ceux-ci et de ceux de la figure 1 que seulement 1 (2 %) sur 50 cas de COVID-19 dans le groupe verum et 9 (3,3 %) sur 275 dans le groupe placebo ont été classés comme « graves » ; par conséquent également que 98% et 97% n'étaient pas considérés comme difficiles.

    - voir cadre sur site -

    Copie du tableau S5 de Polack et al., NEJM, 2020

    NB : La rangée du haut (1 ... 9) correspond au résultat de l'ensemble ITT, la rangée du bas au résultat de l'ensemble PP (1 ... 4) .
    Les chiffres exacts des effets secondaires graves, comme indiqué dans la figure 3, n'ont pas pu être extraits de l'article et de l'annexe. Il y avait au moins les incidences globales des événements indésirables ( événements indésirables, EI , Fig. 4) en annexe de l'article. Tous les EI, « graves » et « apparentés », étaient nettement plus fréquents dans le groupe verum que dans le groupe placebo ; p = 0 s'applique à toutes ces différences.

    Il n'y avait aucune différence significative entre les cas « mettant la vie en danger » et « grave », mais dans ce dernier cas, il y avait une tendance vers le verum.

    - voir cadre sur site -

    Extrait du tableau S3 de Polack et al., NEJM, 2020

    De tout cela, on aurait facilement pu constater qu’aucun bénéfice individuel n’était à attendre à cette époque. Même si vous ajoutez les cas de « COVID-19 sévère » aux « EI sévères », vous obtiendrez 241 verum et 148 placebo, p = 0,000001.

    La différence est telle que la question de savoir si les cas d’EI « graves » ou « graves » incluent ou non les cas de « COVID-19 grave » ne semble pas pertinente.

    Ici aussi, vous pouvez calculer le « seuil de rentabilité », qui serait d'environ 28 mois. 8 Ce calcul est toutefois soumis à la réserve que les AE se réfèrent à l'ensemble de la période d'observation et ne sont donc en aucun cas « restés » au début. Un « infini » ou un « jamais » seraient donc tout aussi envisageables.

    Faut-il mentionner qu’avec les boosters, ces calculs ne pourraient que s’aggraver considérablement ?

    RépondreSupprimer
  10. Conclusion

    Sur la base de la publication scientifique de l'étude contrôlée contre placebo sur Comirnaty, il aurait dû être clair pour tout le monde qu'un bénéfice individuel de ces vaccinations pouvait être exclu à court terme et était extrêmement improbable à long terme.

    À moins que le vacciné potentiel n’ait une peur complètement exagérée et unilatérale du « COVID-19 », et c’est précisément cette peur qui aurait dû être « traitée » en priorité. Les médias et les politiciens ont certainement fait tout ce qu’ils pouvaient à l’époque pour attiser ces craintes. Mais n'aurait-il pas été de la responsabilité de médecins sensés et prudents d'apaiser ces craintes pour les vaccinés ? Au lieu de recourir à l’injection simple et rentable ?

    Y avait-il quelque part l’indication de vaccination « peur du COVID-19 » ?

    Début 2021, il n’existait qu’un vague espoir d’une protection à long terme grâce à la vaccination. Cet espoir a été détruit à l’été 2021 par le début ou la propagation des vaccinations de rappel. Toute tentative visant à obtenir des données fiables sur la protection à long terme a déjà été contrecarrée par le sabotage des fabricants, c'est-à-dire la dissolution du groupe placebo. Cela a été connu au plus tard à la mi-avril 2021. A une époque où les autorités et les médecins auraient facilement pu annuler la campagne.

    Mes remerciements vont à Ulf Lorré pour ses suggestions.

    informations d'identification

    1 Kremer HJ. Rapport sur les bénéfices et les risques de Comirnaty, le vaccin modRNA de Pfizer-Biontech. 27 mai 2024, version DE 1.1, https://kremer.tentary.com/p/My5eA4

    2 Polack FP, Thomas SJ, Kitchin N et al.; Groupe d’essais cliniques C4591001. Sécurité et efficacité du vaccin BNT162b2 à ARNm Covid-19. N Engl J Med. 31 décembre 2020;383(27):2603-2615. est ce que je: 10.1056/NEJMoa2034577. Publication en ligne le 10 décembre 2020.

    3 https://nejm.altmetric.com/details/95765100#score , tiré le 24 avril 2024.

    RépondreSupprimer
  11. 4 https://www.aerztezeitung.de/Medizin/Phase-III-Studie-zu-Corona-Vakzine-BNT162b2-jetzt-publiziert–415503.html , publié le 10 décembre 2020.

    5 Le « RT » signifie « transcriptase inverse » et est souvent omis dans le cadre du test PCR. Je considère le niveau de RT comme essentiel en lien avec le COVID-19 et les vaccinations : 1. La RT est nécessaire pour rendre l'ARN accessible au test PCR, qui ne peut répliquer que l'ADN. 2. Le niveau RT peut être utilisé pour manipuler le test. En fait, je crains cela.

    6 Document d'information de la FDA sur le vaccin Pfizer-BioNTech contre la COVID-19, 10 décembre 2020, disponible sur fda.gov. On ne s'y trouve qu'en prose. Pour ce faire, recherchez le numéro 1594.

    7 https://blogs.bmj.com/bmj/2021/01/04/peter-doshi-pfizer-and-modernas-95-effective-vaccines-we-need-more-details-and-the-raw-data /

    8 Les incidences de « COVID-19 sévère » étaient de 0,005 % après verum et de 0,042 % après placebo, soit une différence de 0,037 % ; des « EI sévères » 1,11 % après verum et 0,64 après placebo, différence 0,467 % ; Le rapport des différences était de 12,6, cette fois 2,25 mois équivaut à 28,4 mois.

    Les opinions exprimées dans cet article ne reflètent pas nécessairement les opinions des auteurs fixes de TKP. Les droits et la responsabilité du contenu incombent à l'auteur.

    Dr. Hans-Joachim Kremer possède des décennies d'expérience dans la recherche clinique et travaille comme rédacteur médical indépendant.

    https://tkp.at/2024/05/30/was-haette-man-ende-2020-zum-comirnaty-wissen-koennen/

    RépondreSupprimer
  12. Les masques se sont révélés inefficaces après la première vague Omicron : nouvelle étude


    PAR TYLER DURDEN
    JEUDI 30 MAI 2024 - 11H00
    Rédigé par Megan Redshaw, J.D. via The Epoch Times


    Au début de la pandémie de COVID-19, les masques étaient une mesure de santé publique recommandée pour prévenir la transmission du virus. Pourtant, de nouvelles recherches suggèrent que les masques étaient inefficaces pour réduire le risque d’infection lorsque l’Omicron est devenu la variante dominante.

    Dans une étude publiée dans PLOS ONE, les chercheurs ont découvert que plusieurs facteurs de risque d’infection, notamment le port d’un masque, ont changé de manière significative en décembre 2021, lorsque Omicron est devenu la variante dominante du SRAS-CoV-2.

    Pour aider à expliquer pourquoi certaines interventions étaient associées à une diminution du risque d'infection au début de la pandémie mais étaient moins protectrices ou associées à un risque accru plus tard, les chercheurs ont examiné les données d'une enquête de l'Office britannique des statistiques nationales (ONS) auprès de 200 000 personnes qui ont été testés pour le COVID-19 toutes les deux semaines.

    En plus de publier des données sur la prévalence de la maladie, l’ONS a posé des questions aux personnes sur leur situation et leurs habitudes de novembre 2021 à mai 2022 afin de déterminer si certains facteurs de risque étaient associés à des tests positifs au COVID-19. Cette période couvrait plusieurs variantes du SRAS-CoV-2, y compris les dernières semaines de la variante Delta et des variantes Omicron BA.1 et BA.2.

    Selon l’étude, les adultes et les enfants qui portaient systématiquement des masques au travail, à l’école ou dans des espaces clos avant novembre 2021 présentaient un risque réduit d’infection, mais pas après le début de la première vague d’Omicron.

    RépondreSupprimer
  13. Lors de la première vague d’Omicron, ne jamais porter de masque était associé à un risque accru d’infection d’environ 30 % chez les adultes et de 10 % chez les enfants. Mais lors de la deuxième vague, entraînée par la sous-variante BA.2 à partir de février 2022, le port d’un masque n’offrait aucune protection aux adultes et augmentait potentiellement le risque d’infection pour les enfants.

    « Au début de la pandémie, de nombreuses études ont été publiées sur les facteurs de risque d’attraper le COVID, mais beaucoup moins d’études après environ un an. "Notre recherche montre qu'il y a eu des changements dans certains facteurs de risque au moment où la variante Omicron BA.2 est devenue dominante", a déclaré l'auteur principal, le Dr Paul Hunter de la Norwich Medical School de l'Université d'East Anglia, dans un communiqué de presse.

    Les changements dans les facteurs de risque peuvent expliquer les résultats
    Julii Brainard, auteur correspondant de l’article et chercheur principal en santé des populations à la Norwich Medical School au Royaume-Uni, a expliqué dans un e-mail adressé à Epoch Times que plusieurs facteurs de risque avaient changé au cours de l’ensemble de la pandémie, ce qui pourrait expliquer leurs conclusions.

    "Nos meilleures hypothèses, et il s'agit d'un ensemble d'hypothèses, sont que plusieurs choses ont convergé : au Royaume-Uni, en décembre 2021, la plupart des gens avaient reçu plusieurs vaccinations et au moins une, voire plusieurs, infections sauvages", a déclaré Mme Brainard. .

    « Lorsque [la] pandémie de COVID a commencé, son super pouvoir était que tout le monde était vulnérable à l’infection. Certaines personnes présentaient des symptômes bénins, tandis que de nombreuses personnes souffraient d’une maladie terrible qui menaçait de submerger tous les services de santé. Les règles de distanciation sociale et le port de masques n’ont pas fourni une protection parfaite, mais ils ont probablement évité de nombreuses infections en 2020 et ont permis de gagner du temps jusqu’à ce que de bons vaccins soient développés », a-t-elle ajouté.

    RépondreSupprimer
  14. « Cependant, le rôle de la vaccination et les infections sauvages répétées signifiaient qu’en moyenne, début 2022, la gravité moyenne de la maladie était très légère. Si bénigne, en fait, que de nombreuses personnes pourraient finir par transmettre le virus sans savoir qu'elles en étaient atteintes, y compris au sein des ménages ; très peu de gens portaient des masques en présence de colocataires. Les gens baissent leur garde envers les autres personnes avec lesquelles ils ont le plus de contacts, du moins s’ils ne semblent pas malades », a-t-elle déclaré.

    Comme on l’a vu avec les nouvelles maladies émergentes, Mme Brainard a déclaré que le développement naturel de l’épidémie peut également expliquer leurs résultats, dans la mesure où les variantes ultérieures infectent les gens différemment des précédentes. Par exemple, des variantes ultérieures pourraient rendre une maladie plus transmissible ou plus facile à contracter, mais entraîner une maladie plus bénigne au fil du temps. De plus, le virus peut affecter différemment les voies respiratoires.

    Mme Brainard a déclaré qu’un autre facteur pourrait être que notre système immunitaire ne forme pas d’immunité permanente contre un virus comme le SRAS-CoV-2. En conséquence, les gens peuvent connaître des cas récurrents, généralement bénins, d’infections au COVID-19 pour le reste de leur vie, car le virus circule pour toujours parmi les humains.

    "Hautement transmissible, très courante, susceptible d'avoir des symptômes assez légers, c'est une infection parfaite pour se propager au sein de petits cercles sociaux ou de ménages", a-t-elle déclaré. « Peut-être que le port d’un masque à l’extérieur de la maison a cessé d’être une protection aussi utile parce qu’il y avait de toute façon tellement de transmission susceptible de se produire dans les cercles sociaux « de confiance ».

    Les masques ne réduisent que modestement les risques

    Mme Brainard a déclaré à Epoch Times qu’elle et son co-auteur, le Dr Paul Hunter, estimaient que certaines personnes investissaient « beaucoup trop de confiance » dans le port de masques. Leur revue systématique de 2020 a suggéré que les masques ne réduisaient que modestement le risque de transmission de maladies pseudo-grippales d’environ 19 % si les deux parties – les infectées et les sensibles – portaient des masques.

    RépondreSupprimer
  15. Le Dr Hunter a fait référence à plusieurs reprises aux déclarations de l'Organisation mondiale de la santé remontant à 2002, qui suggèrent que les interventions non pharmaceutiques ne font que gagner du temps lors des épidémies, et que les solutions pharmacologiques raccourcissent en fait les épidémies et réduisent la morbidité et la mortalité, a-t-elle déclaré.

    « Personnellement, je me suis senti déconcerté lorsque j'ai rencontré des personnes faisant la promotion passionnée des masques – la foi profonde qu'ils voulaient placer dans le port d'un masque. Et la colère que les gens ont exprimée à propos du port ou non d’un masque », a déclaré Mme Brainard à Epoch Times.

    Dans le même temps, il y a « de nombreuses raisons de ne pas être surpris » en ce qui concerne les conclusions du document, a-t-elle déclaré. Nous connaissions déjà certains aspects de l’évolution de l’épidémie grâce à des recherches antérieures qui ont guidé nos attentes. Nous savons que les épidémies culminent et diminuent naturellement, même si elles peuvent réapparaître. Nous savons également que les nouvelles infections microbiennes ont tendance à devenir plus transmissibles et moins dangereuses avec le temps, et que les populations développent une résistance à de nouvelles maladies. De plus, nous comprenons que les maladies respiratoires sont hautement transmissibles et difficiles à contenir, la plupart des transmissions se produisant entre des personnes physiquement proches, a-t-elle ajouté.

    https://www.zerohedge.com/medical/masks-found-be-ineffective-after-first-omicron-wave-new-study

    RépondreSupprimer
  16. Signes courants de carence en vitamine B1


    Par le Dr Joseph Mercola
    Mercola.com
    30 mai 2024


    La thiamine (vitamine B1) est utilisée par presque toutes vos cellules et est essentielle à plusieurs fonctions de l'organisme. La thiamine est considérée comme une vitamine « essentielle » car votre corps ne peut pas la produire lui-même ; il doit être obtenu auprès de sources extérieures ; que ce soit un régime ou une supplémentation.

    Avantages pour la santé de la thiamine

    Les principaux avantages pour la santé et les mécanismes d’action de la thiamine comprennent :

    Production d'énergie — La thiamine joue un rôle central dans le métabolisme du glucose pour produire de l'énergie pour le corps. Il est essentiel au bon fonctionnement du cycle de Krebs, une voie essentielle de production d'énergie qui convertit les protéines, les graisses et les glucides en énergie.

    Fonction nerveuse – La thiamine est parfois qualifiée de vitamine « antistress » en raison de son influence positive sur votre système nerveux central. Il contribue au maintien de cellules nerveuses saines et favorise le bon fonctionnement de votre système nerveux.

    La carence en thiamine a été impliquée dans la sclérose latérale amyotrophique (SLA), les patients atteints de SLA ayant des taux de thiamine environ 60 % inférieurs dans leur cerveau et leur système nerveux périphérique, ce qui entraîne une altération sévère du métabolisme du glucose.1 Il existe également des preuves limitées suggérant des doses élevées de thiamine et de biotine. peut aider à inverser la pathologie observée dans la maladie de Huntington, encore une fois en rétablissant le métabolisme du glucose.2

    RépondreSupprimer
  17. Santé cardiaque — La thiamine contribue au bon fonctionnement du cœur. Il participe à la production du neurotransmetteur acétylcholine, utilisé pour relayer les messages entre les nerfs et les muscles et essentiel au fonctionnement normal du cœur.

    Fonction cognitive — Des niveaux adéquats de thiamine sont associés à une amélioration de la fonction cognitive. Il contribue au maintien d’un cerveau sain, en particulier chez les personnes âgées, et peut aider à prévenir les troubles liés au déclin cognitif, notamment la maladie d’Alzheimer.3,4

    Comme l’explique l’Association Alzheimer5, « la thiamine aide les cellules cérébrales à produire de l’énergie à partir du sucre. Lorsque les niveaux tombent trop bas, les cellules cérébrales ne peuvent pas générer suffisamment d’énergie pour fonctionner correctement.

    En effet, un métabolisme altéré du glucose est une caractéristique connue de la maladie d’Alzheimer et d’autres démences, et les chercheurs ont postulé que cette réduction du métabolisme du glucose est causée par un « déclin des processus dépendants de la thiamine ».6

    Santé digestive – La thiamine aide à la production d’acide chlorhydrique, essentiel à une bonne digestion. Des niveaux adéquats de thiamine garantissent une digestion efficace des aliments et une absorption des nutriments.

    Prévention des complications du diabète – La recherche suggère que la thiamine peut aider à prévenir les complications chez les personnes atteintes de diabète en les protégeant contre le stress oxydatif et en améliorant éventuellement la tolérance au glucose.

    Fonction immunitaire – La thiamine est également importante pour une fonction immunitaire saine. En plus des nutriments comme le zinc et les vitamines C et D, il aide à protéger contre les maladies respiratoires infectieuses.

    Le syndrome de carence en thiamine (béribéri) a également été impliqué dans d'autres types d'infections graves et présente de nombreuses similitudes avec la septicémie. C’est l’une des raisons pour lesquelles la thiamine joue un rôle si important dans le traitement du sepsis par le Dr Paul Marik.7 Le sepsis, à son tour, est un contributeur majeur aux décès dus à la grippe en général, et une cause principale des décès dus au COVID-19 en particulier.

    RépondreSupprimer
  18. Thiamine dans la dépendance à l'alcool et les maladies auto-immunes

    La thiamine est fréquemment recommandée et administrée aux personnes souffrant de dépendance à l'alcool, car la consommation d'alcool réduit l'absorption de la vitamine dans le tractus gastro-intestinal. On estime que 80 % des alcooliques ont une carence en thiamine et sont donc plus sujets aux effets secondaires et aux affections énumérées ci-dessus.8

    La thiamine est également très importante pour les personnes atteintes de maladies auto-immunes telles que les maladies inflammatoires de l'intestin (MII) et la maladie de Hashimoto (une maladie auto-immune de la thyroïde).9 Dans des études de cas,10,11 il a été démontré que la supplémentation en thiamine améliore la fatigue chez les patients auto-immuns en seulement quelques jours.

    Il est intéressant de noter que dans l’une de ces études12, portant sur des patients atteints de MII, les patients ont répondu favorablement à la supplémentation même s’ils avaient tous des niveaux de base « normaux ».

    Les auteurs supposent que les symptômes de carence en thiamine dans de tels cas pourraient être liés à des défauts enzymatiques ou à un dysfonctionnement du mécanisme de transport de la thiamine (par opposition à un problème d'absorption), qui peuvent être surmontés en administrant de grandes quantités de thiamine.

    La carence en thiamine peut être sous-estimée

    Bien que la carence en thiamine soit souvent le résultat d'un abus d'alcool, d'infections chroniques, d'une mauvaise alimentation et/ou d'une malabsorption, les recherches suggèrent que la disponibilité de la vitamine B1 a considérablement diminué tout au long de la chaîne alimentaire au cours des dernières années,13 et que cela affecte naturellement votre capacité à obtenir suffisamment de thiamine à partir de votre alimentation. régime.

    RépondreSupprimer
  19. Les hommes et les femmes adultes ont besoin respectivement de 1,2 et 1,1 mg chaque jour.14 Si vous présentez des symptômes de carence en thiamine, vous aurez peut-être besoin de doses plus élevées.

    Étant donné que les plantes et la faune sont de plus en plus déficientes en thiamine15, il est logique de soupçonner que cette carence devient également de plus en plus courante dans la population humaine. Malheureusement, les statistiques sur la carence en thiamine dans la population américaine ne sont pas facilement disponibles sous un format direct et complet, il est donc difficile d’évaluer son ampleur.

    Compte tenu de l’importance cruciale de la thiamine pour la santé et du fonctionnement biologique optimal – et de l’augmentation rapide des affections associées à une carence en thiamine – il est important d’évaluer votre apport au niveau individuel. Une façon d’y parvenir serait d’utiliser un calculateur nutritionnel en ligne tel que Cronometer. Une autre façon d’évaluer votre statut consiste à rechercher des signes et des symptômes de carence.

    Signes et symptômes d'une carence en thiamine

    Les premiers symptômes d’une carence en thiamine comprennent :16,17

    - voir cadre sur site -

    À mesure que votre carence s’aggrave, elle peut évoluer vers l’un des quatre types de béribéri :18

    RépondreSupprimer
  20. Béribéri paralytique ou nerveux (alias « béribéri sec ») — Dommages ou dysfonctionnement d'un ou plusieurs nerfs de votre système nerveux, entraînant un engourdissement, des picotements et/ou des réflexes exagérés
    Béribéri cardiaque (« humide ») – Problèmes neurologiques et cardiovasculaires, notamment accélération du rythme cardiaque, hypertrophie du cœur, œdème, problèmes respiratoires et insuffisance cardiaque
    Béribéri gastro-intestinal – Nausées, vomissements, douleurs abdominales et acidose lactique
    Béribéri cérébral — Encéphalopathie de Wernicke, dysfonctionnement cérébelleux provoquant des mouvements oculaires anormaux, ataxie (manque de coordination musculaire) et troubles cognitifs. Si elle n'est pas traitée, elle peut évoluer vers la psychose de Korsakoff, un trouble cérébral chronique qui se manifeste par une amnésie, une confusion, une perte de mémoire à court terme, une confabulation (souvenirs fabriqués ou mal interprétés) et dans les cas graves, des convulsions.
    Consommez-vous suffisamment de vitamines B ?

    Si vous présentez l'un des signes énumérés ci-dessus ou si vous découvrez que votre apport quotidien est insuffisant avec Cronometer, la solution est de manger davantage d'aliments riches en thiamine, comme le germe de blé et la courge poivrée, et/ou de prendre un supplément.

    Une insuffisance ou une carence en thiamine peut se développer en seulement deux semaines, car sa demi-vie dans votre corps n'est que de neuf à 18 jours.
    Les preuves suggèrent qu'une insuffisance ou une carence en thiamine peut se développer en seulement deux semaines, car sa demi-vie dans votre corps n'est que de neuf à 18 jours.19 Idéalement, choisissez un complément alimentaire de haute qualité contenant un large spectre de vitamines B. pour éviter de créer un déséquilibre. Les directives suivantes peuvent également aider à protéger ou à améliorer votre statut en thiamine :

    RépondreSupprimer
  21. Mangez des aliments fermentés – Toute la série de vitamines du groupe B est produite dans votre intestin à condition que vous disposiez d’un microbiome intestinal sain. Manger de vrais aliments, idéalement biologiques, ainsi que des aliments fermentés fournira à votre microbiome des fibres importantes et des bactéries bénéfiques qui vous aideront également à optimiser votre production interne de vitamine B.
    Évitez la consommation excessive d'alcool, car l'alcool inhibe l'absorption de la thiamine, ainsi que l'utilisation fréquente de diurétiques, car ils entraîneront une perte de thiamine.
    Évitez les aliments et les boissons riches en sulfites tels que les viandes transformées non biologiques, le vin et la bière blonde, car les sulfites ont des effets antithiamine.
    Corrigez toute insuffisance ou carence suspectée en magnésium, car le magnésium est nécessaire comme cofacteur dans la conversion de la thiamine.
    Recommandations d'apport quotidien

    Bien que les besoins individuels puissent varier considérablement, les recommandations d'apport quotidien typique en vitamines B sont les suivantes :

    Sources and References

    1 Haidut.me June 28, 2023 (Archived)
    2 Haidut.me February 24, 2023 (Archived)
    3 Haidut.me July 12, 2022 (Archived)
    4 Haidut.me August 27, 2021 (Archived)
    5 Alzheimer’s Association, Korsakoff Syndrome
    6 Businesswire July 7, 2022
    7 Chest June 2017; 151(6): 1229-1238
    8, 16, 18 alcoholrehabhelp.org Thiamine
    9 Thyroidpharmacist.com August 23, 2023
    10, 12 Journal of Alternative and Complementary Medicine 2013 Aug;19(8):704-8
    11 Journal of Alternative and Complementary Medicine 2013; 00(00): 1-4 (PDF) (Archived)
    13, 15 The Science Times January 31, 2021
    14, 20 NIH Thiamin, February 9, 2023
    17 Theheartysoul.com April 2, 2024
    19 Journal of Thoracic Disease 2016 Jun; 8(6): 1062–1066, Thiamine Elimination and Associated Thiamine Insufficiency Syndromes
    21 NIH Riboflavin May 11, 2022
    22 Mayo Clinic Niacin
    23 Self Nutrition Data, Nutritional Yeast (Archived)
    24 NIH Vitamin B6 June 16, 2023
    25 NIH Biotin January 10, 2022
    26 Mount Sinai Health 2021
    27 Chalkboard, Nutritional Yeast
    28 NIH Folate November 1, 2022
    29 USDA Nutritional Yeast Seasoning July 17, 2019

    https://www.lewrockwell.com/2024/05/joseph-mercola/common-signs-of-vitamin-b1-deficiency/

    RépondreSupprimer
  22. Une brève histoire des erreurs nutritionnelles


    30 mai 2024
    par Univ.-Doz.(Vienne) Dr. méd. Gerd Reuther


    Récemment, Peter F. Mayer a disséqué une étude selon laquelle un régime cétogène était nocif pour la santé. Comme pour presque toutes les comparaisons de différentes compositions alimentaires, le fait que la nourriture sans glucides des animaux testés consistait en un produit artificiel industriel n'a pas été pris en compte. Mais quiconque ignore les additifs pour la consistance et la durabilité, le traitement thermique, l’irradiation ou l’exposition toxique doit commettre une erreur. La transformation des matières premières ne modifie pas nécessairement le contenu énergétique, mais elle modifie les avantages ou les inconvénients de ce que nous consommons. 98 % des ingrédients de nos aliments sont inconnus de la science ou ignorés dans les critiques !

    Pour les nutritionnistes et les médecins, la relation entre les protéines, les graisses et les glucides ainsi que certains aliments (huile d'olive, etc.) est au premier plan depuis 150 ans. En fait, ce ne sont pas les composants individuels qui comptent, mais plutôt leur qualité et la quantité totale de nourriture. La meilleure preuve en est la diversité des aliments selon les sociétés dans lesquelles les gens atteignent la vieillesse. i La science nutritionnelle actuelle contribue encore moins à l'acquisition de connaissances que ses prédécesseurs, qui n'ont eu à faire face aux effets de la production alimentaire industrielle que bien au XVIIIe siècle.

    La compétence nutritionnelle n’a pas de tradition en médecine conventionnelle
    Lorsque l’Église catholique fonda la profession médicale au XIIIe siècle, la nutrition n’était pas un problème. Après tout, il existait pour cela de nombreuses exigences religieuses, qui visaient à s'abstenir de manger de la viande, de la graisse et de l'alcool, avec des périodes de jeûne prolongées et des interdictions de viande, de graisse et d'alcool. Les médecins ne peuvent ni ne doivent s’impliquer. Il n’est pas étonnant que les recommandations médicales nutritionnelles au fil des siècles n’aient pas dépassé les connaissances de la population.

    Les dirigeants s'attendaient toujours à ce que leurs médecins personnels leur donnent des recommandations pour une vie plus longue. En plus de nombreuses bêtises, y compris des substances toxiques, cela impliquait généralement des conseils sur certains aliments et boissons. La preuve de leurs avantages n’a jamais été fournie. Il s’agissait de conseils ou d’expériences extrêmement subjectifs de professionnels de la santé non professionnels que les médecins avaient adoptés. Ce n'est que pour les malades qu'il existait des directives nutritionnelles destinées à contrecarrer les excès présumés de chaleur, de froid, de sécheresse ou d'humidité.

    RépondreSupprimer
  23. Cela a changé avec la pénétration croissante de l’idéologie chrétienne. Il fallait désormais « améliorer » les fluides corporels naturels attribués à chaque être humain, même lorsqu’il était en bonne santé. Le christianisme a commencé en Europe à percevoir les gens comme des êtres défectueux qui avaient besoin d'être perfectionnés par une bonne alimentation ou le jeûne. Les mélancoliques devraient manger « des aliments humides et chauds » ou les colériques devraient manger « des aliments froids et humides ». Le transhumanisme d'aujourd'hui vous salue ! ii

    Les recommandations nutritionnelles de la profession médicale ont attiré l’attention du grand public à l’époque moderne avec le transport maritime intercontinental. Le long séjour à bord sans fruits et légumes frais a entraîné un manque de vitamine C chez les marins et donc le scorbut. Alors qu'au milieu du XVIIIe siècle, les médecins recommandaient encore de l'acide sulfurique dilué, au XVIe siècle, les équipes avaient déjà déterminé quels aliments provoquaient ou empêchaient la guérison du scorbut. Au moment où le jus de citron était conservé à bord, le scorbut n’était plus un problème.

    Jusqu’au XXe siècle, les médecins fournissaient rarement des recommandations nutritionnelles spécifiques aux populations locales des zones intérieures. Les déclarations se limitaient à des aliments intacts et en quantité suffisante. La gourmandise des classes supérieures avec excès d'alcool, consommation excessive de viande et, à partir du XVIe siècle, beaucoup de sucre, n'était le problème que de quelques médecins. Les messieurs Médicis préféraient faire saigner les classes supérieures lorsqu'il s'agissait de maladies de richesse : obésité, goutte, diabète, hypertension...

    RépondreSupprimer
  24. Avec l’éducation, les médecins se sont à nouveau impliqués davantage dans la nutrition. Le récit le plus détaillé en allemand se trouve dans Christoph Wilhelm Hufeland (1762-1836). iii Il a critiqué la classe supérieure pour sa « nourriture trop raffinée » qui omet les ingrédients terre-à-terre, l'utilisation d'ingrédients extraits et leur raffinage, ce qui rend inutile la mastication. Contrairement à la manière dont les aliments étaient consommés, les différents composants alimentaires ne jouaient pour lui aucun rôle : « Une personne qui vit naturellement, plus librement et en mouvement, a besoin de très peu de règles alimentaires. Notre alimentation artificielle ne devient nécessaire qu’en raison de notre vie artificielle. » Il était clair pour lui « que ce n’est pas seulement la qualité mais aussi la quantité de nourriture qui compte. Selon son observation, les gens atteignent l’âge le plus élevé lorsqu’ils « ». nous n’en avons choisi aucun. Nous avons suivi un régime alimentaire prudent mais avons vécu avec parcimonie.

    Même avec l’avènement de l’industrie alimentaire et des méthodes de conservation, d’adultération et d’adultération qui y sont associées, la profession médicale n’a pas reconnu le problème des aliments transformés. La mauvaise qualité de la nourriture et des boissons dans les villes en croissance n’a même pas été abordée dans un ouvrage en trois volumes sur la science alimentaire. iv Le « Traité sur l'alimentation de l'homme » de 1843 du pharmacien et chirurgien anglais Jonathan Pereira (1804-1853) ressemble davantage à un livre de chimie. La disgrâce de la science nutritionnelle s’est accentuée dans la seconde moitié du XIXe siècle lorsque le physiologiste Carl Michael Voit (1831-1908) a réduit l’alimentation aux composants de base que sont les glucides, les protéines et les graisses. Le métabolisme a été réduit à la dépense énergétique : 3 000 calories ont été calculées comme « norme de coût » pour un travailleur.

    Ni les chercheurs en nutrition ni la profession médicale n'ont reconnu les risques pour la santé posés par les aliments industriels hautement transformés. Le pionnier fut le chimiste allemand Friedrich Accum (1769-1838) de Londres. En 1820, il fut le premier à dénoncer les additifs toxiques présents dans les aliments. v Ses critiques l'ont rapidement mis dans le collimateur de l'industrie alimentaire émergente. Lorsqu'il a été traduit en justice pour un crime inventé de toutes pièces, Accum n'a eu d'autre choix que de fuir vers le continent pour éviter l'emprisonnement.

    RépondreSupprimer
  25. En Allemagne, ce sont des passionnés de naturopathie non universitaires qui misent sur les produits naturels dans leurs sanatoriums et deviennent les grands prêtres de la nutrition. Le médecin suisse et pionnier de l'alimentation crue Max Bircher-Benner (1867-1939) date le début de la recherche nutritionnelle en 1911 : « là où auparavant une personne faisait de la recherche, il y en avait désormais des milliers. vi Les moteurs de ce développement. Il s'agit des effets négatifs de l'alimentation industrielle, dont les conséquences se font sentir sur la santé de la population. La santé de la population peut être de moins en moins ignorée à mesure que la propagation s'accroît. En 1912, le chimiste polonais Casimir Funk (1884-1967) a inventé le terme « vitamines » alors que de nombreuses expériences menées dans divers endroits montraient que des états de carence survenaient malgré un apport calorique suffisant.

    En médecine conventionnelle, des recommandations nutritionnelles sauvages, contradictoires et en constante évolution restaient à l'ordre du jour : plats aux œufs pour la gonorrhée ; œufs mous pour favoriser les selles ; Famine en cas de typhoïde ou interdiction de la choucroute en cas de maladie mentale. vii Les méfaits ont commencé après la naissance, lorsque les médecins déconseillaient généralement l'allaitement maternel ou recommandaient du porridge au lieu du lait pour les nourrissons. Jusque dans les années 1970, les recommandations et les directives destinées aux personnes malades se réduisaient à des « aliments légers », qui se limitaient généralement à des légumes trop cuits et en purée, ainsi qu'à des bouillies et des tisanes. Rien de tout cela n’a été prouvé par des études scientifiques. Ce sont des combattants solitaires comme l'interniste Max Otto Bruker (1909-2001) en Allemagne qui ont vu la nocivité des sucres raffinés industriellement et les bienfaits des produits alimentaires complets comme la clé de la santé et les ont intégrés dans les traitements.

    Après la Seconde Guerre mondiale, la tendance à contrôler artificiellement la composition des aliments s’est accentuée. L’équilibrage, piloté par l’industrie, du volume de liquide et de l’apport calorique requis pour les solutions de perfusion est devenu le modèle d’une nutrition naturelle. La régulation de la prise alimentaire via notre microbiote a été totalement négligée. Avec le rejet croissant des produits naturels et une consommation alimentaire plus intense, l’obésité devait devenir une « maladie largement répandue ».

    RépondreSupprimer
  26. L’intérêt porté aux régimes qui en a résulté a contraint les médecins à prendre position à partir des années 1980. Fidèles à l’esprit du complexe médico-industriel, les recommandations coïncident depuis avec les intérêts de l’industrie agroalimentaire. Au lieu de promouvoir des produits crus régionaux fraîchement préparés, l'accent est resté sur la manière dont la proportion de glucides, de protéines et de graisses doit être structurée. Lorsqu’il s’agit de vitamines, d’oligo-éléments et de ce qu’on appelle les « fibres », peu importe qu’ils soient ajoutés chimiquement ou proviennent d’un composé naturel. En médecine, plusieurs substances sont encore appelées à tort « vitamines », alors que les substances liposolubles du complexe « Vitamine D », par exemple, sont en réalité des hormones d'importance essentielle.

    L’étendue de la transformation et du raffinage des aliments restait taboue pour la médecine universitaire. Seul le Brésil a été le premier et le seul pays à évaluer les aliments en fonction de leur degré de transformation industrielle selon les directives du nutritionniste Carlos Monteiro en 2014. Il vaut mieux discuter de la nocivité de la viande sans différencier si elle provient d’animaux en liberté ou d’un élevage industriel. Depuis lors, les découvertes universitaires ont au mieux confirmé des expériences réelles ou sont tout simplement fausses. Il n’existe pratiquement aucune recommandation fondée sur des preuves fiables.

    La médecine scientifique et technique a simplement donné naissance à de nombreuses hérésies au cours des dernières décennies, soutenues par des intérêts commerciaux évidents : nocivité des graisses animales et de la viande « rouge », santé grâce aux huiles végétales aux acides gras insaturés et à la viande « blanche », favoritisme du fructose. et les substituts du sucre ou certains types de margarine pour « améliorer » les lipides sanguins. Le flot d’études scientifiques est devenu un terrain de jeu pour les groupes de pression.

    Le fait que les « thérapies nutritionnelles » contredisent le credo de la médecine du travail montre à quel point les corps médicaux importants continuent d’ignorer l’importance de la nutrition pour la santé. viii Même les maladies basées sur la malnutrition, comme le diabète sucré de type II, ix ne sont pas traitées par un changement de régime alimentaire et d'exercice physique, mais plutôt par des médicaments. Jeûner et éviter le sucre sont non seulement des facteurs de protection contre le cancer, mais aussi des piliers essentiels du traitement !

    RépondreSupprimer
  27. informations d'identification
    i Glasmachers J : Les peuples de la longévité - un aperçu ; https://www.gesundheitsfundament.de/fundament/langlebigkeitsvoelker/

    ii Trésor de santé 1607

    iii Hufeland CW : L'art de prolonger la vie humaine. p. 599 et suiv.; Iéna 1797

    iv Becker JH : Tentative de littérature et d'histoire de la science alimentaire. Franzen et Grosse; Stendal 1812

    v Accum F : Traité sur les falsifications alimentaires et les poisons culinaires : présentation des sophistications frauduleuses du pain, de la bière, du vin, des liqueurs spirituelles, du thé, du café, de la crème, des confiseries, du vinaigre, de la moutarde, du poivre, du fromage, de l'huile d'olive, des cornichons et Autres articles employés dans l'économie nationale et méthodes pour les détecter. Londres 1820

    vi Bircher-Benner M : La nouvelle théorie de la nutrition. dans : Albrecht B, Albrecht G (éd.) : Diagnostics - souvenirs des médecins du 20e siècle. 2e édition ; p.182 ; Le matin; Berlin 1975

    vii Bleuler PE : Pensée autistique et indisciplinée en médecine et comment la surmonter. 2e édition, p. 17 et suiv.; sauteur; Berlin/Heidelberg 1921

    viii Comité mixte fédéral (G-BA) : Résolution du 22 janvier 2015

    ix Steven S et al. : Régime très faible en calories et 6 mois de stabilité du poids dans le diabète de type 2 : changements physiopathologiques chez les répondeurs et les non-répondeurs. Soins du diabète 2016 ; 39(5):808-15

    Image parTHỌ VƯƠNG HỒNG sur Pixabay
    Les opinions exprimées dans cet article ne reflètent pas nécessairement les opinions des auteurs permanents de TKP. Les droits et la responsabilité du contenu incombent à l'auteur.

    Univ.-Doz (Vienne) Dr. méd. Gerd Reuther est spécialiste en radiologie et historien médical. En 2005, il a reçu le prix Eugénie et Felix Wachsmann de la Société allemande Roentgen pour ses réalisations. Il a publié une centaine d'articles dans des revues et livres spécialisés nationaux et internationaux ainsi que six livres qui examinent de manière critique la médecine d'hier et d'aujourd'hui. « Ceux qui gardent le silence ont déjà perdu » a-t-on récemment publié.

    https://tkp.at/2024/05/30/eine-kurze-geschichte-ernaehrungswissenschaftlicher-irrwege/

    RépondreSupprimer
  28. Les patates, non merci ! (Republié)


    30 Mai 2024


    Texte satirique de Ludger Weß*

    Un texte satirique de Ludger Weß republié à l'occasion de la Journée mondiale de la pomme de terre.

    Le schéma de l'argumentation de bien des adversaires de la technologie moderne est relativement simple : la preuve anecdotique, l'affirmation d'un lien de cause à effet lorsqu'on a au mieux une corrélation, les murmures de conspirations soupçonnées, la fomentation de la peur. Quand on a compris le principe, l'approche permet de diaboliser presque tout de la médecine ou de l'agriculture modernes et de le présenter comme un risque existentiel pour la santé et la survie de l'humanité. Avec l'exemple de la pomme de terre, une initiative pourrait faire valoir ce qui suit :

    Cette saleté de pomme de terre, dehors !

    Le 24 mars 1756, le Vieux Fritz [Frédéric II de Prusse, ou Frédéric le Grand, 1712-1786] a promulgué son célèbre édit des pommes de terre, par lequel il a ordonné à ses fonctionnaires « d'inculquer la culture de la pomme de terre ». Le roi a fait garder les champs de pommes de terre nouvellement créés par des soldats pour éviter que les paysans ne déterrent secrètement les tubercules. Il n'y a aucune étude à long terme à ce jour sur les conséquences sanitaires et environnementales de la culture de cette plante toxique, et notre revendication ne peut donc qu'être : arrêtez les pommes de terre ! Débarrassez-nous des pommes de terre immédiatement ! Cette saleté de pomme de terre, dehors !

    L'histoire de la pomme de terre est un paradigme de la façon dont la politique s'est mise au-dessus des préoccupations des citoyens et des avertissements des scientifiques et des experts agricoles et a imposé la culture d'une nouvelle espèce de plante sans égard pour les conséquences à long terme.

    Le père de Frédéric, le Roi-Sergent [Frédéric-Guillaume 1ᵉʳ de Prusse, 1688-1740], avait déjà voulu forcer les paysans à cultiver le tubercule exotique des Andes et menacé de leur « couper le nez et les oreilles » s'ils refusaient. Cela n'avait servi à rien. La majorité de la population était contre la culture et l'a boycottée. Son fils a pris le relai et les choses sont devenues sérieuses.

    RépondreSupprimer
  29. La tombe de Frédéric II le Grand au Palais de Sanssouci à Potzdam. Aujourd'hui encore, des Allemands lui rendent hommage en déposant des pommes de terre sur sa tombe le jour de son anniversaire.

    Frédéric – en monarque absolu – s'est placé au-dessus de la majorité de la population, imposant la culture de la pomme de terre qu'il fit surveiller par ses soldats et ses fonctionnaires ; ceux-ci dénonçaient tous ceux qui sabotaient l'ordre.

    Avec sa lubie des pommes de terre, il a bouleversé le paysage traditionnel de la Prusse. Comme ses conseillers du lobby de la pomme de terre, il croyait que cette plante, censée être peu exigeante et bien adaptée aux sols sablonneux et tourbeux, pourrait combattre la faim qui sévissait encore en Prusse et donner aux agriculteurs plus de prospérité et de santé. Les pommes de terre – comme le prétend encore aujourd'hui le lobby de la pomme de terre – contiennent beaucoup de vitamines A, C et B ainsi que des minéraux et des oligo-éléments. En outre, elles fournissent prétendument des rendements élevés, ne doivent pas être manipulées à grands frais après la récolte et peuvent être stockées facilement. Quel point de vue effrayant ! Aujourd'hui, nous savons grâce aux nombreuses années de travail pour apporter les soi-disant bienfaits du « Riz Doré » que la faim doit être combattue par la redistribution, et non par de nouvelles plantes ! Le progrès technique ne peut pas résoudre un problème objectivement social. L'argument des vitamines est également dénué de fondement : les pauvres de ce pays auraient aussi pu obtenir les vitamines si le vieux Fritz leur avait permis de consommer plus de poissons de mer et plus de fruits tropicaux ou les aurait incités à manger plus de baies.

    Frédéric a systématiquement empoisonné son peuple ; il a anéanti l'alimentation saine qui consistait principalement en seigle et ergot, haricots, oignons, châtaignes et un peu d'avoine et d'épeautre, et exposé la population aux dangers, y compris aux conséquences catastrophiques à long terme que nous subissons encore aujourd'hui.

    Complètement irresponsable, il a ignoré le risque incalculable d'allergie. Aucun Européen n'avait encore mangé une pomme de terre, et de nombreux composants de la plante sont connus pour être des allergènes potentiels.

    RépondreSupprimer
  30. Avec la pomme de terre, on a également introduit et propagé des gènes étrangers en Europe centrale. Il y avait un risque de contamination d'autres plantes de la famille des Solanacées telles que la mandragore, la jusquiame, le datura et la belladone – des plantes importantes pour la médecine traditionnelle. Le Vieux Fritz voulait-il préparer le terrain pour une nouvelle médecine et supplanter la médecine par les plantes éprouvée avec ses onguents de sorcières, ses aphrodisiaques et ses tisanes ? Une attaque du Patriarcat prussien sur les femmes détentrices d'un savoir ancestral et sur leurs connaissances médicales, alors que la persécution ouverte des sorcières avait été abolie !

    Pire encore, la pomme de terre – comme le maïs génétiquement modifié de « Monsatan » aujourd'hui – produit des fongicides et des pesticides dans toutes les parties vertes de la plante ! Un poison neurotoxique qui cause déjà à faible dose des étourdissements, des nausées, des vomissements, des diarrhées, des crampes d'estomac, des arythmies cardiaques, des cauchemars et des maux de tête ! À des doses plus élevées, le poison conduit à des hallucinations, à la perte de certains sens, à la paralysie, à la fièvre, à la jaunisse, à l'hypothermie et à la mort. Ce sont surtout les enfants et les nourrissons qui sont menacés, et les quantités maximales sont régulièrement dépassées dans les feuilles et les tiges. Même aujourd'hui, selon les naturopathes, environ 250.000 personnes sont atteintes par une intoxication à la solanine chaque jour (!) aux États-Unis.

    Au moment de la récolte, les feux de fanes de pommes de terre se répandent aussi dans les champs ; ils libèrent des poussières contaminées par des fongicides et des pesticides et produisent de grandes quantités de dioxine.

    Malheureusement, il n'y avait pas d'écologistes organisés à l'époque, et les « libérateurs des champs » de la base démocratique n'avaient aucune perspective de réussite parce que le Vieux Fritz avait fait garder les champs d'essais par ses sbires qui n'avaient aucun problème à utiliser leurs armes.

    RépondreSupprimer
  31. C'est ainsi que la pomme de terre est arrivée en Allemagne, avec toutes ses conséquences désastreuses comme les frites, les fast-foods et les amidons industriels. Pourtant, elle n'a résolu aucun des problèmes : l'Irlande, qui a tout misé sur la pomme de terre, a rapidement été victime de famines. Il y eut des massacres de petits agriculteurs irlandais et – par le biais de l'émigration de masse – un génocide de la population indigène d'Amérique. La pomme de terre est un funeste présage de l'orgueil démesuré qui ose se révolter contre la création ainsi que de la mondialisation qui transporte les plantes d'un continent à l'autre et déclenche ainsi la migration de la pauvreté et la destruction de peuples entiers.

    À ce jour, il n'y a pas d'étude fiable sur les effets à long terme de la pomme de terre ! Personne ne peut exclure que la pomme de terre soit responsable depuis le milieu du dix-huitième siècle d'une augmentation terrifiante de maladies telles que le diabète, le cancer, les accidents vasculaires cérébraux et les maladies coronariennes ou l'apparition de maladies complètement inconnues auparavant (autisme, TDAH, Parkinson, Alzheimer). Il y a des études épidémiologiques qui établissent un lien entre la consommation de pomme de terre et l'arthrite ; et de nombreuses études sur les rats montrent que l'alimentation avec des plantes de pomme de terre entraîne des dommages aux embryons, des mort-nés, etc. Le principe de précaution s'oppose à la culture des pommes de terre, mais les autorités européennes – toutes étroitement liées au lobby de la pomme de terre – ignorent les dangers réels.

    Rudolf Steiner savait déjà que la pomme de terre agit très fortement sur le système nerveux et affaiblit ainsi la pensée méditative-intériorisante de par l'orientation de ses cotylédons vers le bas. La diffusion de la pomme de terre en tant que denrée alimentaire principale ne coïncide pas seulement avec l'apparition de maladies totalement nouvelles, mais aussi avec la diffusion d'une pensée matérialiste qui repose entièrement sur une perception sensorielle superficielle. La sagesse populaire a rapidement forgé une formule accrocheuse pour ce lien : les agriculteurs les plus stupides récoltent les pommes de terre les plus grosses.

    RépondreSupprimer
  32. De tout cela, il ressort une nécessité historique claire : la prise de conscience des liens entre le progrès technologique et la manipulation des gènes, d'une part, et la mondialisation, l'exploitation et l'oppression patriarcale, d'autre part, par une grande partie de la population doit être utilisée pour reprendre la lutte des opprimés qui a échoué au XVIIIe siècle et la mener à bien : exigez l'interdiction de la pomme de terre ! Boycottez-la ! Occupez les magasins qui en offrent ! Jamais plus de frites ! Ce n'est que lorsque la dernière patate aura été détruite que nous aurons enfin vaincu le Vieux Fritz et son idéologie.

    En bref, la pomme de terre est un héritage de l'absolutisme, un symbole de la mondialisation, un instrument patriarcal de l'oppression des femmes ; elle est aussi liée au génocide, aux maladies dévastatrices et au matérialisme. La lutte contre la pomme de terre est donc une nécessité sociale et politique.

    En langage simple : La pomme de terre, c'est poison. Il faut l'éliminer.
    ______________

    * Ludger Weß (Wess) a étudié la biologie et la chimie et a travaillé en tant que biologiste moléculaire à l'Université de Brême avant d'entamer une activité de journaliste scientifique. Il écrit régulièrement depuis les années 1980 sur les aspects scientifiques, économiques, historiques, juridiques et éthiques des sciences et des technologies, principalement sur le génie génétique et les biotechnologies. Ses articles ont paru dans Stern, die Woche et le Financial Times Deutschland ainsi que dans des revues spécialisées internationales. Il a publié un ouvrage sur les débuts de la recherche génétique, die Träume der Genetik (les rêves de la génétique), avec une 2e édition en 1998.

    En 2006, il a été un des co-fondateurs de akampion, qui conseille les entreprises innovantes dans leur communication. Ludger Weß a un doctorat en histoire des sciences et est membre de la National Association of Science Writers états-unienne ; il vit à Hambourg.

    Vous pouvez le suivre sur https://x.com/LudgerWess

    Source : http://ludgerwess.com/kartoffeldreck-weg-3/

    https://seppi.over-blog.com/2024/05/les-patates-non-merci-republie.html

    RépondreSupprimer
  33. L'UE persiste dans sa réglementation non scientifique et anti-innovation du génie génétique


    30 Mai 2024
    Henry I. Miller et Rob Wager, ACSH*


    Au cours des millénaires, les technologies de modification génétique des plantes, des animaux et des micro-organismes se sont succédé sans interruption, avec des améliorations progressives en termes de précision et de prévisibilité – un fait qui semble avoir échappé aux responsables politiques et aux régulateurs de l'UE.

    Depuis plus de 10.000 ans, l'homme pratique la modification génétique, ou génie génétique, des plantes et des animaux par la sélection et l'élevage. C'est ce qu'on appelle l'agriculture.

    Au cours des cinquante dernières années, de nouvelles techniques de génie génétique moléculaire ont été utilisées pour modifier des plantes, des animaux, des bactéries et d'autres organismes. Les scientifiques peuvent déplacer les gènes souhaités pratiquement à volonté d'un organisme à un autre ou modifier les gènes avec une grande précision, en introduisant ou non du matériel génétique provenant d'autres organismes.

    Ces techniques plus récentes de modification génétique ont permis des avancées significatives en médecine, telles que la production de médicaments à succès et les techniques de thérapie génique humaine pour traiter le cancer et les maladies génétiques. Dans l'agriculture, les avantages comprennent des aliments plus nutritifs, des plantes résistantes à des maladies, à des parasites et à la sécheresse, une moindre utilisation des pesticides chimiques et des rendements plus élevés qui économisent l'eau et réduisent les terres nécessaires à l'agriculture.

    Au cours de la dernière décennie, la technologie de l'« édition de gènes » par le biais de techniques telles que CRISPR (« clustered regularly interspaced short palindromic repeats » – courtes répétitions palindromiques groupées et régulièrement espacées) a encore affiné la précision du génie génétique par rapport à la technologie de l'ADN recombinant, qui existe depuis un demi-siècle. Adaptée à l'utilisation en laboratoire à partir des systèmes naturels d'édition du génome présents dans les bactéries, l'édition de gènes est en passe de devenir la méthode de sélection privilégiée.

    RépondreSupprimer
  34. En 2018, les États-Unis, le Canada et 11 autres pays, dont l'Argentine, l'Australie et le Brésil, ont publié une déclaration commune soutenant les applications agricoles de la biotechnologie de précision – c'est-à-dire l'édition de gènes – affirmant que les gouvernements devraient éviter les distinctions arbitraires et injustifiées entre les produits finis issus de la biotechnologie de précision et les produits finis similaires obtenus par d'autres méthodes de production.

    Cette recommandation découle de notre compréhension fondamentale du fait que la nature du risque d'un organisme est fonction d'aspects tels que la toxicité, la pathogénicité et le caractère invasif, et non du processus, s'il existe, de modification génétique. (En outre, s'il existe des différences, elles découlent du fait que les techniques moléculaires du génie génétique étant plus précises et prévisibles, les évaluations des risques sont plus faciles et plus – et non moins – fiables).

    Malgré ces vérités, le Parlement Européen prévoit une fois de plus d'imposer de manière arbitraire et illogique une réglementation plus stricte sur la plupart des produits issus de l'édition de gènes. Il vient de proposer une nouvelle loi – c'est-à-dire une réglementation – pour les organismes issus de ce qui est communément appelé « nouvelles technologies génétiques » (NGT) :

    « La proposition couvre les plantes qui contiennent du matériel génétique provenant de la même plante (mutagenèse ciblée) ou de plantes pouvant être croisées (cisgenèse, y compris intragenèse) ; les plantes transgéniques (qui contiennent du matériel génétique provenant d'espèces ne pouvant pas être croisées) resteront soumises à la législation sur les OGM telle qu'elle existe aujourd'hui. »

    (« OGM » est essentiellement synonyme d'organisme modifié par la technologie de l'ADN recombinant).

    Les bureaucrates aiment inventer de nouvelles pseudo-catégories dénuées de sens pour justifier un traitement discriminatoire – dans ce cas, une réglementation excessive.

    RépondreSupprimer
  35. Ils prétendent que l'objectif est de rendre le système alimentaire plus durable et plus résistant en développant des variétés de plantes améliorées qui résistent au climat, aux parasites, qui ont un rendement plus élevé ou qui nécessitent moins d'engrais et de pesticides. Toutefois, une réglementation excessive ne permettra pas d'atteindre cet objectif, et la politique européenne ainsi que la lenteur de la réglementation feront en sorte que ces objectifs ne seront pas atteints.

    La nouvelle proposition crée encore plus de nouvelles pseudo-catégories dénuées de sens qui seraient soumises à une réglementation disparate, mais nous tenons à souligner que les diverses méthodes de modification sont des distinctions sans différences significatives et ne sont pas pertinentes pour le risque ou l'évaluation du risque.

    Ces catégories utilisent toutes des « nucléases dirigées par site » (SDN – site-directed nucleases) pour effectuer des modifications génétiques. La proposition de l'UE crée deux catégories différentes et deux ensembles de règles pour les plantes NGT. Les plantes NGT-1, qui sont considérées comme équivalentes aux plantes conventionnelles (c'est-à-dire plus « naturelles »), seraient exemptées des lourdes exigences de la législation sur les OGM, tandis que les plantes NGT-2 seraient toujours soumises aux exigences les plus strictes. (Comme indiqué plus haut, « OGM », ou organisme génétiquement modifié, est une autre pseudo-catégorie vide de sens du génie génétique, qui utilise la technologie de l'ADN recombinant. Bien qu'elle soit plus précise et prévisible que les technologies de sélection conventionnelles, la technologie OGM a fait l'objet d'une réglementation beaucoup plus stricte et, dans certains pays, elle a même été interdite).

    Si tout cela semble confus, c'est parce que certains législateurs et régulateurs ne reconnaissent pas qu'il existe un continuum de modifications génétiques ou de génie génétique, et que l'utilisation d'une technologie ou d'une autre n'est pas un facteur déterminant de risque (sauf que les techniques moléculaires sont plus précises et plus prévisibles).

    Étant donné que les modifications SDN-1 et SDN-2 n'impliquent pas l'introduction d'ADN étranger et sont considérées comme équivalentes à la sélection conventionnelle, dix-huit pays les réglementent comme les cultures « conventionnelles » ou « naturelles ».

    RépondreSupprimer
  36. Revenons aux erreurs et aux lacunes des nouvelles pseudo-catégories de l'UE...

    Le premier tour de passe-passe de la proposition consiste à séparer les SDN-1 des SDN-2 (dont aucune n'implique l'introduction d'ADN étranger). En plaçant les SDN-2 dans la catégorie NGT-2, la proposition garantit que des restrictions complètes sur les OGM seront appliquées à la plupart des produits génétiquement édités.

    Ensuite, ils affirment que les nouvelles évaluations des risques des plantes NGT-2 seront accélérées, mais uniquement dans le respect du principe de précaution (PP). Ce « principe » bidon stipule qu'il faut prouver que toute nouvelle technologie est sûre avant qu'elle ne soit utilisée. Une once de prévention est certainement souhaitable, mais comme rien ne peut être prouvé totalement sûr – du moins, pas selon les normes exigées par les activistes et les législateurs anti-technologie – le principe de précaution crée des obstacles prodigieux au développement de nouveaux produits. En plus de 25 ans, l'Union européenne a jugé qu'une seule culture transgénique était acceptable, alors qu'elles ont proliféré ailleurs avec un grand succès commercial (et sans aucun problème de sécurité). [Ma note : le maïs MON810 a été autorisé grâce à un concours de circonstances.] Invoquant le principe de précaution, l'Europe a bloqué les centaines d'autres variétés de cultures transgéniques.

    En bref, le PP n'est pas adapté à l'élaboration de politiques.

    La proposition de l'UE maintiendra l'étiquetage obligatoire des produits issus de plantes NGT-1 et NGT-2, bien que dans la plupart des produits, l'édition de gènes soit indétectable et que le seul moyen de garantir un étiquetage précis serait de suivre à la trace, de manière coûteuse (et superflue), chaque produit génétiquement édité dans l'ensemble du système alimentaire. (Cela reviendrait à exiger que l'étiquetage indique le jour de la semaine où une plante a été cultivée). Les pays non membres de l'UE qui adoptent l'édition génétique avec un minimum de réglementations spécifiques, voire aucune, ne se conformeront pas à cette exigence.

    RépondreSupprimer
  37. La proposition indique également que les plantes NGT doivent rester interdites dans la production biologique, car leur compatibilité nécessite un examen plus approfondi. Outre le problème évident de la détection, il n'y a jamais eu de cas documenté de préjudice lié à la consommation d'aliments dérivés de cultures transgéniques (plantes contenant du matériel génétique provenant de sources différentes et non apparentées), alors que ces cultures sont interdites dans l'agriculture biologique depuis plus de 25 ans. Il n'y a aucune raison de croire que le lobby de l'agriculture biologique changera sa position sur les méthodes de sélection les plus récentes et les plus précises.

    Ensuite, les politiciens européens veulent modifier les limites de la taille et du nombre de modifications autorisées pour qu'une plante NGT soit considérée comme équivalente aux plantes conventionnelles. Cela soulève un point important : le continuum des techniques de modification génétique. Les recherches menées par l'Autorité Européenne de Sécurité des Aliments (EFSA) ont été très claires :

    « La charge mutationnelle involontaire (aléatoire) des plantes éditées par CRISPR-Cas9 est beaucoup plus faible que celle des méthodes conventionnelles de sélection par mutation [...] Pour SDN-2 et SDN-3, la conséquence d'une mutation hors cible sera probablement la même que pour SDN-1 [...] Dans l'avis de l'EFSA sur SDN-3, le groupe d'experts sur les OGM a conclu que les mutations hors cible induites par l'application des approches SDN-3 sont moins nombreuses que celles qui se produisent lors de l'application des techniques conventionnelles de mutagenèse qui ont été utilisées précédemment et qui ont une longue histoire d'utilisation sans danger. »

    Même en séparant arbitrairement SDN-1 (NGT 1) de SDN-2 et SDN-3 (NGT 2), les conclusions de l'EFSA sur la sécurité des mutations hors cible restent inchangées. Mais aujourd'hui, à la demande de l'Agence française de sécurité sanitaire [ma note : c'est à la suite de son audition], le Parlement Européen a de nouveau demandé à l'EFSA d'évaluer la sécurité de l'édition de gènes. L'EFSA a déjà rédigé au moins trois rapports sur la sécurité de l'édition de gènes (NGT). Il n'y a aucune raison scientifique d'en faire un autre.

    RépondreSupprimer
  38. Pendant des décennies, les politiciens européens ont mis en œuvre certaines des politiques les moins scientifiques, les plus arbitraires et les plus restrictives à l'égard de la technologie de l'ADN recombinant, même si, dès 2011, la Commission Européenne a publié un rapport qui concluait que la biotechnologie et en particulier les OGM ne sont pas une menace pour la santé humaine :

    « La principale conclusion à tirer des efforts de plus de 130 projets de recherche, couvrant une période de plus de 25 ans de recherche et impliquant plus de 500 groupes de recherche indépendants, est que la biotechnologie, et en particulier les OGM, ne sont pas en soi plus risqués que les technologies conventionnelles d'amélioration des plantes. »

    En d'autres termes, ils ont approuvé le concept de continuité des techniques de modification génétique, mais l'ont systématiquement ignoré dans l'élaboration de leurs politiques.

    La proposition la plus récente et la plus restrictive pour les NGT a été adoptée de justesse, avec à peine plus de 50 % des voix. Si la science avait été suivie et appliquée d'une manière similaire à celle d'un nombre croissant de pays en dehors de l'Europe, toute nouvelle politique agricole en matière de NGT n'aurait aucune chance d'obtenir la majorité des deux tiers nécessaire pour devenir une loi.

    Pour stimuler la production alimentaire nécessaire à l'avenir, la question est la suivante : l'Europe doit-elle renoncer aux meilleures technologies en faveur de la biodynamie, de la régénération, de l'agriculture biologique ou d'autres approches à la mode qui entraînent une augmentation des coûts, une baisse des rendements et des risques accrus pour la santé humaine et l'environnement ? Le mépris total du Parlement Européen pour la science et ses antécédents en matière de NGT montrent que les politiciens de l'UE sont apparemment de cet avis.

    https://seppi.over-blog.com/2024/05/l-ue-persiste-dans-sa-reglementation-non-scientifique-et-anti-innovation-du-genie-genetique.html

    RépondreSupprimer
  39. L’inconduite scientifique a érodé la confiance et la responsabilité du public


    PAR TYLER DURDEN
    JEUDI 30 MAI 2024 - 00H20
    Rédigé par Tony Nikolic via The Epoch Times


    Les fautes scientifiques ont jeté une ombre sur les domaines de la médecine et de la santé publique, affectant considérablement la confiance du public et posant de sérieux défis éthiques et juridiques.

    Des cas aux États-Unis, au Royaume-Uni et en Australie révèlent une tendance troublante, où l’intégrité scientifique est compromise et souvent influencée par les intérêts commerciaux des sociétés multinationales.

    Cet article explore ces impacts, l’érosion de la confiance dans les revues et les institutions, et les conséquences juridiques auxquelles sont confrontées les entités qui se livrent à de telles fautes ou les encouragent.

    Érosion de la confiance du public

    La confiance du public est la pierre angulaire sur laquelle repose le domaine médical. Cependant, les cas de mauvaise conduite scientifique, en particulier ceux impliquant des géants pharmaceutiques, ont conduit à un scepticisme croissant du public, incitant certains experts à lancer des programmes tels que l'Initiative de restauration des essais invisibles et abandonnés (RIAT).

    Un exemple notoire est l’étude 329, un essai clinique financé par GlaxoSmithKline qui faisait la promotion trompeuse de l’innocuité et de l’efficacité de l’antidépresseur paroxétine chez les adolescents.

    La publication trompeuse de 2001 a eu des effets à long terme sur l'utilisation d'antidépresseurs chez les enfants, contribuant ainsi à une méfiance à l'égard de la recherche pharmaceutique.

    RépondreSupprimer
  40. L'étude a révélé des allégations selon lesquelles les chercheurs auraient mal codé les effets secondaires dans la mesure où des événements indésirables graves se seraient produits chez 11 patients du groupe paroxétine, cinq dans le groupe imipramine et deux dans le groupe placebo.

    Dix des 11 événements indésirables graves dans le groupe paroxétine étaient d’ordre psychiatrique, par exemple la dépression, les tendances suicidaires, l’hostilité ou l’euphorie, quelques-uns des problèmes mêmes que les médicaments étaient censés traiter.

    En 2004, le Dr Elspeth Garland, professeur à l'Université de la Colombie-Britannique, a attiré l'attention sur les « preuves faibles ou inexistantes de l'efficacité » des ISRS dans ce contexte et sur les « effets indésirables psychiatriques graves » de la paroxétine.

    Un éditorial du British Medical Journal documente qu'il n'y a eu aucune correction, aucune rétractation, aucune excuse et surtout aucun commentaire de la part des auteurs, du rédacteur en chef de la revue ou des universités où les auteurs travaillaient en 2001.

    Les analyses RIAT de l'étude 329 et l'absence de correction de l'article original défectueux ont des implications majeures pour les décisions de pratique clinique prises sur la base d'essais cliniques publiés.

    D’éminents experts en essais cliniques estiment désormais que nous devons remettre en question la validité des données et des conclusions de tous les essais cliniques publiés qui n’ont pas fait l’objet d’une analyse indépendante.

    Une analyse indépendante de l'étude 329 a démontré des méfaits graves et un manque d'efficacité pour l'utilisation aiguë et à long terme de la paroxétine et de l'imipramine chez les adolescents souffrant de dépression majeure.

    Cet exemple de l’initiative RIAT révèle que les méthodes actuelles de conduite, d’analyse et de publication des essais sont inacceptables et nécessitent une surveillance plus approfondie.
    Les conclusions publiées sur l’efficacité et la sécurité des médicaments sans analyse indépendante ne peuvent être considérées comme dignes de confiance.
    Il est essentiel que les données primaires des essais et les protocoles de tous les essais cliniques soient mis à disposition pour une analyse indépendante.

    RépondreSupprimer
  41. Déclin de la crédibilité des journaux

    L'intégrité de la publication scientifique a été sérieusement remise en question à la lumière de fautes professionnelles. Le retrait d’articles très médiatisés a non seulement entaché la réputation des revues, mais a également ébranlé la confiance du public dans les résultats de la recherche médicale.

    Par exemple, les rétractations d’articles de recherche sur le COVID-19 par des revues réputées en raison de l’intégrité douteuse des données n’ont fait qu’ajouter à la confusion et à la méfiance du public pendant une crise sanitaire mondiale.

    Les évaluations indépendantes des essais cliniques de médicaments et de vaccins, comme le vaccin contre la COVID-19, sont essentielles en tant qu’outil utilitaire pour protéger la communauté des pratiques potentiellement dangereuses des sociétés multinationales.

    Ces évaluations garantissent que tous les effets secondaires sont signalés et évalués avec précision, atténuant ainsi les risques associés à la sous-déclaration.

    Par exemple, lors du déploiement des vaccins contre la COVID-19, des examens indépendants ont joué un rôle crucial pour identifier les effets secondaires rares mais graves, tels que les caillots sanguins associés au vaccin AstraZeneca. Cela a conduit à des recommandations d’utilisation personnalisées pour maximiser la sécurité.

    Cependant, pendant la période du COVID, les régulateurs pharmaceutiques, les représentants du gouvernement et les sociétés pharmaceutiques ont été soupçonnés de cacher des données, de sous-estimer les rapports sur les effets secondaires, les rapports sur les dommages et les décès jusqu'à ce que des enquêtes publiques, des contestations judiciaires et des médias indépendants arrivent à la porte.

    Bien qu’elles soient considérées comme des théories du complot, les questions de mauvaise conduite scientifique, de suppression/censure de données indépendantes et de témoignages d’experts restent un sujet de préoccupation majeur.

    De même, le réexamen du médicament anti-inflammatoire Vioxx a souligné l’importance d’un examen indépendant après que les premiers essais ont sous-estimé les risques cardiovasculaires graves, ce qui a conduit à son retrait éventuel du marché.

    RépondreSupprimer
  42. Ces cas soulignent la valeur des évaluations indépendantes pour maintenir la transparence, renforcer la confiance du public et garantir que les avantages collectifs des produits médicaux pour la santé l’emportent sur les risques potentiels.

    Répercussions juridiques et influence des entreprises

    Les poursuites judiciaires contre les sociétés pharmaceutiques ont révélé un modèle de comportement visant à donner la priorité aux profits plutôt qu’à la sécurité publique. Notamment :

    Controverse sur le Vioxx de Merck : Merck a fait face à de nombreuses poursuites pour avoir dissimulé les risques de son analgésique, le Vioxx, qui était lié à un risque accru de crise cardiaque et d'accident vasculaire cérébral. La société a réglé 4,85 milliards de dollars en 2007, l'un des plus importants règlements judiciaires en matière pharmaceutique.

    Pfizer Inc. : En 2009, Pfizer Inc. a été condamnée à une amende de 2,3 milliards de dollars pour violations de la loi sur les fausses réclamations, ce qui en fait le plus grand règlement pour fraude dans le domaine des soins de santé à l'époque. Cette action en justice concernait la promotion illégale par Pfizer de plusieurs produits pharmaceutiques, dont l’anti-inflammatoire Bextra. Le règlement comprenait une amende pénale de 1,195 milliard de dollars et des responsabilités civiles s'élevant à environ 1 milliard de dollars. Cette affaire a mis en lumière des problèmes importants concernant la sous-déclaration des effets secondaires et la promotion contraire à l'éthique de produits médicaux au-delà de leur utilisation approuvée, démontrant le besoin crucial d'évaluations indépendantes pour protéger la santé publique.

    RépondreSupprimer
  43. GlaxoSmithKline (GSK) et étude 329 : en 2012, GSK a accepté de payer 3 milliards de dollars d'amendes, en partie pour avoir fait la promotion frauduleuse de la paroxétine. Cette affaire a mis en évidence le problème de la publication de recherches biaisées pour soutenir les ventes de produits pharmaceutiques, conduisant à l’un des plus grands règlements pour fraude dans le domaine des soins de santé de l’histoire des États-Unis.
    AstraZeneca et le vaccin contre la COVID-19 : Le vaccin d’AstraZeneca contre la COVID-19 a fait l’objet d’un examen minutieux et de contestations juridiques en raison de risques rares de caillots sanguins initialement non divulgués. Bien qu’elle n’entraîne pas de sanctions juridiques importantes, cette question a alimenté les débats sur la transparence et la sécurité des approbations d’urgence des vaccins.

    Cadres juridiques mondiaux

    Divers pays ont élaboré des cadres pour lutter contre et atténuer les fautes scientifiques :

    États-Unis : L'Office of Research Integrity (ORI) supervise l'intégrité de la recherche biomédicale et comportementale soutenue par le service de santé publique. Les sanctions en cas de mauvaise conduite peuvent inclure l'exclusion du financement et des poursuites pénales.

    Royaume-Uni : le Research Integrity Office du Royaume-Uni offre des conseils et un soutien aux bonnes pratiques de recherche, mais manque de pouvoir d’application. Les actions en justice ont tendance à être intentées directement contre des entités telles que les sociétés pharmaceutiques plutôt que contre des chercheurs individuels.

    Australie : Le Code australien pour la conduite responsable de la recherche définit les normes d'honnêteté, de rigueur et de transparence. Les violations peuvent entraîner le retrait du financement et la déclaration aux organismes professionnels.
    Malgré ces façades qui existent à l’échelle mondiale, la crise exagérée du COVID a soulevé de nombreuses questions sur la perception que la communauté a de ces organismes et sur leur capacité à s’acquitter de leurs tâches de manière indépendante.

    RépondreSupprimer
  44. En ce qui concerne la crise du COVID, nous avons vu de nombreux dirigeants pharmaceutiques, personnalités publiques, personnalités des médias, soi-disant experts en santé publique, hommes politiques et entreprises faire des déclarations sur la sécurité et l'efficacité des vaccins contre le COVID qui ne figuraient pas dans certains des contrats de les vaccins à l’échelle mondiale.

    Ceci, en plus des revues prétendant trouver des résultats sans la fin des essais cliniques, démontre un biais perçu qui a perforé les couloirs des institutions qui autrement protégeraient les citoyens d'une telle portée excessive.

    Au lieu de cela, ces institutions se sont transformées en meneuses de claque d’entreprises soutenant les avantages utilitaires d’une expérience génétique d’ARNm non testée qui montrait dès le début des signaux de sécurité significatifs en matière de génotoxicité, de cancérogénicité et de problèmes de fertilité.

    La voie à suivre : sauvegarder l’intégrité scientifique

    Pour protéger la science contre l’influence indue des entreprises, des mesures réglementaires et législatives plus strictes sont nécessaires. Ceux-ci inclus:

    Exigences de divulgation renforcées : les chercheurs et les revues doivent divulguer tous les conflits d'intérêts et sources de financement afin d'éviter des résultats de recherche biaisés.
    Surveillance indépendante : des organismes comme l'Agence européenne des médicaments (EMA) et la Food and Drug Administration (FDA) aux États-Unis jouent un rôle central dans l'examen indépendant et l'approbation des médicaments, garantissant que les intérêts des entreprises ne compromettent pas la sécurité publique.

    Registres de recherche publics et transparents : des initiatives telles que la campagne AllTrials plaident en faveur de l'enregistrement de tous les essais cliniques et de la publication complète de leurs résultats afin d'éviter la suppression des données et la communication sélective.

    RépondreSupprimer
  45. Le défi de la mauvaise conduite scientifique en santé publique est un problème aux multiples facettes qui s’étend au-delà des cas individuels de fraude pour inclure des problèmes systémiques liés à l’influence des sociétés multinationales, des grandes institutions et des personnes agissant en qualité d’agents publics.

    Restaurer la confiance du public nécessite un effort concerté pour faire respecter des normes juridiques et éthiques rigoureuses dans la recherche et la publication scientifiques.

    Ce n’est que par la transparence, la responsabilité et une surveillance réglementaire renforcée accompagnée de réponses judiciaires fortes que nous pouvons espérer protéger l’intégrité de la science et garantir qu’elle sert le bien public plutôt que les intérêts spécifiques des entreprises.

    References
    Legal case of GlaxoSmithKline: United States v. GlaxoSmithKline LLC, Case No. 11-10398-RWZ (D. Mass. July 2, 2012).
    Settlement announcement for Merck’s Vioxx: In re Merck & Co., Inc. Securities, Derivative & “ERISA” Litigation, 2:05-md-01657 (D.N.J. 2007).
    Letter 101 Study 329: Why is it so important?
    Views expressed in this article are opinions of the author and do not necessarily reflect the views of The Epoch Times or ZeroHedge.

    https://www.zerohedge.com/medical/scientific-misconduct-has-eroded-public-trust-and-accountability

    RépondreSupprimer
  46. Débats sur le climat


    Alain Mathieu
    30 mai 2024


    Débats et controverses sur le climat et sur les causes de ses évolutions et changements ne cessent d’agiter la communauté scientifique depuis les années 1960.

    L'Intergovernmental Panel on Climate Change (Comité Intergouvernemental sur le Changement Climatique) est un organisme créé par l’ONU après sa résolution 43/53 de décembre 1988 qui mentionnait « l’évidence que le réchauffement climatique pourrait être dû à la croissance des gaz à effet de serre ». Il a été créé pour « mieux comprendre les fondements scientifiques des risques liés au changement climatique d’origine humaine. »

    D’après l’article premier de la convention qui l’a créé, « on entend par changements climatiques des changements du climat qui sont attribués directement ou indirectement à une activité humaine. »

    Les causes naturelles étaient exclues. Dès l’origine, sa mission obligeait donc le GIEC à ignorer les causes naturelles du réchauffement climatique, et à systématiquement écarter tous les scientifiques, informations et articles qui en faisaient état.

    Les représentants des 195 pays qui l’ont créé, généralement des fonctionnaires des ministères de l’Environnement de ces pays, approuvent ses rapports à l’unanimité. Ils n’ont pas le choix. Aucune dissidence n’est tolérée.

    Tous doivent professer une foi quasi-religieuse en deux affirmations simples :

    Les émissions humaines de gaz atmosphérique, dues à la combustion des combustibles fossiles (charbon, pétrole et gaz), ont causé la totalité de l’accroissement depuis 1850 du taux de gaz atmosphérique de l’atmosphère, un accroissement de 280 à 420 ppm, soit 140/420 = 33 % du taux actuel.
    Cet accroissement du taux de gaz atmosphérique est la cause de la totalité du réchauffement climatique depuis 1850 (environ 1°C).

    RépondreSupprimer
  47. Ces deux affirmations sont pour l'IPCC, et pour tous ceux qui le suivent (médias, responsables politiques, scientifiques à la recherche de financements) des vérités scientifiques indiscutables. « La science a parlé. » Ceux qui les mettent en doute sont des négationnistes, quasiment des nazis. Pour un scientifique, s’afficher « climatosceptique », c’est renoncer aux financements. Pour un politique européen, ce serait une assurance d’échec électoral. Aucun ne s’y ose.

    Or, ces deux affirmations simples sont scientifiquement fausses :

    Les émissions humaines de gaz atmosphérique n’ont causé que 15 % de l’accroissement du taux de gaz atmosphérique de l’atmosphère

    Les 85% restants étant dus à une cause naturelle, le dégagement de gaz atmosphérique provoqué par le réchauffement des couches superficielles des océans intertropicaux (comme la mousse qui se dégage quand on verse un verre de bière). Les causes de ce réchauffement des océans intertropicaux, comme celles du réchauffement de l’atmosphère, ne sont pas totalement élucidées, mais à la suite de l’astronome Milankovic, qui a découvert les causes des périodes glaciaires, on peut citer un changement de l’insolation, lui-même dû à des changements dans la trajectoire et l’orientation de la Terre dans sa course autour du Soleil.

    Comment arrive-t-on à ces 15 % de l’accroissement du taux de gaz atmosphérique ? Les rapports du GIEC indiquent que chaque année 20 % du gaz atmosphérique de l’atmosphère sont absorbés par les océans froids et la végétation (la photosynthèse), puis retournés à l’atmosphère par les océans chauds et la décomposition hivernale des plantes. Le gaz atmosphérique d’origine humaine est absorbé par les océans et la végétation dans les mêmes proportions que le gaz atmosphérique naturel. Après une succession d’absorptions annuelles, la proportion du gaz atmosphérique anthropique dans l’atmosphère est actuellement d’environ 5 %, soit 5/33 = 15 % de l’augmentation du gaz atmosphérique depuis 1850. Ce 5 % est confirmé par la proportion de l’isotope 13 du carbone dans le gaz atmosphérique atmosphérique : la proportion de cet isotope a baissé par rapport à celle de 1850, le gaz atmosphérique venant des combustibles fossiles ayant un taux d’isotope 13 inférieur à celui du gaz atmosphérique naturel. Une simple règle de trois donne ces 5 %.

    RépondreSupprimer
  48. L’accroissement du taux de gaz atmosphérique depuis 1850 n’a pratiquement pas causé de réchauffement de l’atmosphère

    En effet, une partie de la chaleur émise vers le cosmos par la Terre par rayonnement infrarouge est absorbée par le gaz atmosphérique de l’atmosphère (« effet de serre »), mais la totalité de cette absorption du gaz atmosphérique est due au gaz atmosphérique contenu dans quelques dizaines de mètres de l’atmosphère. Il y a « saturation » de l’effet de serre.

    Autrement dit : ajouter du gaz atmosphérique ne change pas la température. Un grand scientifique américain, Steven Koonin, conseiller-climat de Barack Obama, auteur du best-seller Climat, la part d’incertitude, l’explique ainsi :

    « Doubler sa concentration ne change pas grand-chose, car cela revient à l’effet peindre en noir un carreau de fenêtre déjà noir ».

    L’augmentation du taux de gaz atmosphérique dans l’atmosphère est ainsi sans effet mesurable sur la température. C’est au contraire l’augmentation de la température, précédant l’augmentation du gaz atmosphérique, qui est la cause de cette augmentation, comme l’avait noté le climatologue français Jean Jouzel après avoir analysé les carottes glaciaires provenant de forages dans l’Antarctique.

    Dans le film qui leur a valu le prix Nobel de la paix en 2007, Al Gore (ancien vice-président des Etats-Unis) et l'IPCC prédisaient que dans un avenir proche le niveau des océans s’élèverait de six mètres, alors qu’il ne s’est élevé que de six centimètres, cent fois moins. « 90 millions d’habitants du Bangladesh auront été déplacés en 2000 » affirmait Noel Brown, directeur du programme environnemental des Nations unies.

    RépondreSupprimer
  49. Actuellement, l'IPCC prédit, sur la foi de modèles informatiques, des hausses catastrophiques en 2100 des océans, températures, inondations, etc. Mais ceux qui croient à ces prévisions apocalyptiques sont de moins en moins nombreux, car les modèles informatiques sur lesquels elles sont fondées ne sont pas fiables. C’est une des raisons pour lesquelles les Américains, les Anglais, les Espagnols ne suivent plus les recommandations du GIEC, et ont réduit leurs subventions à l’électricité éolienne, et les Allemands celles aux voitures électriques.

    La peur est une efficace motivation politique, mais il ne faut pas en abuser : à trop crier « au loup » sans qu’il arrive, on perd des auditeurs. Les responsables politiques qui depuis 1988 répètent les prédictions catastrophiques du IPCC, ont du mal à y renoncer, car cela leur ferait perdre une partie de leur crédibilité auprès de leurs électeurs. Ils sont devenus allergiques à la vérité scientifique.

    Mais les libéraux sont d’un naturel plus tolérant. Ils acceptent des idées nouvelles. Ils commencent à percevoir l’absence de crédibilité du IPCC. Ils ne disent plus que les controverses scientifiques dépassent leurs compétences, car de plus en plus de scientifiques contestent les deux affirmations du IPCC : 1900 signataires, dont deux prix Nobel de Physique, pour une pétition proclamant qu’« il n’y a pas d’urgence climatique ».

    En dehors de l’Europe, de la Chine à l’Inde, des États-Unis à l’Argentine, des responsables politiques sont aussi de cet avis. Le moment approche où les libéraux n’auront plus peur du IPCC.

    https://www.contrepoints.org/2024/05/30/474552-les-liberaux-nauront-bientot-plus-peur-du-giec

    RépondreSupprimer
    Réponses
    1. Comme il existe des cuillères pour gauchers, des chaises pour gauchers et du pq,

      (...)Cet accroissement du taux de gaz atmosphérique est la cause de la totalité du réchauffement climatique depuis 1850 (environ 1°C). (...)

      Le gaz carbonique EST UN GAZ FROID ! Il est responsable des gelées. C'est le plus lourd de tous les gaz (1,8 gr./l.). Il demeure au ras du sol et, avec ses 0,041 % il ne peut constituer un gaz à 'effet de serre'.
      IL DISPARAÎT à une température supérieure de 30,9°C. Il ne peut donc être 'anthropique' ou sorti de cheminées d'usines ou pots d'échappement !

      Comme l'est le 'Comité Intergouvernemental sur le Changement Climatique' (IPCC) avec son inter de l'intérieur, aucun scientifique n'y est présent !! HAHAHAHA ! (pas plus que chez Contrepoints).

      Supprimer
  50. Le Parlement suisse se défend contre l’erreur climatique flagrante de la CEDH


    30 mai 2024
    par le Dr. Peter F. Mayer


    Comme chacun le sait, la Cour européenne des droits de l’homme (CEDH) a donné tort à la Suisse dans l’affaire des seniors climatiques, estimant qu’elle ne les protégeait pas contre le changement climatique. En ce qui concerne la dimension scientifique, ce jugement est comparable à l’absurdité du Vatican contre Galilée. Mais d'un point de vue juridique également, il a fallu faire des efforts époustouflants pour permettre au tribunal de traiter l'affaire en premier lieu. La Commission juridique du Conseil des Etats a décidé : Il n’y a « aucune raison de suivre davantage l’arrêt de la Cour […] » .

    L' Observateur suisse en parle sous le titre « Si tout est un droit de l'homme, plus rien n'est un droit de l'homme ». Le Conseil des Etats Daniel Jositsch (SP) s'est présenté mardi devant les médias avec un message explosif : « Le verdict est un activisme judiciaire, « met à rude épreuve » les développements juridiques et porte atteinte à la CEDH en tant qu'institution. "

    Le célèbre professeur de droit international Oliver Diggelmann de l'Université de Zurich, qui a lui-même travaillé pendant une courte période à la Cour EDH, faisait partie des experts entendus par la commission. Dans une interview accordée à « l'Observateur », il critique le jugement, mais est convaincu du fonctionnement globalement positif du tribunal.

    Diggelmann explique dans l'interview qu'un jugement politique a été porté. Les droits de l'homme sont une réponse au fait qu'une personne est victime d'une intervention de l'État qui la touche spécifiquement - par exemple, la prison sans contrôle judiciaire. Ils ne sont pas conçus pour répondre à des problèmes politiques comme le changement climatique, qui touchent tout le monde de la même manière. Le changement climatique n’est évidemment pas un problème politique, pas plus que le fait que le soleil n’a pas toujours la même température et que la distance entre la terre et le soleil change constamment. Il est utilisé comme agenda politique pour faire valoir certains intérêts économiques – vaccinations, pompes à chaleur, remplacement des moteurs à combustion par des voitures électriques, etc. – et les intérêts de pouvoir d’organisations mondialistes non élues telles que l’ONU, l’OMS ou l’UE.

    RépondreSupprimer
  51. L'avocat note également que de nombreuses acrobaties juridiques ont été nécessaires pour que le tribunal puisse admettre le procès. Aujourd’hui, il a déclaré ce qui était en réalité une question politique comme une question de droits de l’homme et l’a ainsi écartée du processus démocratique.

    Dans mon évaluation du verdict, j’ai souligné que le tribunal était intervenu de manière inappropriée dans les processus scientifiques, à l’instar de ce que le Vatican avait fait contre Galilée. Les affirmations du GIEC sur lesquelles repose le jugement sont des modèles qui ne parviennent même pas à expliquer les fluctuations massives de température, même dans un passé récent, comme dans l'étude des tendances des températures dans le nord de la Finlande au cours des 8 000 dernières années - la période de l'Holocène peut .

    Il est en tout cas réjouissant que le Parlement suisse – le Conseil des Etats – rejette publiquement cette décision absurde.

    https://tkp.at/2024/05/30/schweizer-parlament-wehrt-sich-gegen-eklatantes-klima-fehlurteil-des-egmr/

    RépondreSupprimer
  52. La route solaire des impôts


    le 29 mai 2024
    Scapin


    Vous vous souvenez de la route solaire ? Elle fut inaugurée en grande pompe par Ségolène Royal en décembre 2016, sur une portion de un kilomètre, dans l’Orne. Celle qui était encore ministre à l’époque évoquait une « planification » de l’État pour généraliser ce système.

    « La ministre de l’Environnement a annoncé que l’État allait rapidement conduire un plan d’expérimentation sur le réseau routier national pour les années 2017-2020. La technologie de la route solaire sera notamment utilisée sur une route et un parking en Bretagne, ainsi que dans le port de Marseille » annonçait Ouest-France.

    Trois ans plus tard, la promesse est devenue un fiasco. La route magique n’est ni efficace écologiquement ni rentable économiquement nous apprend ainsi Le Monde.

    Huit ans plus tard, la belle route est démontée. Le socialisme aura duré autant que l’argent des travailleurs. Mais Ségolène Royal et les équipes du ministère qui ont porté ce coûteux projet n’ont aucun compte à rendre. On peut dilapider l’argent des autres sans peine ni scrupule

    .https://www.contrepoints.org/2024/05/29/475273-la-route-solaire-des-impots

    RépondreSupprimer
    Réponses
    1. Et encore là, c'est sur 1 km ! Pour les putains de merde d'éolienne à la con... c'est des millions de partout ! Sans essais préalable ! Sans essais !

      Mais où sont les 'Gérard Nicoud' 'CID-UNATI), les 'Arlette Laguiller' et les 'José Bové' ? HAHAHAHA ! Même pas un petit article, un tweet ou une recherche de journalistes sur leur 'retirement' !! Les Sarah Palin qui n'ont pas les idées de Trumlp !

      Supprimer
  53. Des aurores, ça vous tente ? Le gros amas de taches solaires revient et il est grincheux


    Par Jo Nova
    May 30th, 2024


    Le gros amas de taches solaires qui a créé les aurores il y a quelques semaines se trouve très probablement juste au-dessus de l'horizon du soleil, et il semble avoir craché une douce éruption X2.9 pour annoncer son retour. Bien que nous ne puissions pas encore voir l’amas de taches solaires lui-même, les astronomes estiment qu’il s’agit du même ensemble AR3664 en colère qui tourne autour de la face cachée du Soleil au cours des deux dernières semaines. Cette région hyperactive a lancé le 10 mai des éruptions cutanées de classe X qui ont produit des aurores si puissantes qu'elles ont éclairé le ciel loin des pôles en Floride et dans le Queensland.

    La tempête solaire était suffisamment grande pour s'étendre jusqu'à 2,7 kilomètres (1,7 miles) sous l'eau et jouer avec des boussoles sur le fond marin. Nous nous retrouvons donc avec le paradoxe que le temps solaire contrôle la moitié de la recharge des eaux souterraines en Chine, se manifeste par des éclairs au Japon et est en corrélation d’une manière ou d’une autre avec les invasions de méduses sur Terre, mais ne peut pas provoquer de changement climatique. Apparemment, nos climatiseurs peuvent contribuer à une vague de chaleur, mais pas la vaste dynamo électromagnétique 333 000 fois plus lourde que la Terre. Nous le savons parce qu'un comité étranger à Genève le dit, et ils ont des modèles peu compétents pour le prouver.

    Les modèles climatiques mondiaux s’accordent sur le fait que l’effet du vent magnétique solaire et du champ électrique est exactement de 0,0 degré (par doublement de leurs subventions NSF).

    - voir clip siur site -

    Certaines taches solaires très actives peuvent durer des mois et chaque rotation complète du soleil prend 27 jours, donc cela peut faire quelques tours et nous pourrions avoir plus de piqûres sur cette cerise. Ou, si le soleil est particulièrement grincheux, il peut nous piquer davantage.

    RépondreSupprimer
  54. Au fur et à mesure que le soleil tourne, nous verrons davantage ce qui est probablement AR3664, mais pour confondre les choses, lorsqu'il passera au-dessus de l'horizon, il recevra rapidement un nouveau nom de numéro. (Il a et est maintenant « AR13697 »). Il est difficile de suivre ce qui arrive à chaque amas de taches solaires lorsqu’ils se déplacent de l’autre côté du soleil, de sorte que toutes les taches solaires qui apparaissent se voient automatiquement attribuer un nouveau numéro. Cependant, selon Daisy Dobrijevic de Space.com, « les scientifiques peuvent suivre la progression de la tache solaire sur la face cachée du Soleil en observant comment elle affecte les vibrations du soleil ou les échos sismiques, en utilisant des données d'héliosismologie ». Cela semble délicat. On pourrait penser que nous aurions une caméra sur un astéroïde de l’autre côté, enregistrant l’autre moitié du soleil, mais ce n’est pas le cas. Nous avons dépensé 100 milliards de dollars pour essayer de blâmer un engrais pour nos tempêtes, mais beaucoup moins que cela pour essayer de comprendre le soleil.

    Il se trouve que certains responsables de la NASA pensent même que l’émission d’aurores boréales de mai était « l’une des aurores les plus fortes depuis 500 ans ». Ils soutiennent que quelque 7 éjections de masse coronale différentes se déplaçant à 3 millions de kilomètres par heure, se sont accumulées en cours de route et sont arrivées en même temps. Au cours des 70 dernières années, les deux autres grands événements ont eu lieu en 1958 et 2003. L'événement de Carrington était si important qu'il a été vu dans les Caraïbes.

    Les personnes souhaitant observer une aurore pourraient avoir de la chance au cours des deux prochaines semaines si une fusée éclairante est éjectée dans notre direction.
    Pour ceux qui souhaitent voir une aurore, surveillez les avis concernant une grande fusée éclairante de classe X. Selon la vitesse à laquelle les éjections se propagent, les particules chargées arrivent généralement ici environ deux jours plus tard, mais peuvent arriver entre 15 heures et 4 ou 5 jours plus tard. Une fois que les particules frappent les satellites au point de Lagrange, les instruments nous avertissent environ 15 à 45 minutes plus tard. Le point de Lagrange se trouve à 2,5 millions de kilomètres de la Terre vers le Soleil, dans une zone où les forces gravitationnelles et centripètes sont égales, et il faut très peu de carburant aux satellites pour maintenir leur position. C’est ce qui se rapproche le plus d’une place de stationnement dans l’espace où nos voitures spatiales ne rouleront pas si nous ne regardons pas.

    RépondreSupprimer
  55. Consultez l'application Glendale pour plus d'informations ou inscrivez-vous pour recevoir des alertes par e-mail du Centre australien de prévision météorologique spatiale pour les aurores ou de SpaceWeatherLive. Une étincelle brillante a configuré Aurorasaurus pour suivre les tweets liés aux aurores. Apparemment, ils correspondent assez bien aux indices géomagnétiques. Si seulement les gens tweetaient il y a 150 ans.

    Pour mémoire : les éruptions solaires sont classées dans les classes B, C, M et X, X étant la plus grande et chaque classe émettant dix fois plus d’énergie que la classe précédente. Dans chaque classe, il y a neuf divisions de log (par exemple M1, M2, etc.). Il n'y a pas de limite supérieure pour les fusées éclairantes de classe X et celle de 2003 a surchargé les instruments (qui atteignent un maximum de X17). On a ensuite estimé qu'il s'agissait de X45, ce qui semblerait avoir mangé la terre. Les éruptions de mai étaient plus petites, comme X4.5 et X5.8 mais conglomérat.

    Les éruptions de classe X peuvent déclencher des pannes radio à l’échelle de la planète et des aurores potentiellement généralisées.

    MISE À JOUR : Les aurores sont un outil inconstant pour mesurer l’activité solaire, car seules celles alignées dans le sens opposé au champ magnétique terrestre généreront le spectacle de couleurs dans le ciel.

    « Le degré de perturbation magnétique provoquée par un CME [éjection de masse coronale] dépend du champ magnétique du CME et de celui de la Terre. Si le champ magnétique du CME est aligné avec celui de la Terre, pointant du sud vers le nord, le CME passera sans grand effet. Cependant, si le CME est aligné dans la direction opposée, cela peut provoquer une réorganisation du champ magnétique terrestre, déclenchant de grandes tempêtes géomagnétiques. "- Space.com

    RépondreSupprimer
  56. La direction du champ magnétique interplanétaire du vent solaire est appelée l’angle de l’horloge, et pour voir une aurore, nous avons besoin que le « Bz » soit négatif. Puisque le soleil inverse son propre champ magnétique à chaque cycle, peut-être qu’une orientation est plus susceptible de générer des aurores que l’autre ? Certains Russes prétendent que les cycles solaires « impairs » sont plus excitants pour les observateurs d’aurores (et il s’agit d’un cycle impair – le numéro 25). Ce n’est peut-être pas un hasard si les dernières grandes aurores se sont produites il y a 21 ans au sommet du dernier maximum solaire, le nord solaire étant pointé dans la même direction qu’aujourd’hui. Alors faites le plein d’aurores maintenant si vous le pouvez. Il peut s'écouler 22 ans entre deux verres, pour ainsi dire.

    MISE À JOUR N°2 : Désolé — en y réfléchissant, le soleil inverse les pôles magnétiques aux maxima solaires (c'est-à-dire bientôt) pas aux minima solaires, mais nous étiquetons les « cycles » des minima solaires aux minima. Ainsi, chaque cycle Schwabe de 11 ans sera à moitié nord-sud, puis le soleil se tournera vers le sud-nord pour la seconde moitié. Il ne s’ensuit donc pas nécessairement que les cycles solaires impairs ou pairs seront meilleurs ou pires pour les aurores. Il existe probablement un schéma de 22 ans pour les aurores, mais il sera réparti sur les cycles de Schwabe.

    Thanks to Willie Soon.

    https://joannenova.com.au/2024/05/auroras-anyone-the-big-sunspot-cluster-returns-and-its-grumpy/

    RépondreSupprimer
  57. Les éoliennes offshore pourraient perturber les signaux radar des navires


    Par Jo Nova
    May 29th, 2024


    Mais qui a besoin d’un radar, n’est-ce pas ?

    Nous avons découvert l’année dernière que les éoliennes offshore brouillent les radars de l’Air Force. Les pilotes de la RAF utilisent déjà les turbines lors d'exercices d'entraînement pour les aider à se cacher. Mais les navires utilisent également des radars et une nouvelle étude a discrètement rapporté il y a quelques années que les éoliennes offshore interféreraient avec les radars des navires, pourraient provoquer des collisions et interférer avec la recherche et le sauvetage. Le rapport de 2022 provenait des Académies nationales des sciences, de l’ingénierie et de la médecine des États-Unis.

    Mais ce n’est pas grave, il nous suffit de mettre à niveau tous les anciens systèmes radar, de maintenir les bateaux hors de la zone ou d’envelopper les pales des turbines dans le même matériau que celui que nous utilisons sur les avions furtifs. (Cela augmentera les coûts de l’énergie éolienne). Il ne fait aucun doute que les systèmes GPS et IA peuvent aider, mais le radar ajoute une couche de sécurité indépendante et bien développée. Qui a envie de se fier uniquement à la connexion satellite lors d’une nuit d’orage ?

    Et après avoir construit toutes les tours éoliennes, modernisé les bateaux et les avions, nous pourrons alors construire la deuxième et la troisième génération d’éoliennes et remplir les trous dans le sol avec les déchets de la première. Après avoir payé pour cela et pour les collisions et les vies perdues, les baleines tuées et les marsouins assourdis, nous espérons que dans cent ans la pluie sera plus uniformément répartie et les tempêtes se comporteront mieux. C’est comme si les danses de la pluie néolithiques ne s’arrêtaient jamais.

    On ne sait jamais, peut-être que certains groupes bénéficieront du bruit des radars, comme les trafiquants de drogue, les pirates et les passeurs ?

    Malheureusement, les éoliennes sont généralement construites à proximité du rivage, là où se trouvent souvent nos voies de navigation…

    - voir sur site -

    Cartographie des marchés des voies de navigation : le trafic maritime dans le monde
    Capitaliste visuel

    Les éoliennes offshore pourraient perturber les signaux radar des navires
    Eric Niiler, Wired, mars 2022

    Il s’avère que d’énormes éoliennes peuvent interférer avec les systèmes radar marins, ce qui rend le passage des gros navires à proximité des parcs éoliens offshore plus risqué, ainsi que celui des petits navires naviguant autour d’eux. Alors que les pays européens et asiatiques dépendent de l’énergie éolienne offshore depuis plus d’une décennie, les grands parcs éoliens proposés au large du plateau continental américain sont plus grands et plus espacés, ce qui signifie que les navires sont plus susceptibles d’opérer à proximité. Ces fermes sont proposées le long de la côte Est, du Massachusetts à la Caroline du Nord, ainsi que dans une poignée d'emplacements au large de la côte californienne, selon les données du Bureau américain de gestion de l'énergie océanique.

    Un groupe d'experts réunis par l'Académie nationale des sciences, de l'ingénierie et de la médecine a conclu dans un rapport publié la semaine dernière que les éoliennes peuvent créer deux problèmes différents. Premièrement, leurs tours en acier peuvent réfléchir les ondes électromagnétiques, interférant avec les systèmes radar de navigation des navires de manière à masquer un bateau à proximité.

    RépondreSupprimer
  58. Les pales rotatives de la turbine peuvent également créer une forme d’interférence similaire à l’effet Doppler, dans lequel les ondes sonores se raccourcissent lorsqu’un objet en mouvement s’approche de l’observateur. Dans ce cas, les pales en rotation raccourcissent et déforment les signaux radar envoyés par les navires qui passent et peuvent produire ce qu’on appelle un « flash de pale » sur l’écran radar d’un navire. Ces flashs peuvent créer de fausses images qui ressemblent à des bateaux et pourraient dérouter un opérateur radar humain sur le pont.

    « Si quelque chose se déplace vers vous et que vous l’éclairez avec un signal radar, alors le signal renvoyé aura en fait ce qu’on appelle un déphasage. Essentiellement, il semble que l'objet se rapproche », déclare Jennifer Bernhard, professeur de génie électrique et informatique à l'Université de l'Illinois à Urbana-Champaign et membre du panel des National Academies qui a produit le rapport. Bernhard dit que le phénomène ne bloque pas complètement l’image radar, « mais il crée du désordre »…

    Il n'y a pas de réponses faciles:

    Bien que le rapport propose quelques moyens d’atténuation, il note qu’il n’existe « aucune modification simple » qui pourrait permettre au radar des navires de fonctionner dans « les environnements complexes d’un parc éolien entièrement peuplé sur le plateau continental ».

    Collisions meurtrières en haute mer et efforts de recherche et de sauvetage entravés
    Les systèmes radar perturbés ne sont pas de simples problèmes liés à des écrans encombrés. Ils peuvent entraîner des collisions mortelles en haute mer. Les éoliennes peuvent « projeter des ombres radar, obscurcissant les petits navires sortant des installations éoliennes à proximité des navires à fort tirant d’eau dans les dispositifs de séparation du trafic ».

    La Garde côtière américaine a écrit à ce sujet l’année dernière :

    Énergie éolienne offshore : un défi croissant pour les opérations de la Garde côtière
    … il a été démontré que les éoliennes offshore affectent les capacités du système de planification optimale de recherche et de sauvetage (SAROPS) de la Garde côtière, qui est utilisé pour la modélisation de la dérive et la planification des recherches. Les pales du rotor oscillant et le générateur d'une éolienne émettent des niveaux élevés d'interférences électromagnétiques qui peuvent affecter les capacités du radar haute fréquence autour d'une [installation offshore d'énergie renouvelable] (OREI).

    La carte suggère que plusieurs centrales éoliennes pourraient limiter considérablement le fonctionnement du radar :

    Offshore wind turbines and radar

    Report: Wind Turbine Generator Impacts to Marine Vessel Radar

    https://joannenova.com.au/2024/05/offshore-wind-turbines-could-mess-with-ships-radar-signals/

    RépondreSupprimer